Privacy Policy Cookie Policy Terms and Conditions Logfile-Analyse - Wikipedia

Logfile-Analyse

aus Wikipedia, der freien Enzyklopädie

Bei der Logdateianalyse wird die Logdatei eines Zeitraumes nach bestimmten Kriterien untersucht.

Je nach Art und Umfang der Aufzeichnung der Logdatei kann man daraus verschiedene Schlüsse ziehen.

Inhaltsverzeichnis

[Bearbeiten] Unterschiedliche Arten von Logdateien

Bei aktuellen Computersystemen werden die unterschiedlichsten Systeme mitprotokolliert. Am häufigsten dürfte sicher die Analyse von Webserver-Logdateien sein, dicht gefolgt von Firewall-Logdateien.

[Bearbeiten] Korrelation von Logdateien

Neben der Auswertung einzelner Dateien existiert quasi als Königdisziplin die Korrelation unterschiedlicher Logfiles, insbesondere zur Fehleranalyse. Dabei ist es wichtig, daß die beteiligten Systeme alle Logeinträge mit einem Zeitstempel versehen und darüber hinaus die Uhren dieser Systeme nahezu synchron gehen. Hier empfiehlt sich der Einsatz eines Netzwerkzeitprotokolls wie NTP.

Beispiel für eine Korrelation von Logdateien und -einträgen wäre die Verbindung von Firewall-Logfile und Routerlogfile sowie Accountingdaten auf einem von Hackern kompromittierten System.

[Bearbeiten] Analyse von Webserver-Logdateien

Die interpretierten Statistiken ermöglichen es, den Aufbau und die Struktur der Internetseite zu optimieren. Sie sind Grundlage für Benutzerfreundlichkeitsanalysen oder liefern Aussagen über den Erfolg einer Marketingaktion. Ein Beispiel für eine Logfile-Analyse bietet die Wikipedia Serverstatistik. Mit einer Analyse der Logfiles kann man ansatzweise Webcontrolling betreiben.

[Bearbeiten] Einige mögliche Fragestellungen

  • Wie lauten IP-Adresse und Hostname des Nutzers?
  • Welchen Browser hat er genutzt?
  • Auf welcher Seite stand der Link, mit dem der Nutzer auf die Seite gekommen ist?
  • Welche Suchmaschine und welche Suchwörter hat er genutzt?
  • Wie lange blieb er auf der Webseite?
  • Wie viele Seiten ruft er dabei auf?
  • Auf welcher Seite hat er die Webseite verlassen?
  • Welche Ergänzungsmodule hat er installiert?
  • Welches Betriebssystem nutzt er?
  • Welche Internetseiten hat Mitarbeiter Mustermann während der Arbeitszeit besucht? (hier muss in der Regel der Betriebsrat einbezogen werden)

[Bearbeiten] Probleme bei der Analyse

Das Hauptproblem der Logfile-Analyse bei Webserver-Logfiles, ist die Tatsache, dass HTTP ein zustandsloses Protokoll ist. Das heißt, jede Anfrage eines Clients nach einer Webseite (oder jeder einzelnen darin vorkommenden Grafik usw.), ist für den Webserver eine eigenständige Aktion. Klickt sich der Benutzer durch eine Website, hat der Webserver keinerlei Kenntnis, dass der Benutzer gerade schon eine Seite abgerufen hat.

Um trotzdem ein zustandsbehaftetes HTTP zu ermöglichen, wird bei dynamisch erzeugten Webseiten gelegentlich beim ersten Aufruf des Benutzers eine so genannte Session-ID vergeben, die der Client dann bei den folgenden Anfragen immer mitsendet. Dies kann über einen Cookie oder einen an jeden URI zusätzlich angehängten Parameter erfolgen, wobei ein Cookie jedoch nicht im Logfile sichtbar ist und eine gesonderte Programmierung für die Logfile-Analyse benötigt. Falls ein Cookie gesetzt werden kann (ist vom Client abhängig), ist auch eine spätere Wiedererkennung möglich, sofern der Cookie in der Zwischenzeit nicht verändert bzw. gelöscht wurde. Ansonsten können nur rein statistische Aussagen über die (wahrscheinlichen) Wiederkehrer einer Seite getroffen werden. Dies ist dann z.B. durch Kombinationen von gleicher IP-Adresse, Bildschirmauflösung, übereinstimmenden Plugins, usw. annähernd möglich - genau ist diese Methode aber nicht! Allerdings gibt es Untersuchungen zu Techniken, wie man einzelne Rechner anhand ihrer individuellen Gangungenauigkeit der Systemuhr wiedererkennen kann.

Eine andere im HTTP-Protokoll vorhandene Möglichkeit, einen Benutzer zu identifizieren, ist die Verwendung der IP-Adresse. Diese kann jedoch für viele unterschiedliche Benutzer dieselbe sein, wenn diese einen Proxyserver, Network Address Translation oder Ähnliches verwenden. Sie sind daher nur mit größter Vorsicht zu verwenden, da eine IP-Adresse nicht mit einem Benutzer gleichzusetzen ist.

Oftmals hat der Betreiber einer Webseite jedoch keinen Zugriff auf das Logfile des Webservers, sodass häufig versucht wird, mittels Web-Bugs dennoch eine statistische Auswertung zu ermöglichen. Hierzu werden kleine unsichtbare (1×1 Pixel, transparent) Bilder in die Webseite eingebunden, die auf einem Webserver abgelegt werden, dessen Logfile man auswerten kann.

Erweiterte Informationen, wie beispielsweise die Bildschirmauflösung oder eine Liste von installierten Webbrowser-Plugins werden auch gerne gewünscht, sind jedoch nicht in einem Logfile enthalten. Diese Informationen werden dann üblicherweise mittels einer clientseitigen Scriptsprache ermittelt, und ebenfalls mittels Web-Bug separat geloggt.

[Bearbeiten] Programme zur Logfile-Analyse einer Website

  • Freie Software (open-source)
    • PHP Web Statistik
    • AWStats
    • Analog
    • Webalizer
    • Webalizer Xtended (Weiterentwicklung des ursprünglichen Webalizer mit zahlreichen Erweiterungen wie z.B. HTTP-404-Statistik, benutzerdefinierbaren Farben und Sicherheits-Bugfixes)
    • LIRE
    • Visitors
    • WUM
    • WUMprep
    • ModLogAn
  • kostenlose Programme
    • Web Entry Miner WEM
    • Hottracker (keine Logfile-Analyse, sondern Tagging-Methode mit Web-Bug)
    • WebReflow für den Privatgebrauch
    • W3 Statistics
    • PrimaWebtools
    • Google Analytics


  • Kommerzielle Programme
    • APAGO® - User Tracking für große Websites
    • ClickTracks
    • WiredMinds
    • W3 Statistics
    • ShopStat
    • WebTrends
    • NetTracker
    • mycon Technologies Echtzeit-Kundenanalyse und Webstatistiken
    • aconon® Web-Controlling Software
    • netUpdater LIVE | Echtzeit-User-Tracking-System
    • LogFile Analyse Pro
    • Nedstat
    • Intares-MQS Web Mining]
    • SAS Web Analytics
    • WebSpy
    • WebReflow
    • NetMind Echtzeit-User-Tracking-System
    • SiteMonitor
    • ETracker
  • Produkt-Verzeichnisse
    • Deutschsprachig auf Web-Analytics.org
    • Englischsprachig bei Terry Lund

[Bearbeiten] Literatur

[Bearbeiten] Weblinks

Static Wikipedia 2008 (no images)

aa - ab - af - ak - als - am - an - ang - ar - arc - as - ast - av - ay - az - ba - bar - bat_smg - bcl - be - be_x_old - bg - bh - bi - bm - bn - bo - bpy - br - bs - bug - bxr - ca - cbk_zam - cdo - ce - ceb - ch - cho - chr - chy - co - cr - crh - cs - csb - cu - cv - cy - da - de - diq - dsb - dv - dz - ee - el - eml - en - eo - es - et - eu - ext - fa - ff - fi - fiu_vro - fj - fo - fr - frp - fur - fy - ga - gan - gd - gl - glk - gn - got - gu - gv - ha - hak - haw - he - hi - hif - ho - hr - hsb - ht - hu - hy - hz - ia - id - ie - ig - ii - ik - ilo - io - is - it - iu - ja - jbo - jv - ka - kaa - kab - kg - ki - kj - kk - kl - km - kn - ko - kr - ks - ksh - ku - kv - kw - ky - la - lad - lb - lbe - lg - li - lij - lmo - ln - lo - lt - lv - map_bms - mdf - mg - mh - mi - mk - ml - mn - mo - mr - mt - mus - my - myv - mzn - na - nah - nap - nds - nds_nl - ne - new - ng - nl - nn - no - nov - nrm - nv - ny - oc - om - or - os - pa - pag - pam - pap - pdc - pi - pih - pl - pms - ps - pt - qu - quality - rm - rmy - rn - ro - roa_rup - roa_tara - ru - rw - sa - sah - sc - scn - sco - sd - se - sg - sh - si - simple - sk - sl - sm - sn - so - sr - srn - ss - st - stq - su - sv - sw - szl - ta - te - tet - tg - th - ti - tk - tl - tlh - tn - to - tpi - tr - ts - tt - tum - tw - ty - udm - ug - uk - ur - uz - ve - vec - vi - vls - vo - wa - war - wo - wuu - xal - xh - yi - yo - za - zea - zh - zh_classical - zh_min_nan - zh_yue - zu -