Privacy Policy Cookie Policy Terms and Conditions Klassifizierer - Wikipedia

Klassifizierer

aus Wikipedia, der freien Enzyklopädie

Dieser Artikel überschneidet sich thematisch mit Klassifikationsverfahren. Hilf mit, die Artikel besser voneinander abzugrenzen oder zu vereinigen. Eine Anleitung zur Benutzung der Vorlage und eine Liste der bisherigen Mehrfacheinträge findest Du unter Wikipedia:Redundanz, die Diskussion zu diesem Eintrag hier. Bitte äußere dich dort, bevor du den Baustein entfernst. --sparti 17:56, 4. Dez 2005 (CET)


Ein Klassifizierer (Informatik) sortiert Dokumente in Klassen ein. Diese Methodik kommt vor allem im Webmining zum Einsatz.


Inhaltsverzeichnis

[Bearbeiten] Trainieren

Ein Klassifizierer wird zunächst trainiert, das heißt er bekommt Daten, von denen die Kategorisierung bekannt ist, um anhand derer neue Beispiele einordnen zu können. Man unterscheidet folgende Lernarten:

  • betreutes Lernen (supervised learning): Ein "Lehrer" gibt die Werte der Zielfunktion für alle Trainingsbeispiele an
  • halb-betreutes Lernen (semi-supervised learning): Nur ein Teil der Trainingsbeispiele wird klassifiziert
    • aktives Lernen (active learning): Der Klassifizierer wählt die Beispiele aus, die vom "Lehrer" eingeordnet werden sollen
    • Selbst-Training (self-training): Der Klassifizierer ordnet die Beispiele selbst ein
    • Co-Training: Zwei Klassifizierer ordnen gegenseitig ihre Beispiele ein
    • Multi-View-Lernen: Zwei identische Klassifizierer, die unterschiedlich trainiert wurden, ordnen gegenseitig ihre Beispiele ein
  • unterstütztes Lernen (reinforcement learning): Der Agent bekommt zwar Feedback von der Umwelt zu seiner Kategorisierung, erfährt aber nicht explizit, was die richtige Kategorisierung gewesen wäre.
  • unbetreutes Lernen (unsupervised learning): Es gibt keine vorkategorisierten Beispiele

[Bearbeiten] Lernmethoden

Klassifizierer können auf sehr unterschiedliche Weise lernen und ihre Trainingsbeispiele verwerten. Die Wahl des Algorithmus ist abhängig von der Art der Trainingsdaten sowie den verfügbaren Leistungsreserven. Folgende Lernmethoden werden eingesetzt:

Weitere Lernansätze sind beispielsweise

  • Lernen als Suchen
  • Generalisierung mit Bias (Der Lerner hat bestimmte "Vorlieben", zieht Klassen vor)
  • Teile und Herrsche-Strategien
  • Overfitting-Avoidance: Das Modell generalisieren um die Fehleranfälligkeit zu reduzieren (Bsp.: (Ockhams Rasiermesser)

[Bearbeiten] Evaluierung

Zur Evaluierung des gelernten Modells werden folgende Verfahren eingesetzt:

  • Validierung durch Experten
  • Validerung auf Daten
  • Online-Validierung

Die Valdierung auf Daten hat als Nachteil, dass Trainingsdaten zur Validierung "verschwendet" werden (Out-of-Sample Testing). Dieses Dilemma kann durch Quer-Validierung (Cross-Validation) gelöst werden: Man teilt die Datensätze in n Teile. Dann nutzt man für jede Partition p die anderen n-1 Partitionen zum Lernen und die Partition p zum Testen.

Zur Bewertung eines Klassifizieres werden gängigerweise drei Größen angegeben, die auf folgender Tabelle basieren:


positiv klassifiziert negativ klassifiziert
tatsächlich positiv a c a+c
tatsächlich negativ b d b+d
a+b c+ d n

[Bearbeiten] Treffergenauigkeit (Accuracy)

Die Treffergenauigkeit gibt den Anteil der korrekt klassifizierten Beispiele an.

accuracy = \frac{a+d}{n}

[Bearbeiten] Erinnerung (Recall)

Die Erinnerung gibt den Anteil der positiven Beispiele an, die positiv klassifiziert wurden.

recall= \frac{a}{a+c}

[Bearbeiten] Präzision (Precision)

Die Präzision gibt den Anteil der positiv klassifizierten Beispiele an, die tatsächlich positiv sind.

precision = \frac{a}{a+b}

[Bearbeiten] zusätzliche Eigenschaften (Feature Engineering)

Die Ansätze zur Erweiterung von Klassifizierern gliedern sich wie folgt:

  • textabhängige Eigenschaften
    • n-Gramme: Ausnutzen des Kontextes durch Verwendung von Sequenzen der Länge n anstelle einzelner Worte (dadurch Unterscheidung von z. B. "mining" in "web mining" und "coal mining")
    • Positionsinformationen
  • Linguistische Eigenschaften
    • Stemming: gebeugte Verben auf ihren Wortstamm zurückführen
    • noun phrases: Fokus von n-Grammen auf "echte" Sätze beschränken (z. B. nur Bigramme mit Noun-Noun und Adverb-Noun)
    • linguistic phrases: Finde alle Vorkommnisse eines syntaktischen Templates (z. B. "noun aux-verb <d-obj>" findet "I am <Thomas>")
  • Strukturelle Eigenschaften
    • Structural markup
    • Hypertexte
  • Feature Subset Selection (FSS)
    • Häufigkeitsbasiert
    • TF-IDF (unsupervised FSS)
    • Maschinelles Lernen
    • Filter und Wrapper
  • Feature Construction
    • Latent Semantic Indexing: Die Probleme von Mehrdeutigkeit und Synonymen durch Trennung der Beispiele mit Hyperebenen mittels Singular Value Decomposition lösen.
  • Stoppwort-Listen

[Bearbeiten] Verwendung von Dokumentbezügen

Dokumente stehen für gewöhnlich nicht alleine, sondern befinden sich gerade im Netz in gegenseitigem Bezug, vor allem durch Links. Die Informationen aus diesen Links und der Vernetzungsstruktur lassen sich von Klassifizierern verwenden.

[Bearbeiten] Hubs & Authorities

Siehe auch den Artikel HITS

  • Authorities sind Seiten die viele Informationen zum gesuchten Thema enthalten
  • Hubs sind Seiten, die viele Links auf gute Authorities haben

Hierdurch ergibt sich eine gegenseitige Verstärkung. Durch iterative Berechnung der Scores mittels Hub score h(x) = \sum a(y) und Authority score a(x) = \sum h(y) sowie anschließende Normalisierung konvergiert das Verfahren. Probleme:

  • Effizienz
  • Irrelevante Links (z.B. Werbelinks)
  • Gegenseitige Verstärkung von Hosts
  • Abweichungen vom Thema

Verbesserungen:

  • Verbesserte Verbindungsanalyse: Die Wertungen nach Anzahl der Links normalisieren (Mehrere Links von einem Host werden schwächer gewertet)
  • Relevanz-Gewichtung: Dokumente die eine ungenügende Ähnlichkeit zu einem Durchschnittsdokument des Root-Sets haben werden nicht betrachtet

[Bearbeiten] Page Rank

Siehe auch den Artikel PageRank.

Die Idee hinter dem Page Rank ist der "Random Surfer", der mit Wahrscheinlichkeit d auf einen zufälligen Link auf einer Seite klickt.

Der Page Rank bevorzugt Seiten mit

  • vielen eingehenden Links
  • Vorgängern mit hohem Page Rank
  • Vorgängern mit wenig ausgehenden Links

[Bearbeiten] Hypertext Klassifizierung

Häufig enthalten Webseiten nur wenig Text und/oder viele Bilder. Sie sind in einer anderen Sprache geschrieben, enthalten irritierende Begriffe oder enthalten gar keine nützliche Information. Links hingegen sind von mehreren Autoren geschrieben, enthalten ein reicheres Vokabular, redundante Informationen, erschliessen unterschiedliche Aspekte einer Seite und haben ihren Fokus auf den wichtigen Inhalten von Seiten. Sie sind daher zur Klassifizierung von vernetzten Dokumenten sehr geeignet. Die besten Ergebnisse lassen sich erzielen, wenn man zur Klassifizierung einer Seite die Klassen der Vorgänger sowie den Text betrachtet.

[Bearbeiten] Hyperlink Ensembles

  • Der Seitentext ist nicht interessant
  • Jeder Link zur Seite wird ein eigenes Beispiel
  • Linkankertext, Überschrift und den Paragraphen, in dem der Link vorkommt erfassen
  • die Trainingsbeispiele (einer pro Link) klassifizieren und daraus die Klassifizierung für das aktuelle Dokument berechnen

[Bearbeiten] Quellen

J. Fürnkranz: Webmining - Data Mining im Web http://www.ke.informatik.tu-darmstadt.de/lehre/ss05/web-mining.html

Static Wikipedia 2008 (no images)

aa - ab - af - ak - als - am - an - ang - ar - arc - as - ast - av - ay - az - ba - bar - bat_smg - bcl - be - be_x_old - bg - bh - bi - bm - bn - bo - bpy - br - bs - bug - bxr - ca - cbk_zam - cdo - ce - ceb - ch - cho - chr - chy - co - cr - crh - cs - csb - cu - cv - cy - da - de - diq - dsb - dv - dz - ee - el - eml - en - eo - es - et - eu - ext - fa - ff - fi - fiu_vro - fj - fo - fr - frp - fur - fy - ga - gan - gd - gl - glk - gn - got - gu - gv - ha - hak - haw - he - hi - hif - ho - hr - hsb - ht - hu - hy - hz - ia - id - ie - ig - ii - ik - ilo - io - is - it - iu - ja - jbo - jv - ka - kaa - kab - kg - ki - kj - kk - kl - km - kn - ko - kr - ks - ksh - ku - kv - kw - ky - la - lad - lb - lbe - lg - li - lij - lmo - ln - lo - lt - lv - map_bms - mdf - mg - mh - mi - mk - ml - mn - mo - mr - mt - mus - my - myv - mzn - na - nah - nap - nds - nds_nl - ne - new - ng - nl - nn - no - nov - nrm - nv - ny - oc - om - or - os - pa - pag - pam - pap - pdc - pi - pih - pl - pms - ps - pt - qu - quality - rm - rmy - rn - ro - roa_rup - roa_tara - ru - rw - sa - sah - sc - scn - sco - sd - se - sg - sh - si - simple - sk - sl - sm - sn - so - sr - srn - ss - st - stq - su - sv - sw - szl - ta - te - tet - tg - th - ti - tk - tl - tlh - tn - to - tpi - tr - ts - tt - tum - tw - ty - udm - ug - uk - ur - uz - ve - vec - vi - vls - vo - wa - war - wo - wuu - xal - xh - yi - yo - za - zea - zh - zh_classical - zh_min_nan - zh_yue - zu -