Privacy Policy Cookie Policy Terms and Conditions Likelihood-Quotienten-Test - Wikipedia

Likelihood-Quotienten-Test

aus Wikipedia, der freien Enzyklopädie

Der Likelihood-Quotienten-Test ist ein statistischer Test, der zu den typischen Hypothesentests in parametrischen Modellen gehört. Viele klassische Tests wie der F-Test für den Varianzenquotienten oder der Zwei-Stichproben-t-Test lassen sich als Beispiele für Likelihood-Quotienten-Tests interpretieren.

[Bearbeiten] Definition

Formal betrachtet man das typische parametrische Testproblem: Gegeben ist eine Grundmenge von Wahrscheinlichkeitsverteilungen \;P_\theta, abhängig von einem unbekannten Parameter \;\theta, der aus einer bekannten Grundmenge \Theta\; stammt. Als Nullhypothese \;H_0 soll getestet werden, ob der Parameter zu einer echten Teilmenge \;\Theta_0 gehört. Also:

H_0: \theta \in \Theta_0.

Die Alternative H_1\; lautet entsprechend:

H_1: \theta \in \Theta_1,

wobei \Theta_1\; das Komplement zu \Theta_0\; in \Theta\; bezeichnet.

Die beobachteten Daten sind Realisierungen von Zufallsvariablen \;X_1, \ldots , X_n, die jeweils die (unbekannte) Verteilung P_\theta\; besitzen und stochastisch unabhängig sind.

Der Begriff des Likelihood-Quotienten-Tests suggeriert bereits, dass die Entscheidung des Tests auf der Bildung eines Quotienten beruht. Man geht dabei so vor, dass man ausgehend von den Daten x = (x_1, \ldots , x_n)\; und den zu den einzelnen Parametern gehörenden Dichtefunktionen f^{X_1, \ldots , X_n}(\cdot; \theta) den folgenden Ausdruck berechnet:

\Lambda(x):=\frac{\sup_{\theta \in \Theta_0} f^{X_1, \ldots, X_n}(x_1, \ldots, x_n; \theta)}{\sup_{\theta \in \Theta} f^{X_1, \ldots, X_n}(x_1, \ldots, x_n; \theta)}.

Heuristisch gesprochen: Man bestimmt anhand der Daten zunächst den Parameter aus der gegebenen Grundmenge, der die größte Wahrscheinlichkeit dafür liefert, dass die gefundenen Daten gemäß der Verteilung P_\theta\; realisiert worden sind. Den Wert der Dichtefunktion bezüglich dieses Parameters wird dann als repräsentativ für die gesamte Menge gesetzt. Im Zähler betrachtet man als Grundmenge den Raum der Nullhypothese, also \Theta_0\;, für den Nenner betrachtet man die gesamte Grundmenge \Theta\;.

Es lässt sich intuitiv schließen: Je größer der Quotient ist, desto wahrscheinlicher ist H_0\;. Ein Wert von \;\Lambda(x) in der Nähe von Eins bedeutet, dass anhand der Daten kein großer Unterschied zwischen den beiden Parametermengen \Theta\; und \Theta_0\; zu erkennen ist. Die Nullhypothese sollte in solchen Fällen also nicht verworfen werden.

Demnach wird bei einem Likelihood-Quotienten-Test die Hypothese H_0\; zum Niveau \alpha\; abgelehnt, falls

\Lambda(x)< k^*_{\alpha}

gilt. Hierbei ist der kritische Wert k^*_\alpha\; so zu wählen, dass \sup_{\theta\in\Theta_0} P_{\theta}(\Lambda(x) < k^*_{\alpha})=\alpha gilt.

Die konkrete Bestimmung dieses kritischen Werts ist in der Regel problematisch.

[Bearbeiten] Approximation von \;\Lambda(X) durch eine χ²-Verteilung

Unter bestimmten Voraussetzungen lässt sich die im allgemeinen schwierig zu betrachtende Teststatistik \;\Lambda(X) durch χ²-verteilte Zufallsvariablen annähern, so dass sich vergleichsweise leicht asymptotische Tests herleiten lassen. Neben eher technischen Annahmen an die Verteilungsfamilie \;P_\theta ist die folgende Annahme einer „Parametrisierbarkeit der Nullhypothese“ fundamental:

Es seien der Parameterraum \;\Theta \subset \mathbb R^d und zudem \;\Delta \subset \mathbb R^c gegeben, beide Mengen seien offen und es gelte: \;c < d. Zudem existiere eine zweimal stetig differenzierbare Abbildung \;h: \Delta \rightarrow \Theta mit \;h(\Delta)= \Theta_0, deren Jacobi-Matrix \;h'(\eta) für jedes \;\eta \in \Delta vollen Rang besitzt.

Dann gilt:

T_n := -2\log \Lambda(X) \rightarrow \chi^2_{d-c},

wobei die Zufallsvariablen in Verteilung konvergieren.

Die Beweisidee beruht auf einer Aussage über die Existenz von Maximum-Likelihood-Schätzern in allgemeinen parametrischen Familien und ihrer Konvergenz gegen eine normalvereilte Zufallsvariable, deren Varianz das Inverse der Fisher-Information ist.

[Bearbeiten] Literatur

P. J. Bickel, K. Doksum: Mathematical statistics. Holden-Day.

Andere Sprachen

Static Wikipedia 2008 (no images)

aa - ab - af - ak - als - am - an - ang - ar - arc - as - ast - av - ay - az - ba - bar - bat_smg - bcl - be - be_x_old - bg - bh - bi - bm - bn - bo - bpy - br - bs - bug - bxr - ca - cbk_zam - cdo - ce - ceb - ch - cho - chr - chy - co - cr - crh - cs - csb - cu - cv - cy - da - de - diq - dsb - dv - dz - ee - el - eml - en - eo - es - et - eu - ext - fa - ff - fi - fiu_vro - fj - fo - fr - frp - fur - fy - ga - gan - gd - gl - glk - gn - got - gu - gv - ha - hak - haw - he - hi - hif - ho - hr - hsb - ht - hu - hy - hz - ia - id - ie - ig - ii - ik - ilo - io - is - it - iu - ja - jbo - jv - ka - kaa - kab - kg - ki - kj - kk - kl - km - kn - ko - kr - ks - ksh - ku - kv - kw - ky - la - lad - lb - lbe - lg - li - lij - lmo - ln - lo - lt - lv - map_bms - mdf - mg - mh - mi - mk - ml - mn - mo - mr - mt - mus - my - myv - mzn - na - nah - nap - nds - nds_nl - ne - new - ng - nl - nn - no - nov - nrm - nv - ny - oc - om - or - os - pa - pag - pam - pap - pdc - pi - pih - pl - pms - ps - pt - qu - quality - rm - rmy - rn - ro - roa_rup - roa_tara - ru - rw - sa - sah - sc - scn - sco - sd - se - sg - sh - si - simple - sk - sl - sm - sn - so - sr - srn - ss - st - stq - su - sv - sw - szl - ta - te - tet - tg - th - ti - tk - tl - tlh - tn - to - tpi - tr - ts - tt - tum - tw - ty - udm - ug - uk - ur - uz - ve - vec - vi - vls - vo - wa - war - wo - wuu - xal - xh - yi - yo - za - zea - zh - zh_classical - zh_min_nan - zh_yue - zu -