Wald-Test

Der Wald-Test ist in der Ökonometrie ein parametrischer statistischer Test, der 1939 von Abraham Wald (1902–1950) entwickelt worden ist. Mit dem Test kann die Verteilung einer geeigneten Teststatistik unter Gültigkeit der Nullhypothese bestimmt werden. Eine allgemeine Teststatistik für verschiedenste ökonometrische Fragestellungen ist die Wald-Statistik, die asymptotisch einer Chi-Quadrat-Verteilung folgt. Der Wald-Test basiert auf der Tatsache, dass der Maximum-Likelihood-Schätzer für den unbekannten Parameter für große Beobachtungszahlen in Verteilung gegen eine Normalverteilung strebt. Viele Tests lassen sich daher als Spezialfälle des Wald-Tests auffassen.

Eindimensionaler Fall

Aus der Maximum-Likelihood-Theorie weiß man, dass der Maximum-Likelihood-Schätzer des unbekannten Parameters in Verteilung für große Beobachtungszahlen gegen eine Normalverteilung strebt. Sei ein unbekannter Parameter in der Grundgesamtheit und ein vorgegebener Wert. Um die folgende Nullhypothese gegen korrespondierende Alternativhypothese zu testen

  gegen  ,

kann man eine der folgenden Test-Statistiken benutzen:[1]

oder

,

die beide unter der Nullhypothese asymptotisch normalverteilt sind. Hierbei bezeichnet die Fisher-Information und die erwartete Fisher-Information. Beide Teststatistiken sind approximative Pivotgrößen für und werden Wald-Statistiken genannt.

Betrachtet man die quadrierte Teststatistik, so gilt:

,

d. h., sie ist bei großen Stichproben asymptotisch Chi-Quadrat-verteilt. Dies gilt, da eine quadrierte standardnormalverteilte Zufallsgröße einer Chi-Quadrat-Verteilung mit einem Freiheitsgrad folgt.

Wald-Vertrauensintervall

Bezeichne den Maximum-Likelihood-Schätzer für , dann gilt für die Wahrscheinlichkeit, dass die Wald-Statistik innerhalb der -Quantile der Standardnormalverteilung liegt

und damit ergibt sich das -Wald-Vertrauensintervall zu[2]

.

Mehrdimensionaler Fall

Im mehrdimensionalen Fall, wobei der Vektor der Schätzfunktionen ist und die asymptotische nichtsinguläre Kovarianzmatrix des Maximum-Likelihood-Schätzers ist, kann die Nullhypothese mit folgender Teststatistik getestet werden[3]

ist dann asymptotisch Chi-Quadrat-verteilt mit Freiheitsgraden. Die Restriktionsfunktion muss hierzu unter vollständig differenzierbar sein und vollen Rang haben.

Wald-Statistiken für allgemeine lineare Hypothesen

Um allgemeine lineare Hypothesen zu testen, spielt die asymptotische Verteilung der Wald-Statistik eine große Rolle. Sei eine Restriktionsmatrix, mit Sei weiterhin angenommen, dass die Restriktionen an den Parametervektor ausgedrückt werden können als :, wobei ein -Vektor bestehend aus bekannten Konstanten darstellt. Unter bestimmten Voraussetzungen kann gezeigt werden, dass unter der Nullhypothese die gewichtete Hypothesenquadratsumme

einer Chi-Quadrat-Verteilung mit (Anzahl der Restriktionen) Freiheitsgraden folgt. Hierbei misst wie weit der geschätzte Wert von der Nullhypothese abweicht. Weiterhin ist die dazugehörige Summe der Abweichungsquadrate (Analog zur Residuenquadratsumme). Diese Summe der Abweichungsquadrate wird mit der inversen Kovarianzmatrix der Nullhypothese gewichtet, weil für eine große Kovarianz ebenso so große Abweichungen nicht notwendigerweise ein Indikator für sind. Falls der erwartungstreue Schätzer für die Störgrößenvarianz benutzt wird, kann man zeigen, dass die Wald-Statistik dividiert durch die Anzahl der Restriktionen genau der F-Statistik des multiplen linearen Testproblems entspricht.[4]

Beispiele

Einstichproben-Gauß-Test als Spezialfall des Wald-Tests

Wenn eine Variable in einer Grundgesamtheit normalverteilt ist mit mit unbekanntem Parameter und bekanntem , dann ist der Stichprobenmittelwert

auch der Maximum-Likelihood-Schätzer für . Eine der Hypothesen für den Einstichproben-Gauß-Test lautet:

  gegen  

und die Teststatistik nach Wald wäre

.

Somit kann der Einstichproben-Gauß-Test als Spezialfall des Wald-Tests aufgefasst werden.

Globaler F-Test als Spezialfall des Wald-Tests

Einen weiteren Spezialfall des Wald-Tests stellt der globale F-Test dar. Bei diesem wird geprüft, ob mindestens eine erklärende Variable einen Erklärungsgehalt für das Modell liefert. Falls diese Hypothese verworfen wird, ist somit das Modell nutzlos. Die Nullhypothese des F-Tests auf Gesamtsignifikanz des Modells sagt aus, dass alle erklärenden Variablen keinen Einfluss auf die abhängige Variable haben, und die Alternativhypothese, dass mindestens eine erklärende Variable Einfluss auf sie hat. Sowohl die erklärenden Variablen als auch die unabhängigen Variablen können binär (kategoriell) oder metrisch sein. Der Wald-Test kann dann die Hypothesen testen (ohne Einbezug des Achsenabschnitts):[5]

  gegen  .

Alternativen

Eine Alternative zum Wald-Test bietet der Likelihood-Quotienten-Test. Dieser ist zwar rechenaufwändiger, dafür zeigt er in kleinen Stichproben jedoch auch bessere Eigenschaften. Eine weitere Alternative ist der sogenannte Lagrange-Multiplikator-Tests (LM-Tests, siehe auch Lagrange-Multiplikator). Asymptotisch sind diese drei Tests jedoch identisch.

Literatur

  • Wald's W-Statistics. In: Encyclopedia of Statistical Sciences. Wiley, Hoboken 2006, S. 9028–9029.
  • Abraham Wald: Tests of Statistical Hypotheses Concerning Several Parameters When the Number of Observations is Large. In: Transactions of the American Mathematical Society. Vol. 54, No. 3, Nov 1943, S. 426–482, doi:10.1090/S0002-9947-1943-0012401-3, JSTOR 1990256.
  • Tim F. Liao: Comparing Social Groups: Wald Statistics for Testing Equality Among Multiple Logit Models. In: International Journal of Comparative Sociology. Vol. 45, No. 1–2, 2004, S. 3–16, doi:10.1177/0020715204048308.
  • Robert F. Engle: Wald, Likelihood Ratio and Lagrange Multiplier Tests in Econometrics. In: Zvi Griliches, Michael D. Intriligator (Hrsg.): Handbook of Econometrics. Vol. 2, Elsevier, Amsterdam u. a. 1984, S. 775–826.

Einzelnachweise

  1. Leonhard Held und Daniel Sabanés Bové: Applied Statistical Inference: Likelihood and Bayes. Springer Heidelberg New York Dordrecht London (2014). ISBN 978-3-642-37886-7, S. 99.
  2. Leonhard Held und Daniel Sabanés Bové: Applied Statistical Inference: Likelihood and Bayes. Springer Heidelberg New York Dordrecht London (2014). ISBN 978-3-642-37886-7, S. 100.
  3. George G. Judge, R. Carter Hill, W. Griffiths, Helmut Lütkepohl, T. C. Lee. Introduction to the Theory and Practice of Econometrics. 2. Auflage. John Wiley & Sons, New York/ Chichester/ Brisbane/ Toronto/ Singapore 1988, ISBN 0-471-62414-4, S. 109.
  4. Jeffrey Marc Wooldridge: Introductory econometrics: A modern approach. 4. Auflage. Nelson Education, 2015, S. 810
  5. Ludwig Fahrmeir, Rita Künstler, Iris Pigeot, Gerhard Tutz: Statistik. Der Weg zur Datenanalyse. 8., überarb. und erg. Auflage. Springer Spektrum, Berlin/ Heidelberg 2016, ISBN 978-3-662-50371-3, S. 458.