p-Wert
Der p-Wert (nach R. A. Fisher), auch Überschreitungswahrscheinlichkeit oder Signifikanzwert genannt ( für lateinisch probabilitas ‚Wahrscheinlichkeit‘), ist in der Statistik und dort insbesondere in der Testtheorie ein Evidenzmaß für die Glaubwürdigkeit der Nullhypothese, die oft besagt, dass ein bestimmter Zusammenhang nicht besteht, z. B. ein neues Medikament nicht wirksam ist. Ein kleiner -Wert legt nahe, dass die Beobachtungen die Nullhypothese nicht stützen. Neben seiner Bedeutung als Evidenzmaß wird der -Wert als mathematisches Hilfsmittel zur Feststellung von Signifikanz in Hypothesentests gebraucht, dem -Wert selbst muss dafür keine besondere Bedeutung zugeschrieben werden.
Der -Wert ist definiert als die Wahrscheinlichkeit – unter der Bedingung, dass die Nullhypothese in Wirklichkeit gilt –, den beobachteten Wert der Prüfgröße oder einen in Richtung der Alternative „extremeren“ Wert zu erhalten. Der -Wert entspricht dann dem kleinsten Signifikanzniveau, bei dem die Nullhypothese gerade noch verworfen werden kann. Da der -Wert eine Wahrscheinlichkeit ist, kann er Werte von null bis eins annehmen. Dies bietet den Vorteil, dass er die Vergleichbarkeit verschiedener Testergebnisse ermöglicht. Der konkrete Wert wird durch die gezogene Stichprobe bestimmt. Ist der -Wert „klein“ (kleiner als ein vorgegebenes Signifikanzniveau; allgemein < 0,05), so lässt sich die Nullhypothese ablehnen.[1] Anders ausgedrückt: Ist die errechnete Prüfgröße größer als der kritische Wert (kann unmittelbar aus einer Quantiltabelle abgelesen werden), so kann die Nullhypothese verworfen werden und man kann davon ausgehen, dass die Alternativhypothese gilt und damit ein bestimmter Zusammenhang besteht (z. B. ein neues Medikament ist wirksam). Wenn die Nullhypothese zugunsten der Alternativhypothese verworfen wird, wird das Resultat als „statistisch signifikant“ bezeichnet. „Signifikant“ bedeutet hierbei lediglich „überzufällig“ und ist nicht gleichbedeutend mit „praktischer Relevanz“ oder „wissenschaftlicher Bedeutsamkeit“. In verschiedenen wissenschaftlichen Disziplinen haben sich festgesetzte Grenzen wie 5 %, 1 % oder 0,1 % etabliert, die verwendet werden, um zu entscheiden, ob die Nullhypothese abgelehnt werden kann oder nicht. Die Größe des -Werts gibt keine Aussage über die Größe des wahren Effekts.
Der -Wert wird sehr häufig fehlinterpretiert und falsch verwendet, weswegen sich die American Statistical Association im Jahr 2016 genötigt sah, eine Mitteilung über den Umgang mit -Werten und statistischer Signifikanz zu veröffentlichen.[2] Einer kleinen kanadischen Feldstudie von 2019 zufolge werden in etlichen Lehrbüchern die Begriffe „-Wert“ und „statistische Signifikanz“ nicht korrekt vermittelt.[3] Studien von Oakes (1986) und Haller & Krauss (2002) zeigen, dass ein Großteil von Studierenden und von Lehrern der Statistik den -Wert nicht korrekt interpretieren können. Die falsche Verwendung und die Manipulation von -Werten (siehe -Hacking) ist eine Kontroverse in der Meta-Forschung.
Mathematische Formulierung
Bei einem statistischen Test wird eine Vermutung (Nullhypothese) überprüft, indem ein passendes Zufallsexperiment durchgeführt wird, das die Zufallsgrößen liefert. Diese Zufallsgrößen werden zu einer einzelnen Zahl, Prüfgröße genannt, zusammengefasst:
Für einen konkreten Versuchsausgang des Experiments erhält man einen Wert
- .
Der -Wert ist definiert als die Wahrscheinlichkeit – unter der Bedingung, dass die Nullhypothese in Wirklichkeit gilt – den beobachteten Wert der Prüfgröße oder einen in Richtung der Alternative „extremeren“ Wert zu erhalten.[4] Für zusammengesetzte Nullhypothesen ist diese bedingte Wahrscheinlichkeit nur noch nach oben abschätzbar.
Genauer wird der -Wert für einen statistischen Test mit einer Abbildung , die jedem den zugehörigen Nicht-Ablehnungsbereich zuordnet, definiert als .
Bei einem rechtsseitigen Test gilt:
Bei einem linksseitigen Test gilt:
Und bei einem zweiseitigen Test gilt:
Üblicherweise wird vor dem Test ein Signifikanzniveau festgelegt und der -Wert dann mit diesem verglichen. Je kleiner der -Wert ist, desto mehr Grund gibt es, die Nullhypothese zu verwerfen. Ist der -Wert kleiner als das vorgegebene Signifikanzniveau , so wird die Nullhypothese verworfen. Ansonsten kann man die Nullhypothese nicht verwerfen.
Nach frequentistischer Sichtweise enthält der von R. A. Fisher eingeführte -Wert keine weiterführende Information; nur die Tatsache, ob er kleiner ist als ein vorgegebenes Niveau , ist von Interesse. In dieser Form ist nur eine andere Formulierung dafür, dass der beobachtete Wert der Prüfgröße in der kritischen Region liegt, und fügt der Neyman-Pearsonschen Theorie der Hypothesentests nichts Neues hinzu.
Beispiel
Gegeben sei eine Münze. Die zu prüfende Nullhypothese sei, dass die Münze fair ist, dass also Kopf und Zahl gleich wahrscheinlich sind; die Alternativhypothese sei, dass ein Ergebnis wahrscheinlicher ist, wobei nicht festgelegt wird, welches der beiden wahrscheinlicher sein soll. Das Zufallsexperiment zum Testen der Nullhypothese bestehe nun darin, dass die Münze zwanzig Mal geworfen wird. bezeichne die Anzahl der Würfe, die „Kopf“ als Ergebnis liefern. Bei einer fairen Münze wäre zehnmal „Kopf“ zu erwarten. Als Statistik wählt man daher sinnvollerweise
- . Y = Realisierung von entweder "Kopf" oder "Zahl"
Angenommen, der Versuch liefert -mal das Ergebnis „Kopf“, also ist die Realisierung von hier . Unter der Nullhypothese ist die Anzahl der Köpfe binomialverteilt mit und . Der -Wert für diesen Versuchsausgang ist daher
- .
Auf einem Signifikanzniveau von α = 5 % = 0,05 kann man die Nullhypothese nicht verwerfen, da 0,115 > 0,05 (und nicht kleiner, wie nötig wäre). Das heißt, dass man aus den Daten nicht folgern kann, dass die Münze nicht fair ist.
Wäre das Versuchsergebnis -mal Kopf, also , dann wäre der -Wert für diesen Versuchsausgang
- .
Auf einem Signifikanzniveau von α = 5 % = 0,05 würde man in diesem Fall die Nullhypothese verwerfen, da 0,041 < 0,05; man würde also schließen, dass die Münze nicht fair ist. Auf einem Signifikanzniveau von 1 % hingegen wären weitere Tests nötig. (Genauer gesagt: Man würde die Datenlage für unzureichend ansehen, um den Schluss zu rechtfertigen, die Münze sei nicht fair. Dies als einen Beweis zu nehmen, dass die Münze fair ist, wäre jedoch falsch.)
Beziehung zum Signifikanzniveau
Es gibt eine Äquivalenz zwischen einem Testverfahren mit der Berechnung des -Wertes und einem Verfahren mit dem im Voraus bestimmten Signifikanzniveau. Der -Wert berechnet sich anhand des beobachteten Wertes der Prüfgröße, und der kritische Wert folgt aus dem Signifikanzniveau , so gilt z. B. rechtsseitig:
und
wobei den kritischen Wert darstellt. In statistischer Software wird bei der Durchführung eines Tests der -Wert, siehe rechts unter Asymptotische Signifikanz (letzte Zeile im Kasten), angegeben. Ist der -Wert kleiner als das vorgegebene Signifikanzniveau , so ist die Nullhypothese abzulehnen.
Auf der einen Seite enthebt die Ausgabe des -Wertes bei einem Test die Software explizit davon, nach dem vorgegebenen Signifikanzniveau zu fragen, um eine Testentscheidung zu treffen. Auf der anderen Seite besteht die Gefahr, dass der Forscher das eigentlich im Voraus festzulegende Signifikanzniveau anpasst, um sein gewünschtes Ergebnis zu bekommen.
Weitere Eigenschaften
Falls die Prüfgröße eine stetige Verteilung hat, ist der -Wert, unter der (punktförmigen) Nullhypothese, uniform verteilt auf dem Intervall .[5]
Typische Fehlinterpretationen
Wenn die Nullhypothese zugunsten der Alternativhypothese verworfen wird, wird das Resultat als „statistisch signifikant“ bezeichnet. „Signifikant“ bedeutet hierbei lediglich „überzufällig“. Ein häufiges Missverständnis ist die Gleichsetzung dieser Aussage mit der falschen Behauptung, der -Wert würde angeben, wie wahrscheinlich die Nullhypothese bei Erhalt dieses Stichprobenergebnisses sei. Tatsächlich wird mit dem -Wert jedoch angedeutet, wie extrem das Ergebnis ist: Je kleiner der -Wert, desto mehr spricht das Ergebnis gegen die Nullhypothese.
Goodman formuliert 12 Aussagen über -Werte, die ausgesprochen weit verbreitet und dennoch falsch sind,[6] wie zum Beispiel die folgenden:
- Falsch ist: Wenn , ist die Chance, dass die Nullhypothese wahr ist, nur 5 %.
- Falsch ist: Ein nicht-signifikanter Unterschied bedeutet bei einem Mittelwertsvergleich zwischen zwei Gruppen, dass die Mittelwerte gleich sind.
- Ebenfalls falsch ist: Nur ein signifikanter Unterschied bedeutet, dass das Ergebnis in der Realität, beispielsweise in der klinischen Anwendung, wichtig ist.
Kritik am p-Wert
Kritiker des -Werts weisen darauf hin, dass das Kriterium, mit dem über die „statistische Signifikanz“ entschieden wird, auf einer willkürlichen Festlegung des Signifikanzlevels basiert (oft auf 0,05 gesetzt) und dass das Kriterium zu einer alarmierenden Anzahl von falsch-positiven Tests führt. Der Anteil aller „statistisch signifikanten“ Tests, bei denen die Nullhypothese wahr ist, könnte beträchtlich höher sein als das Signifikanzniveau, was wiederum davon abhängt, wie viele der Nullhypothesen falsch sind und wie hoch die Trennschärfe des Tests ist. Die Einteilung der Resultate in signifikante und nicht-signifikante Ergebnisse kann stark irreführend sein. Zum Beispiel kann die Analyse von beinahe identischen Datensätzen zu -Werten führen, die sich stark in der Signifikanz unterscheiden. In der medizinischen Forschung stellte der -Wert anfangs eine beachtliche Verbesserung der bisherigen Ansätze dar, aber gleichzeitig ist es mit der steigenden Komplexität der publizierten Artikel wichtig geworden, die Fehlinterpretationen des -Werts aufzudecken. Es wurde darauf hingewiesen, dass in Forschungsfeldern wie der Psychologie, bei denen Studien typischerweise eine niedrige Trennschärfe haben, die Anwendung von Signifikanztests zu höheren Fehlerraten führen kann. Die Verwendung von Signifikanztests als Grundlage von Entscheidungen wurde wegen der weit verbreiteten Missverständnisse über den Prozess ebenfalls kritisiert. Entgegen der landläufigen Meinung gibt der -Wert nicht die Wahrscheinlichkeit der Nullhypothese an, wahr oder falsch zu sein. Des Weiteren sollte die Signifikanzschwelle nicht festgelegt werden, ohne die Konsequenzen eines falsch-positiven oder falsch-negativen Ergebnisses des konkreten Tests zu berücksichtigen.
Alternativen
P-Werte der zweiten Generation (second generation p-values) erweitern das Konzept der p-Werte so, dass extrem kleine, praktisch unrelevante Effektgrößen nicht als signifikant bewertet werden.[7]
Der Bayes-Faktor ist eine Alternative für den p-Wert in der Bayesschen Statistik.
Weblinks
- Kurze Darstellung des -Wertes auf Englisch (Queen’s University, Kingston, Canada)
- CDF Statistics Committee: Simple facts about p-values. Memo, CDF/MEMO/STATISTICS/PUBLIC/8023. 2006. (englisch, PDF, 113 KiB)
- P-value calculator, Seite zur automatischen Berechnung des -Werts
- Wenn Forscher durch den Signifikanztest fallen, Kritik des -Wertes auf spektrum.de
- Why Most Published Research Findings Are False
- The earth is flat (p > 0.05): significance thresholds and the crisis of unreplicable research
- Blogbeitrag zum Thema p-Wert und False Discovery Rate ; erfolgreich aufgerufen am 26. Oktober 2020
Einzelnachweise
- ↑ Lothar Sachs, Jürgen Hedderich: Angewandte Statistik: Methodensammlung mit R. 8., überarb. und erg. Auflage. Springer Spektrum, Berlin/Heidelberg 2018, ISBN 978-3-662-56657-2, S. 452
- ↑ R. Wasserstein, N. Lazar: The ASA’s Statement on p-Values: Context, Process, and Purpose. In: The American Statistician. Band 70, Nr. 2, 2016, S. 129–133, doi:10.1080/00031305.2016.1154108.
- ↑ S. Cassidy, R. Dimova, B. Giguère, J. Spence, D. Stanley: Failing Grade: 89% of Introduction-to-Psychology Textbooks That Define or Explain Statistical Significance Do So Incorrectly. In: Advances in Methods and Practices in Psychological Science. Juni 2019, doi:10.1177/2515245919858072.
- ↑ Ludwig Fahrmeir, Rita Künstler, Iris Pigeot, Gerhard Tutz: Statistik. Der Weg zur Datenanalyse. 8., überarb. und erg. Auflage. Springer Spektrum, Berlin/Heidelberg 2016, ISBN 978-3-662-50371-3, S. 388.
- ↑ Besag, Clifford: Sequential Monte Carlo p-values. In: Biometrika Nr. 78(2), 1991. S. 301–304. doi:10.1093/biomet/78.2.301.
- ↑ Steven Goodman: A Dirty Dozen: Twelve P-Value Misconceptions. In: Seminars in Hematology. Nr. 45, 2008. S. 135–140 (PDF-Datei, abgerufen am 17. Dezember 2021).
- ↑ Jeffrey D. Blume, Robert A. Greevy, Valerie F. Welty, Jeffrey R. Smith, William D. Dupont: An Introduction to Second-Generation p-Values. doi:10.1080/00031305.2018.1537893 (englisch).
Auf dieser Seite verwendete Medien
Test result of a Kolmogorov-Smirnow Test of the variable "Median houseprice" of the Boston Housing data.
Autor/Urheber: Erzbischof, Lizenz: CC BY-SA 3.0
Illustration of alpha-error and p-value.