Residuenquadratsumme

Die Summe der blauen Abweichungsquadrate ist die totale Quadratsumme und die Summe der roten Abweichungsquadrate ist die Residuenquadratsumme.

Die Residuenquadratsumme, Quadratsumme der Residuen oder auch Summe der Residuenquadrate bezeichnet in der Statistik die Summe der quadrierten Abweichungen zwischen Beobachtungswerten und den vorhergesagten Werten aller Beobachtungen (Kleinste-Quadrate-Residuen).[1] Da zunächst Abweichungsquadrate (hier Residuenquadrate) gebildet werden und dann über alle Beobachtungen summiert wird, stellt sie eine Abweichungsquadratsumme dar. Die Residuenquadratsumme ist ein Gütekriterium für ein lineares Modell und beschreibt die Ungenauigkeit des Modells. Sie erfasst die Streuung der Beobachtungswerte um die vorhergesagten Werte der Zielgröße, also die Streuung, die durch die Stichproben-Regressionsgerade nicht erklärt werden kann. Sie wird daher auch als die nicht erklärte Abweichungsquadratsumme (oder kurz nicht erklärte Quadratsumme) bezeichnet. Neben der Residuenquadratsumme spielt in der Statistik auch die totale Quadratsumme und die erklärte Quadratsumme eine große Rolle.

Um einen globalen F-Test durchzuführen, sind oft mittlere Abweichungsquadrate von Interesse. Dividiert man die Residuenquadratsumme durch die residualen Freiheitsgrade, erhält man das mittlere Residuenquadrat. Die Teststatistik eines globalen F-Tests ist dann gegeben durch den Quotienten aus dem „mittleren Quadrat der erklärten Abweichungen“ und dem „mittleren Residuenquadrat“.

Abkürzungs- und Bezeichnungsproblematik

Über die genaue Bezeichnung und ihre Abkürzungen gibt es international keine Einigkeit. Die natürliche deutsche Abkürzung für die Residuenquadratsumme bzw. die Summe der (Abweichungs-)Quadrate der Restabweichungen (oder: „Residuen“), ist SAQRest, oder SQR. Die englische Abkürzung SSR ist vieldeutig und führt zu anhaltenden Verwechslungen: Sowohl Sum of Squared Residuals (Residuenquadratsumme) als auch Sum of Squares due to Regression (Regressionsquadratsumme) werden als SSR abgekürzt. Allerdings wird die Regressionsquadratsumme oft auch als erklärte Quadratsumme (Sum of Squares Explained) bezeichnet, deren natürliche englische Abkürzung SSE ist. Die Abkürzungsproblematik wird dadurch verschärft, dass die Residuenquadratsumme oft auch als Fehlerquadratsumme (Sum of Squares Error) bezeichnet wird, deren natürliche englische Abkürzung ebenfalls SSE ist (diese Bezeichnung ist besonders irreführend, da die Fehler und die Residuen unterschiedliche Größen sind). Des Weiteren findet sich für Residuenquadratsumme ebenfalls die englische Abkürzung RSS statt der Abkürzung SSR, da statt der Bezeichnung Sum of Squared Residuals oft auch die Bezeichnung Residual Sum of Squares verwendet wird. Auch diese englische Abkürzung kann mit der Regressionsquadratsumme verwechselt werden, die im Englischen auch als Regression Sum of Squares bezeichnet, deren natürliche englische Abkürzung auch hier RSS ist.[2]

Definition

Die Residuenquadratsumme ist definiert durch die Summe der Quadrate der Restabweichungen bzw. Residuen:

.

Die zweite Gleichheit gilt, da .

Einfache lineare Regression

In der einfachen linearen Regression (Modell mit nur einer erklärenden Variablen) lässt sich die Residuenquadratsumme auch wie folgt ausdrücken:

Hierbei stellen die die Residuen dar und ist die Schätzung des Absolutglieds und die Schätzung des Steigungsparameters. Die Methode der kleinsten Quadrate versucht hier die Residuenquadratsumme zu minimieren (vgl. Minimierung der Summe der Fehlerquadrate). Ein spezielleres Konzept ist die PRESS-Statistik, auch prädiktive Residuenquadratsumme (englisch predictive residual sum of squares) genannt.

Es lässt sich zeigen, dass in der einfachen linearen Regression die Residuenquadratsumme wie folgt angegeben werden kann (für einen Beweis, siehe Erklärte Quadratsumme#Einfache lineare Regression)

,

wobei die totale Quadratsumme und den Bravais-Pearson-Korrelationskoeffizienten darstellt.[3]

Multiple lineare Regression

Die gewöhnlichen Residuen, die durch die Kleinste-Quadrate-Schätzung gewonnen werden, sind in der multiplen linearen Regression gegeben durch[4]

,

wobei der Kleinste-Quadrate-Schätzvektor ist. Die Residuenquadratsumme ergibt sich also aus dem Produkt zwischen dem transponierten Residualvektor und dem nicht-transponierten Residualvektor

.

Alternativ lässt sie sich auch schreiben als:

Die Residuenquadratsumme lässt sich mittels der residuenerzeugenden Matrix auch darstellen als:

.

Dies zeigt, dass die Residuenquadratsumme eine quadratische Form der theoretischen Störgrößen ist. Eine alternative Darstellung als eine quadratische Form der y-Werte ist

.

Rechenbeispiel

Streudiagramm der Längen und Breiten zehn zufällig ausgewählter Kriegsschiffe.

Folgendes Beispiel soll die Berechnung der Residuenquadratsumme zeigen. Es wurden zufällig zehn Kriegsschiffe ausgewählt (siehe Kriegsschiffsdaten) und bezüglich ihrer Länge und Breite (in Metern) analysiert. Es soll untersucht werden, ob die Breite eines Kriegsschiffs möglicherweise in einem festen Bezug zur Länge steht.

Das Streudiagramm lässt einen linearen Zusammenhang zwischen Länge und Breite eines Schiffs vermuten. Eine mittels der Kleinste-Quadrate-Schätzung durchgeführte einfache lineare Regression ergibt für das Absolutglied und die Steigung (für die Berechnung der Regressionsparameter siehe Beispiel mit einer Ausgleichsgeraden). Die geschätzte Regressionsgerade lautet somit

.

Die Gleichung stellt die geschätzte Breite als Funktion der Länge dar. Die Funktion zeigt, dass die Breite der ausgewählten Kriegsschiffe grob einem Sechstel ihrer Länge entspricht.

KriegsschiffLänge (m)Breite (m)
120821,63,1910,176124,8916−3,291610,8347
215215,5−2,918,468115,8625−0,36250,1314
311310,4−8,0164,16019,57440,82560,6817
422731,012,59158,508127,95503,0459,2720
513713,0−5,4129,268113,4440−0,44400,1971
623832,413,99195,720129,72862,67147,1362
717819,00,590,348120,0546−1,05461,1122
810410,4−8,0164,16018,12332,27675,1835
919119,00,590,348122,1506−3,15069,9265
1013011,8−6,6143,692112,3154−0,51540,2656
Σ1678184,1574,84900,000044,7405
Σ/n167,818,4157,484900,00004,47405

Aus der Tabelle lässt sich neben der totalen Quadratsumme der Messwerte auch die Residuenquadratsumme (letzte Spalte) ablesen. Auf diesen beiden Größen aufbauend lässt sich ebenfalls das Bestimmtheitsmaß berechnen (siehe auch Bestimmtheitsmaß#Variante 2).

Eigenschaften der Residuenquadratsumme

Verteilung der Residuenquadratsumme

Wenn die Beobachtungen mehrdimensional normalverteilt sind, dann gilt für den Quotienten aus der Residuenquadratsumme und der Störgrößenvarianz , dass er einer Chi-Quadrat-Verteilung mit (mit ) Freiheitsgraden folgt:[5]

,

wobei die erwartungstreue Schätzung der Varianz der Störgrößen darstellt.

Erwartungswert der Residuenquadratsumme

Man kann zeigen, dass der Erwartungswert der Residuenquadratsumme ergibt

,

wobei die Anzahl der Freiheitsgrade der Residuenquadratsumme und die Störgrößenvarianz ist. Daraus lässt sich schließen, dass der erwartungstreue Schätzer für die unbekannte skalare Störgrößenvarianz gegeben sein muss durch .[6]

Mittleres Residuenquadrat

Wenn man die Residuenquadratsumme durch die Anzahl der Freiheitsgrade dividiert, dann erhält man als mittleres Abweichungsquadrat das „mittlere Residuenquadrat“ (Mittleres Quadrat der Residuen, kurz: MQR)[7]

.

Die Quadratwurzel des mittleren Residuenquadrats ist der Standardfehler der Regression. In der linearen Einfachregression, die den Zusammenhang zwischen der Einfluss- und der Zielgröße mithilfe von zwei Regressionsparametern herstellt ist das mittlere Residuenquadrat gegeben durch

.

Gewichtete Residuenquadratsumme

In der verallgemeinerten Kleinste-Quadrate-Schätzung und anderen Anwendungen wird oft eine gewichtete Version der Residuenquadratsumme verwendet

,

wobei die Gewichtsmatrix darstellt.

Penalisierte Residuenquadratsumme

Im Kontext von penalisierten Splines (kurz: P-Splines) wird eine sogenannte penalisierte Residuenquadratsumme verwendet, die approximativ der gewöhnlichen Residuenquadratsumme entspricht.[8]

Einzelnachweise

  1. Field, Andy: Discovering statistics using SPSS. Sage publications, 2009. S. 202.
  2. Jeffrey Marc Wooldridge: Introductory econometrics: A modern approach. 4. Auflage. Nelson Education, 2015, S. 39.
  3. Werner Timischl: Angewandte Statistik. Eine Einführung für Biologen und Mediziner. 2013, 3. Auflage, S. 314.
  4. Ludwig Fahrmeir, Thomas Kneib, Stefan Lang: Regression: Models, Methods and Applications. S. 77
  5. Ludwig Fahrmeir, Thomas Kneib, Stefan Lang, Brian Marx: Regression: models, methods and applications. Springer Science & Business Media, 2013, ISBN 978-3-642-34332-2, S. 123.
  6. George G. Judge, R. Carter Hill, W. Griffiths, Helmut Lütkepohl, T. C. Lee. Introduction to the Theory and Practice of Econometrics. 2. Auflage. John Wiley & Sons, New York/ Chichester/ Brisbane/ Toronto/ Singapore 1988, ISBN 0-471-62414-4, S. 207.
  7. Werner Timischl: Angewandte Statistik. Eine Einführung für Biologen und Mediziner. 2013, 3. Auflage, S. 335.
  8. Ludwig Fahrmeir, Thomas Kneib, Stefan Lang: Regression: Models, Methods and Applications. S. 432

Auf dieser Seite verwendete Medien

R2anim25.svg
Autor/Urheber: Debenben, Lizenz: CC BY-SA 4.0
illustration of coefficient of determination
MDKQ2.svg
Autor/Urheber: PhysikingerC, Lizenz: CC0
Fit einer linearen Funktion