Smits Paradoxon

In der klassischen mathematischen Statistik gilt, salopp formuliert: Je größer die Stichprobe, desto besser die Schätzung (genauer siehe Hauptsatz der mathematischen Statistik). In der Statistik zufälliger Prozesse ist es jedoch möglich – und wird dann in der Regel als paradox empfunden –, dass eine Schätzung durch Vergrößerung des Stichprobenumfangs schlechter wird. S. J. Wilenkin war der erste, dem das 1959 auffiel,[1] doch waren in seiner Arbeit Fehler, so dass J.C. Smit 1961[2] der Namensgeber des Paradoxons wurde.

Das Paradoxon

Sei ein schwach stationärer zufälliger Prozess mit unbekanntem konstanten Erwartungswert und (bekannter) Kovarianzfunktion . Der Prozess kann für beobachtet werden. Seien (diskrete) Beobachtungen und die kontinuierliche Beobachtung des Prozesses über das gesamte . Dann sind

erwartungstreue Schätzungen für . Intuitiv scheint klar zu sein, dass besser ist als , weil es mehr Informationen ausnutzt, nämlich Informationen aus ganz , während nur punktuelle Informationen nutzt. Doch schon für einfache Spezielfälle zeigt sich das Gegenteil: ist besser als , wenn man die Varianz der Schätzer als Kriterium nimmt:

Beispiel

Sei , d. h. diskrete Beobachtungsstellen. Dann ergibt sich , d. h. ist besser als . Wenn man weitere Beobachtungen zwischen den bisherigen Stellen mit einbezieht, d. h. bei , dann verschlechtert sich die Varianz von von auf , d. h, eine „Verdichtung“ der Beobachtungen führt zu einem schlechteren Ergebnis.

Auflösung des Paradoxons

Die Schätzung ist für nicht die beste lineare erwartungstreue Schätzung (englisch Best Linear Unbiased Estimator, kurz BLUE), wird also mit einer nicht-optimalen Schätzung verglichen. Die BLUE für ergibt sich nach einem Satz von Grenander[3] in Form eines Stieltjesintegrales als Lösung der Integralgleichung mit .

Fortsetzung Beispiel

Siehe auch.[4] Mit den gleichen Setzungen wie in obigem Beispiel ergibt sich

.

legt im Gegensatz zu Extragewichte auf den Rand des Beobachtungsintervalles (). Die diskrete Fünf-Punkte-Schätzung approximiert diese Randgewichtung besser als und ist damit auf natürliche Weise der bessere Schätzer.

Praktische Bedeutung

Das für stochastische Prozesse geschilderte Phänomen gilt auch für zufällige Felder. Insbesondere in der Geostatistik ist es wichtig zu wissen, dass eine Netzverdichtung in Geoinformationssystemen keineswegs automatisch zu besseren Schätzergebnissen führt.[5]

Einzelnachweise

  1. S. J. Wilenkin: Ob ocenke srednego v stacionarnych processach. In: Teorija Verojatnost. IV, 1959, S. 451–453.
  2. J. C. Smit: Estimation of the mean of a stationary stochastic process by equidistant observations. In: Trabojos de estadistica. 12, 1961, S. 35–45.
  3. U. Grenander: Stochastic processes and statistical inference. In: Arkiv för Matematik. 1, 1950, S. 195–277.
  4. W. Näther: Effective Observation of Random Fields. (= Teubner-Texte zur Mathematik. Band 72). Teubner Verlag, Leipzig 1985.
  5. W. Näther: Gute und böse Beispiele aus der Versuchsplanung für stochastische Prozesse und Felder. In: Schriftenreihe des Institutes für Markscheidewesen und Geodäsie an der TU Bergakademie Freiberg. Heft 2, 2004, S. 8–19.