Unabhängig und identisch verteilte Zufallsvariablen

Unabhängig und identisch verteilte Zufallsvariablen[1][2] sind eine zentrale Konstruktion der Stochastik und eine wichtige Voraussetzung vieler mathematischer Sätze der Statistik. Unabhängig und identisch verteilte Zufallsvariablen besitzen alle dieselbe Verteilung, nehmen also mit gleicher Wahrscheinlichkeit gleiche Werte an, beeinflussen sich dabei aber nicht. Somit sind unabhängig und identisch verteilte Zufallsvariablen die stochastische Modellierung eines allgemeinen naturwissenschaftlichen Experiments: Die Unabhängigkeit sorgt dafür, dass sich die einzelnen Experimente nicht gegenseitig beeinflussen, die identische Verteilung dafür, dass dasselbe Experiment immer wieder durchgeführt wird.

Als Abkürzung finden sich in der Literatur unter anderem iid[3] oder i.i.d.[4] als Abkürzung des englischen independent and identically distributed oder das auf dem Deutschen basierende u.i.v.[5]

Definition

Gegeben sei eine Folge von Zufallsvariablen. Diese heißt unabhängig und identisch verteilt, wenn die folgenden beiden Kriterien erfüllt sind:

Varianten

Die Definition lässt sich problemlos auf beliebige Indexmengen ausdehnen. Gängig ist die Definition für die Indexmenge , also für eine endliche Folge von Zufallsvariablen , oder für eine beliebige, möglicherweise überabzählbare Indexmenge .

Existenz

Eine grundlegende Frage ist, ob überhaupt Folgen aus unendlich vielen Zufallsvariablen existieren, die unabhängig und identisch verteilt sind. Dies ist nicht offensichtlich, da die stochastische Unabhängigkeit eine starke Eigenschaft ist, die auf dem zugrunde liegenden Mengensystem definiert ist und nicht a priori klar ist, ob ein Mengensystem existiert, das groß genug ist, um die stochastische Unabhängigkeit vieler Zufallsvariablen zu ermöglichen.

Tatsächlich lässt sich mit fortgeschrittenen Methoden zeigen, dass beliebig große Familien von unabhängig und identisch verteilten Zufallsvariablen existieren. In einführender Literatur wird meist eine vereinfachte Konstruktion angegeben und die Aussage, welche die Existenz von unabhängig und identisch verteilten Zufallsvariablen liefert, auch als „Klonsatz“ bezeichnet.[6]

Im Kern basieren viele Konstruktionen auf der Existenz des unendlichen Produktmaßes, in der allgemeinsten Version garantiert durch den Satz von Andersen-Jessen. Zur Konstruktion einer Folge von unabhängigen, identisch verteilten Zufallsvariablen mit Verteilungen auf den reellen Zahlen wird der Produktraum

konstruiert, wobei die Produkt-σ-Algebra ist und das unendliche Produktmaß.

Definiert man dann

als Projektion der n-ten Komponente, so sind die alle Zufallsvariablen (da messbar aufgrund der Definition der Produkt-σ-Algebra) und identisch verteilt sowie stochastisch unabhängig. Die allgemeineren Konstruktionen mit allgemeineren Bildräumen und Indexmengen verlaufen analog.

Verwandte Konzepte

Austauschbare Familie von Zufallsvariablen

Als austauschbare Familie von Zufallsvariablen bezeichnet man eine Familie von Zufallsvariablen, bei denen sich die Verteilung der gesamten Familie nicht ändert, wenn man endlich viele der Zufallsvariablen miteinander vertauscht. Austauschbare Familien sind immer identisch verteilt, umgekehrt ist jede unabhängig und identisch verteilte Familie immer austauschbar.

Bedingt unabhängig und identisch verteilt

Einen analogen Begriff zu unabhängig identisch verteilten Zufallsvariablen erhält man, indem man die Unabhängigkeit von Mengensystemen, auf der die Unabhängigkeit von Zufallsvariablen aufbaut, durch die auf dem bedingten Erwartungswert aufbauende bedingte Unabhängigkeit (von Mengensystemen) ersetzt. Dann heißt eine Familie von Zufallsvariablen unabhängig und identisch verteilt gegeben , wenn

  • die von den Zufallsvariablen erzeugten σ-Algebren bedingt unabhängig gegeben sind und
  • die bedingten Verteilungen alle gleich sind.[7]

Weitere verwandte Begriffe

Insbesondere im Bereich der klassischen Grenzwertsätze der Stochastik (Gesetz der großen Zahlen und Zentraler Grenzwertsatz) finden sich diverse Abwandlungen der Voraussetzung, dass eine Folge unabhängig und identisch verteilt sein soll. Hierbei wird beispielsweise die stochastische Unabhängigkeit ersetzt durch

  • paarweise stochastische Unabhängigkeit, also die stochastische Unabhängigkeit von und für . Dies ist eine echte Abschwächung gegenüber der stochastischen Unabhängigkeit der gesamten Familie von Zufallsvariablen, wie ein Beispiel für die stochastische Unabhängigkeit von Ereignissen hier belegt.
  • Unkorreliertheit, wobei diese immer nur als paarweise Unkorreliertheit definiert ist. Da aus Unabhängigkeit immer Unkorreliertheit folgt, der Umkehrschluss aber im Allgemeinen nicht gilt, ist dies eine echte Abschwächung gegenüber der paarweisen Unabhängigkeit (und somit auch der Unabhängigkeit).

Eine weitere Abwandlung sind die unabhängigen Schemata von Zufallsvariablen, wie sie beispielsweise im zentralen Grenzwertsatz von Lindeberg-Feller auftreten. Dabei werden die Zufallsvariablen einer Folge gruppiert und die stochastische Unabhängigkeit nur innerhalb der Gruppen gefordert. Die Abhängigkeiten zwischen den Gruppen sind dabei irrelevant.

Literatur

  • Ehrhard Behrends: Elementare Stochastik. Ein Lernbuch – von Studierenden mitentwickelt. Springer Spektrum, Wiesbaden 2013, ISBN 978-3-8348-1939-0, doi:10.1007/978-3-8348-2331-1.
  • Claudia Czado, Thorsten Schmidt: Mathematische Statistik. Springer-Verlag, Berlin Heidelberg 2011, ISBN 978-3-642-17260-1, doi:10.1007/978-3-642-17261-8.
  • Achim Klenke: Wahrscheinlichkeitstheorie. 3. Auflage. Springer-Verlag, Berlin Heidelberg 2013, ISBN 978-3-642-36017-6, doi:10.1007/978-3-642-36018-3.
  • Norbert Kusolitsch: Maß- und Wahrscheinlichkeitstheorie. Eine Einführung. 2., überarbeitete und erweiterte Auflage. Springer-Verlag, Berlin Heidelberg 2014, ISBN 978-3-642-45386-1, doi:10.1007/978-3-642-45387-8.
  • Klaus D. Schmidt: Maß und Wahrscheinlichkeit. 2., durchgesehene Auflage. Springer-Verlag, Heidelberg Dordrecht London New York 2011, ISBN 978-3-642-21025-9, doi:10.1007/978-3-642-21026-6.

Einzelnachweise

  1. Klenke: Wahrscheinlichkeitstheorie. 2013, S. 57.
  2. Schmidt: Maß- und Wahrscheinlichkeit. 2011, S. 347.
  3. Kusolitsch: Maß- und Wahrscheinlichkeitstheorie. 2014, S. 246.
  4. Czado, Schmidt: Mathematische Statistik. 2011, S. 7.
  5. Klenke: Wahrscheinlichkeitstheorie. 2013, S. 57.
  6. Behrends: Elementare Stochastik. 2013, S. 141.
  7. Klenke: Wahrscheinlichkeitstheorie. 2013, S. 243.