Ljapunow-Bedingung

Die Ljapunow-Bedingung ist in der Stochastik ein Kriterium an eine Folge von Zufallsvariablen. Sie ist neben der allgemeineren Lindeberg-Bedingung eine der beiden klassischen hinreichenden Voraussetzungen für die Konvergenz in Verteilung der Folge gegen die Standardnormalverteilung und gehört somit in den Themenbereich der zentralen Grenzwertsätze. Sie kann auch für Schemata von Zufallsvariablen formuliert werden und geht auf den russischen Mathematiker Alexander Michailowitsch Ljapunow zurück.

Formulierung für Folgen von Zufallsvariablen

Seien eine Folge von stochastisch unabhängigen Zufallsvariablen mit

und für alle .

Dabei können die Zufallsvariablen auch unterschiedliche Verteilungen besitzen. Zudem bezeichne

die Summe der Varianzen der .

Die Folge der Zufallsvariablen genügt der Ljapunow-Bedingung nun genau dann, wenn ein existiert, so dass

gilt.[1]

Formulierung für Schemata von Zufallsvariablen

Gegeben sei ein unabhängiges zentriertes Schema von Zufallsvariablen , bei dem jede Zufallsvariable quadratintegrierbar ist und seien

die Summen über die zweiten Indizes. Das Schema erfüllt nun die Ljapunow-Bedingung, wenn ein existiert, so dass

ist.[2]

Beziehung zur Lindeberg-Bedingung

Die Ljapunow-Bedingung impliziert immer die Lindeberg-Bedingung, der Umkehrschluss gilt aber im Allgemeinen nicht. Daher wird sie häufiger in der Literatur behandelt.

Satz von Ljapunow

Die Aussage, dass die Ljapunow-Bedingung hinreichend ist für die Konvergenz in Verteilung gegen die Standardnormalverteilung, wird in der Literatur als Satz von Ljapunow oder Zentraler Grenzwertsatz von Ljapunow bezeichnet.[3][4] Vollständig formuliert lautet er:

Genügt eine Folge von stochastisch unabhängigen reellwertigen Zufallsvariablen mit endlichen zweiten Momenten der Ljapunow-Bedingung, so konvergiert die reskalierte Folge der zentrierten Zufallsvariablen in Verteilung gegen die Standardnormalverteilung:

Er wurde 1901 von Alexander Michailowitsch Ljapunow gezeigt und 1922 Jarl Waldemar Lindeberg durch das Lindeberg-Theorem, welches auf die Lindeberg-Bedingung zurückgreift, verallgemeinert.[5]

Literatur

  • Norbert Kusolitsch: Maß- und Wahrscheinlichkeitstheorie. Eine Einführung. 2., überarbeitete und erweiterte Auflage. Springer-Verlag, Berlin Heidelberg 2014, ISBN 978-3-642-45386-1, doi:10.1007/978-3-642-45387-8.
  • Achim Klenke: Wahrscheinlichkeitstheorie. 3. Auflage. Springer-Verlag, Berlin Heidelberg 2013, ISBN 978-3-642-36017-6, doi:10.1007/978-3-642-36018-3.
  • David Meintrup, Stefan Schäffler: Stochastik. Theorie und Anwendungen. Springer-Verlag, Berlin Heidelberg New York 2005, ISBN 978-3-540-21676-6, doi:10.1007/b137972.
  • Heinz Bauer: Wahrscheinlichkeitstheorie. De Gruyter, Berlin 2002, ISBN 3-11-017236-4.

Einzelnachweise

  1. Meintrup, Schäffler: Stochastik. 2005, S. 204.
  2. Klenke: Wahrscheinlichkeitstheorie. 2013, S. 327.
  3. Eric W. Weisstein: Lyapunov Condition. In: MathWorld (englisch).
  4. A.V. Prokhorov: Lyapunov theorem. In: Michiel Hazewinkel (Hrsg.): Encyclopedia of Mathematics. Springer-Verlag und EMS Press, Berlin 2002, ISBN 978-1-55608-010-4 (englisch, online).
  5. Kusolitsch: Maß- und Wahrscheinlichkeitstheorie. 2014, S. 307.