Verteilungsfunktion (Maßtheorie)
Die Verteilungsfunktion eines Maßes ist ein Begriff aus der Maßtheorie, einem Teilgebiet der Mathematik, das sich mit verallgemeinerten Längen- und Volumenbegriffen beschäftigt. Jedem endlichen Maß auf den reellen Zahlen kann eine Verteilungsfunktion zugeordnet werden. Verteilungsfunktionen von Wahrscheinlichkeitsmaßen spielen eine wichtige Rolle in der Stochastik. In der Maßtheorie werden Verteilungsfunktionen verwendet, um Konvergenz von Maßen zu überprüfen.
Definition
Gegeben sei der Messraum , wobei die Borelsche σ-Algebra bezeichnet, und ein endliches Maß auf diesem Messraum. Dann heißt
die Verteilungsfunktion des Maßes .
Außerdem nennt man jede monoton wachsende, rechtsseitig stetige und beschränkte reelle Funktion eine Verteilungsfunktion, da sie durch
ein endliches Maß definiert. Ein Spezialfall sind diejenigen Funktionen, für die zusätzlich gilt
- ,
dies sind genau die Verteilungsfunktionen im Sinne der Wahrscheinlichkeitstheorie.
Beispiele
Betrachtet man das Dirac-Maß auf der Zahl Eins
dann ist die zugehörige Verteilungsfunktion
- .
Eigenschaften
- Definiert man eine Äquivalenzrelation auf den monoton wachsenden, rechtsseitig stetigen und beschränkten Funktionen durch
- und bezeichnet die Äquivalenzklassen mit , so ist eine Bijektion. Dabei wird jedem endlichen Maß auf den reellen Zahlen die Äquivalenzklasse seiner Verteilungsfunktion zugewiesen. Daher unterscheidet man meistens nicht zwischen dem Maß und der Verteilungsfunktion. Für Verteilungsfunktionen im Sinne der Wahrscheinlichkeitstheorie ist diese Äquivalenzklassenbildung nicht nötig, da sie bereits durch und eindeutig festgelegt sind.
- Setzt man
- ,
- so ist . Dabei bezeichnet die Totalvariationsnorm
Konvergenz
Vage Konvergenz
Eine Folge von Verteilungsfunktionen heißt vage konvergent gegen die Verteilungsfunktion , wenn sie an allen Stetigkeitspunkten von punktweise gegen konvergiert, wenn also
für alle , an denen stetig ist, gilt.
Schwache Konvergenz
Eine Folge von Verteilungsfunktionen heißt schwach konvergent gegen die Verteilungsfunktion , wenn sie vage konvergent ist und
gilt.
Gehören die Verteilungsfunktionen zu Wahrscheinlichkeitsmaßen, so kann auf die zweite Bedingung verzichtet werden, da dann immer gilt. Somit fallen dann schwache und vage Konvergenz zusammen. Für Wahrscheinlichkeitsmaße lässt sich die schwache Konvergenz der Verteilungsfunktionen mit dem Lévy-Abstand metrisieren.
Bemerkung
Die schwache und die vage Konvergenz von Verteilungsfunktionen wird in der Literatur nicht eindeutig verwendet. Teils wird nicht zwischen vager und schwacher Konvergenz differenziert, da diese Begriffe für Wahrscheinlichkeitsmaße zusammenfallen, teils wird auch die punktweise Konvergenz an allen Stetigkeitsstellen als schwache Konvergenz bezeichnet. Dies entspräche der hier beschriebenen vagen Konvergenz. Für Verteilungsfunktionen in Sinne der Wahrscheinlichkeitstheorie, die über reelle Zufallsvariablen definiert werden, findet sich auch die Bezeichnung konvergent in Verteilung oder stochastisch konvergent.[1]
Wichtige Sätze
Satz von Helly-Bray
Nach dem Satz von Helly-Bray gilt:
- Konvergiert eine Folge von Verteilungsfunktionen vage gegen , so konvergiert vage im Sinne der Maßtheorie gegen .
- Konvergiert eine Folge von Verteilungsfunktionen schwach gegen , so konvergiert schwach im Sinne der Maßtheorie gegen .
Modifiziert man die Folgen von Verteilungsfunktionen mit einer Folge reeller Zahlen, so lässt sich auch die Rückrichtung zeigen.
Auswahlsatz von Helly
Nach dem Auswahlsatz von Helly besitzt jede gleichmäßig beschränkte Folge von Verteilungsfunktionen eine vage konvergente Teilfolge.
Satz von Prochorow
Der Satz von Prochorow lässt sich speziell für (gleichmäßig beschränkte) Familien von Verteilungsfunktionen formulieren. Er besagt, dass eine Familie von Verteilungsfunktionen genau dann straff ist, wenn jede Folge aus dieser Familie eine schwach konvergente Teilfolge besitzt.
Einzelnachweise
- ↑ Kusolitsch: Maß- und Wahrscheinlichkeitstheorie. 2014, S. 287.
Literatur
- Klaus D. Schmidt: Maß und Wahrscheinlichkeit. 2., durchgesehene Auflage. Springer-Verlag, Heidelberg/ Dordrecht/ London/ New York 2011, ISBN 978-3-642-21025-9, doi:10.1007/978-3-642-21026-6.
- Jürgen Elstrodt: Maß- und Integrationstheorie. 6., korrigierte Auflage. Springer-Verlag, Berlin/ Heidelberg 2009, ISBN 978-3-540-89727-9, doi:10.1007/978-3-540-89728-6.
- Norbert Kusolitsch: Maß- und Wahrscheinlichkeitstheorie. Eine Einführung. 2., überarbeitete und erweiterte Auflage. Springer-Verlag, Berlin/ Heidelberg 2014, ISBN 978-3-642-45386-1, doi:10.1007/978-3-642-45387-8.
- Achim Klenke: Wahrscheinlichkeitstheorie. 3. Auflage. Springer-Verlag, Berlin/ Heidelberg 2013, ISBN 978-3-642-36017-6, doi:10.1007/978-3-642-36018-3.