Kopplung (Stochastik)

Kopplung (von engl. coupling) ist eine Beweismethode im mathematischen Teilgebiet der Wahrscheinlichkeitstheorie. Eine Kopplung zweier Zufallsvariablen und ist dabei ein Zufallsvektor, dessen Randverteilungen gerade den Verteilungen von und entsprechen. Die Methode wurde 1938 von Wolfgang Doeblin im Zusammenhang mit Markow-Ketten entwickelt, erst ca. 1970 führte Frank Spitzer den Begriff coupling ein.[1]

Definition

Hinweis: Hier werden nur reelle Zufallsvariablen betrachtet. Das Konzept lässt sich aber auf beliebige messbare Funktionen übertragen.

Es seien und zwei Zufallsvariablen. Die beiden Wahrscheinlichkeitsräume brauchen nicht notwendig gleich zu sein. Durch wird ein Wahrscheinlichkeitsmaß auf dem Messraum der reellen Zahlen versehen mit der Borel-σ-Algebra erklärt. Dieses wird Bildmaß oder Verteilung von genannt, in Zeichen . Für gilt entsprechendes.

Eine Kopplung von und ist ein gemeinsamer Wahrscheinlichkeitsraum mit zwei Variablen derart, dass und gilt.

Man schreibt auch und um anzudeuten, dass die neuen Zufallsvariablen genauso verteilt sind wie die ursprünglichen.

Konventionen

Für die meisten Anwendungen genügt es, das kartesische Produkt und die Produkt-σ-Algebra zu verwenden. Sind und die jeweiligen Projektionen auf den ersten bzw. zweiten Faktor, so bieten sich außerdem die Variablen und an. Das Maß muss dann so gewählt werden, dass die eindimensionalen Randverteilungen der gemeinsamen Verteilung des Vektors die Verteilungen von und von sind. Ein solches Maß ist in der Regel nicht eindeutig. Der Kern der Beweistechnik besteht gerade darin, für den jeweiligen Zweck geeignet zu wählen.

Beispiele

Unabhängigkeit

Eine triviale Kopplung ergibt sich aus der Annahme, die Variablen und seien stochastisch unabhängig. Die Verteilung von ist dann durch für alle Borel-Mengen eindeutig bestimmt. Zieht man diese Verteilung auf den Urbildraum zurück, so ergibt sich das Produktmaß von und .

Diese Kopplung wird selten verwendet, da die meisten Beweise eine irgendwie geartete Abhängigkeit zwischen den gekoppelten Variablen benötigen.

Unfaire Münzen

Seien zwei reelle Zahlen. Angenommen, man hat zwei Münzen, die erste zeigt mit Wahrscheinlichkeit Kopf, die andere mit Wahrscheinlichkeit . Intuitiv sollte also die zweite Münze „öfter“ Kopf zeigen. Genauer ist zu beweisen, dass bei Würfen für jedes die Wahrscheinlichkeit, dass die erste Münze -mal Kopf zeigt, kleiner ist als die Wahrscheinlichkeit des gleichen Ereignisses für die zweite Münze. Es kann relativ schwierig sein, dies mit klassischen Zählargumenten zu zeigen.[2] Eine einfache Kopplung leistet dagegen das Gewünschte.

Seien die Indikatorvariablen für die Kopf-Würfe der ersten Münze und die der zweiten. Die erste Folge von Zufallsvariablen wird unverändert übernommen, . Für die gelte jedoch:

  • Falls , so setze auf .
  • Falls , setze auf mit Wahrscheinlichkeit , ansonsten auf .

Die Werte von hängen jetzt also wirklich vom Ausgang von (und damit von ) ab, sie sind gekoppelt. Dennoch gilt , also . Die sind aber mindestens immer dann , wenn es die sind, also

.

In der Sprache der Wahrscheinlichkeitstheorie gilt fast sicher , d. h. . In diesem Fall spricht man von einer monotonen Kopplung.

Satz von Strassen

In der Theorie der stochastischen Ordnung verallgemeinert der Satz von Strassen das letzte Beispiel. Er besagt, dass eine Zufallsvariable eine andere genau dann stochastisch dominiert, wenn es eine monotone Kopplung zwischen ihnen gibt. Die entscheidende Richtung der Äquivalenz ist die hin zur Kopplung. Ihr Beweis liefert ein Beispiel, in dem nicht der Produktraum ist.[1]

Die Verteilung einer reellen Zufallsvariable über einem beliebigen Wahrscheinlichkeitsraum lässt sich durch ihre Verteilungsfunktion beschreiben:

für alle .

heißt von stochastisch dominiert, , falls stets gilt. (Man beachte die Umkehrung des Relationszeichens.)

Als gemeinsamer Wahrscheinlichkeitsraum dient nun das Einheitsintervall versehen mit der Borel-σ-Algebra und dem Lebesgue-Borel-Maß , das jedem Teilintervall seine Länge zuweist. Als Zufallsvariable setzt man

für alle .

Ebenso wird auch aus abgeleitet. Nach Konstruktion gilt für alle und

.

Die beiden Funktionen sind daher gleich, also müssen es auch die Verteilungen sein. folgt analog. Außerdem impliziert diese Äquivalenz zusammen mit schließlich , wie gewünscht.

Einzelnachweise

  1. a b Geoffrey Grimmett, David Stirzaker: Probability and Random Processes. 3. Auflage. Oxford University Press, Oxford / New York 2001.
  2. Devdatt Dubhashi, Alessandro Panconesi: Concentration of Measure for the Analysis of Randomized Algorithms. Cambridge University Press, Cambridge / New York 2009.

Literatur

  • Hans-Otto Georgii: Stochastik – Einführung in die Wahrscheinlichkeitstheorie und Statistik. 4., überarbeitete Auflage. De Gruyter, Berlin 2009.
  • Torgny Lindvall: Lectures on the Coupling Method. Wiley, New York 1992.
  • Hermann Thorisson: Coupling, Stationarity, and Regeneration. Springer, New York 2000.