Stochastik

Die Stochastik (von altgriechisch στοχαστικὴ τέχνηstochastikē technē, lateinisch ars conjectandi ‚Kunst des Vermutens‘, ‚Ratekunst‘) ist die Mathematik des Zufalls[1] oder die Mathematik der Daten und des Zufalls,[2] also ein Teilgebiet der Mathematik, und fasst als Oberbegriff die Gebiete Wahrscheinlichkeitstheorie und mathematische Statistik zusammen.

Die Wahrscheinlichkeitstheorie stellt die Begriffe zur mathematischen Modellierung von Vorgängen bereit, in denen zufällige Ereignisse auftreten. Auf dieser Grundlage liefert die Mathematische Statistik Verfahren, um aus Beobachtungsdaten Modellparameter zu bestimmen und Aussagen über die Angemessenheit der Modellierung machen zu können.[3] Stochastisch bedeutet so viel wie „zufällig“.[4] Wir bezeichnen ein Ereignis als zufällig, wenn sein Eintreten prinzipiell nicht vorhersehbar ist.

Die historischen Aspekte der Wahrscheinlichkeitstheorie werden im Artikel Geschichte der Wahrscheinlichkeitsrechnung dargestellt.

Überblick

Die Stochastik ist wiederum in viele Teilgebiete aufgeteilt. Im Folgenden findet sich eine kleine Übersicht über die wichtigsten Gebiete:

Reine Stochastik

Statistik

Anwendungen

Die Stochastik untersucht die mathematische Modellierung zufälliger Ereignisse und findet daher in praktisch allen empirischen Disziplinen Anwendungen. Beispiele sind: Strategien für Glücksspiele, Risikoanalyse bei Überbuchung von Schiff/Flugzeug/Hotel, Entscheidung bei zufallsbedingten Vorgängen, statistische Auswertung von Studien in der Medizin oder Arzneimittelforschung, Problemen der Klimaforschung, Qualitätskontrolle, Wettervorhersagen (Regenwahrscheinlichkeit), Kalkulation von Versicherungsprämien, Studium von Warteschlangen und Optimierung von Ampelsteuerungen im Verkehr, Modelle für die Ausbreitung von Krankheiten, Meinungsforschung, Portfolio-Analyse oder Marketing-Strategien bei Banken, Modellierung der Gesprächsdauer bei Telefongesprächen, Anzahl der erforderlichen Entladebrücken eines Containerterminals oder Fragestellungen der Quantenphysik.[5]

Wahrscheinlichkeiten und Zufallsexperimente

In der Wahrscheinlichkeitstheorie untersucht man Zufallsprozesse mit festen als bekannt angegebenen Wahrscheinlichkeiten und studiert die Gesetze zufälliger Ereignisse.[6] Dabei stellen Wahrscheinlichkeiten Prognosen dar. Zum einen sollen Prognosen über den Ausgang zukünftiger Ereignisse gemacht werden, zum anderen soll beurteilt werden, wie gewöhnlich oder ungewöhnlich ein eingetretenes Ereignis ist. Prognosen, die sich nicht bewähren, müssen revidiert werden.[7]

Unter einer Prognose versteht man:

Prognosen (Wahrscheinlichkeiten) für das Eintreten eines Ereignisses E erhält man:

  • aus Laplace-Experimenten (siehe Abschnitt unten). Dieser Ansatz ist rein theoretisch. Prognosen als Laplace-Wahrscheinlichkeiten werden vor dem Experiment aus der Vernunft geboren.
  • bei einem Zufallsexperiment, das beliebig häufig wiederholbar ist, als Schätzwert aus den beobachteten relativen Häufigkeiten für das Eintreten von E und deren Entwicklung bei Steigerung der Anzahl an Versuchen (frequentistische Wahrscheinlichkeit). In diesem Fall dividiert man die absolute Häufigkeit, also die Anzahl geglückter Versuche, durch die Anzahl der unternommenen Versuche. Dieser Ansatz ist empirisch. Prognosen werden nach Durchführung möglichst vieler gleichartiger Experimente gewonnen. Meist wird die Anzahl der für eine realistische Schätzung mindestens erforderlichen Versuche unterschätzt. Bei einer Binomialverteilung kann man zeigen, dass es bei einem Laplace-Würfel mehr als 5 555 Wiederholungen, bei anderen Zufallsvorrichtungen im ungünstigsten Fall aber mehr als 10 000 Wiederholungen sein müssen, damit man in rund 95 % solch langer Versuchsserien eine relative Häufigkeit erhält, die sich um höchstens 1 % Prozent von der unbekannten Wahrscheinlichkeit unterscheidet. Weiß man gar nichts über die Verteilung der Zufallsergebnisse, dann sind erheblich mehr Versuche nötig.[9]
  • als subjektives Maß für den persönlichen Grad an Überzeugung, dass E eintritt (subjektive Wahrscheinlichkeit). Dieser Ansatz ist theoretisch. Die Prognosen orientieren sich an eigener Erfahrung und sind von eigenen Wünschen geprägt.[10]

Angabe von Wahrscheinlichkeiten

Wahrscheinlichkeiten werden mit dem Buchstaben dargestellt. Das erinnert an das lateinische probabilitas, aus dem das französische probabilité und das englische probability wurden.[11] Eingeführt wurde diese Schreibweise von Laplace.[12] Er unterscheidet in seinen Veröffentlichungen zwischen possibilité, was wir heute relative Häufigkeit nennen, und probabilité.[13]

Wahrscheinlichkeiten tragen keine Einheit, sondern sind Zahlen zwischen 0 und 1, wobei auch 0 und 1 zulässige Wahrscheinlichkeiten sind. Deshalb können sie als Prozentangaben (20 %), Dezimalzahlen (), Brüche (), Quoten (2 von 10 beziehungsweise 1 von 5) oder Verhältniszahlen (1 zu 4) angegeben werden (alle diese Angaben beschreiben ein und dieselbe Wahrscheinlichkeit).

Häufig treten Missverständnisse auf, wenn nicht zwischen „zu“ und „von“ unterschieden wird: „1 zu 4“ bedeutet, dass dem einen gewünschten Ereignis 4 ungewünschte Ereignisse gegenüberstehen. Damit gibt es zusammen 5 Ereignisse, von denen eines das Gewünschte ist, also „1 von 5“.

Laplace-Experimente

Als Laplace-Experimente, benannt nach dem Mathematiker Pierre-Simon Laplace, werden Zufallsexperimente bezeichnet, für die die folgenden beiden Punkte erfüllt sind:

  • Es gibt nur endlich viele mögliche Versuchsausgänge.
  • Alle möglichen Ausgänge sind gleich wahrscheinlich.

Einfache Beispiele für Laplace-Experimente sind das Würfeln mit idealen Würfeln, das Werfen einer idealen Münze (wenn man davon absieht, dass sie auf dem Rand stehen bleiben kann) und die Ziehung der Lottozahlen.

Die Wahrscheinlichkeit für das Eintreten des Ereignisses E bei einem Laplace-Experiment berechnet sich nach der Gleichung

[14]

Integritätsbedingungen, Axiomensystem

Grundsätzliche Annahmen der Stochastik sind in den Kolmogorov-Axiomen nach Andrei Kolmogorov beschrieben. Aus diesen und ihren Folgerungen lässt sich schließen, dass:

Die Wahrscheinlichkeit des Ereignisses , das alle möglichen Versuchsausgänge umfasst, ist :

Die Wahrscheinlichkeit eines unmöglichen Ereignisses ist :

Alle Wahrscheinlichkeiten liegen zwischen einschließlich null und eins:

Die Wahrscheinlichkeit für das Eintreten eines Ereignisses E und die für das Eintreten des Gegenereignisses (Nichteintreten des Ereignisses) addieren sich zu Eins:

In einem vollständigen System von Ereignissen (hierfür müssen alle paarweise disjunkt sein und ihre Vereinigungsmenge gleich sein) ist die Summe der Wahrscheinlichkeiten gleich :

[15]

Wahrscheinlichkeiten Null und Eins – unmögliche und sichere Ereignisse

Wenn ein Ereignis unmöglich ist, dann besitzt es die Wahrscheinlichkeit 0. Umgekehrt kann aus der Wahrscheinlichkeit 0 nur dann geschlossen werden, dass das Ereignis unmöglich ist, wenn es nur endlich viele verschiedene Versuchsausgänge gibt. Für Zufallsversuche mit unendlich vielen Versuchsausgängen veranschaulicht es dieses Gegenbeispiel: In einem Zufallsexperiment wird eine beliebige reelle Zufallszahl zwischen 0 und 1 gezogen. Es wird davon ausgegangen, dass jede Zahl gleich wahrscheinlich sei – es wird also die Gleichverteilung auf dem Intervall vorausgesetzt. Dann ist für jede einzelne Zahl aus dem Intervall die Wahrscheinlichkeit, gezogen zu werden, gleich 0, da es in diesem Intervall unendlich viele Zahlen gibt. Dennoch ist jede Zahl aus als Ziehungsergebnis möglich. Ein unmögliches Ereignis im Rahmen dieses Beispiels ist etwa die Ziehung der 2, also das Eintreten des Elementarereignisses .[16]

Wenn ein Ereignis sicher eintritt, dann besitzt es die Wahrscheinlichkeit 1. Ein Beispiel für ein sicheres Ereignis beim Würfeln mit einem sechsseitigen Würfel ist das Ereignis „es wird keine Sieben gewürfelt“ oder „es wird eine Zahl zwischen 1 und 6 gewürfelt“. Umgekehrt kann aus der Wahrscheinlichkeit 1 nur dann geschlossen werden, dass das Ereignis sicher eintritt, wenn es nur endlich viele Versuchsausgänge gibt. Für Zufallsversuche mit unendlich vielen Ausgängen veranschaulicht es dieses Gegenbeispiel: Man würfelt solange, bis zum ersten Mal eine „6“ eintritt. Die Wahrscheinlichkeit, dass irgendwann einmal „6“ fällt, ist 1, aber es ist keineswegs sicher, dass einmal „6“ fallen muss.[17]

Wahrscheinlichkeitstheorie

Kombinatorik

Kombinatorik ist ein Teilgebiet der Mathematik, das sich mit Fragestellungen über endliche Mengen beschäftigt.[18] Im Urnenmodell lässt sich die Bestimmung der Anzahl aller Möglichkeiten bei der Auswahl und Anordnung von Objekten darstellen und veranschaulichen. Betrachten wir das Ziehen von Kugeln aus einer Urne, die Kugeln enthält, dann lassen sich 4 Grundprobleme herausstellen:

  • Ziehen ohne Zurücklegen gezogener Kugeln mit Berücksichtigung der Reihenfolge. Sonderfall: Alle Kugeln werden gezogen .
  • Ziehen ohne Zurücklegen gezogener Kugeln ohne Berücksichtigung der Reihenfolge,
  • Ziehen mit Zurücklegen der gezogenen Kugel unmittelbar nach dem Ziehen mit Berücksichtigung der Reihenfolge,
  • Ziehen mit Zurücklegen der gezogenen Kugel unmittelbar nach dem Ziehen ohne Berücksichtigung der Reihenfolge.[19]

In der modernen Kombinatorik werden diese Probleme umformuliert als Abbildungen, sodass sich die Aufgabe der Kombinatorik im Wesentlichen darauf beschränken kann, diese Abbildungen aufzuzählen.[20]

Statistik

Statistik ist eine auf der Wahrscheinlichkeitstheorie basierende Methodik zur Analyse quantitativer Daten. Dabei verbindet sie empirische Daten mit theoretischen Modellen. Man kann die Statistik unterteilen in die beschreibende Statistik (deskriptive Statistik) und die beurteilende Statistik (schließende Statistik).[21] In der beschreibenden Statistik sammelt man Daten über Zufallsgrößen, stellt die Verteilung von Häufigkeiten graphisch dar und charakterisiert sie durch Lage- und Streuungsmaße. Die Daten gewinnt man aus einer Stichprobe, die Auskunft über die Verteilung der untersuchten Merkmale in einer Grundgesamtheit geben soll. In der beurteilenden Statistik versucht man, aus den Daten einer Stichprobe Rückschlüsse über die Grundgesamtheit zu ziehen. Man erhält dabei Aussagen, die immer mit einer gewissen Unsicherheit behaftet sind. Diese Unsicherheit wird mit Methoden der Wahrscheinlichkeitsrechnung abgeschätzt. Dieses Schätzen von Wahrscheinlichkeiten und das Testen von Hypothesen sind typische Aufgaben der beurteilenden Statistik.[22]

Spieltheorie

Die Spieltheorie ist ein modernes Teilgebiet der Mathematik mit vielfältigen Beziehungen zu anderen Wissenschaften. Es befasst sich damit, Systeme mit mehreren Akteuren (Spielern, Agenten) zu analysieren. Die Spieltheorie versucht dabei unter anderem, das rationale Entscheidungsverhalten in sozialen Konkurrenz- und Konfliktsituationen abzuleiten. Sie ist eine mathematische Theorie der Konfliktsituationen.[23] Die Stochastik kommt dafür an verschiedenen Stellen zum Tragen. Zum einen bei Spielen wie dem Kampf der Geschlechter, bei denen die bestmögliche Strategie darin besteht, eine Entscheidung zufällig zu treffen. Zum anderen befasst sich die Spieltheorie auch mit den Systemen, in denen die Akteure nicht die komplette Situation kennen, das heißt, sie verfügen nicht über vollständige Information. Dann müssen sie eine optimale Spielstrategie auf Grundlage ihrer Vermutungen wählen.

Anwendungsbeispiele

Siehe auch

Wiktionary: Stochastik – Bedeutungserklärungen, Wortherkunft, Synonyme, Übersetzungen

Einzelnachweise und Fußnoten

  1. Ulrich Krengel: Einführung in die Wahrscheinlichkeitstheorie und Statistik. Vieweg Verlag, Braunschweig 1991, ISBN 3-528-27259-7, S. V.
  2. A. Büchter, W. Henn: Elementare Stochastik. Springer, Berlin / Heidelberg / New York 2005, ISBN 3-540-22250-2, S. Untertitel.
  3. Kurt Nawrotzki: Lehrbuch der Stochastik. Verlag Harri Deutsch, Frankfurt 1994, ISBN 3-8171-1368-4, S. 7.
  4. Schüler-Duden: Die Mathematik II. Duden-Verlag, Mannheim 1991, ISBN 3-411-04273-7.
  5. ruhr-uni-bochum.de
  6. mathematik.de
  7. Wolfgang Riemer: Stochastische Probleme aus elementarer Sicht. BI-Wissenschafts-Verlag, Mannheim/ Wien/ Zürich 1991, ISBN 3-411-14791-1, S. 19.
  8. A. Büchter, W. Henn: Elementare Stochastik. Springer, Berlin/ Heidelberg/ New York 2005, ISBN 3-540-22250-2, S. 150.
  9. Helmut Wirths: Stochastikunterricht am Gymnasium. BoD, Norderstedt 2020, ISBN 978-3-7526-2218-8, S. 78.
  10. A. Büchter, W. Henn: Elementare Stochastik. Springer, Berlin/ Heidelberg/ New York 2005, ISBN 3-540-22250-2, S. 139–151.
  11. Friedrich Barth, Rudolf Haller: Stochastik Leistungskurs. Ehrenwirth Verlag, München, ISBN 3-431-02511-0, S. 42.
  12. P. S. de Laplace: Théorie analytique des probabiltés. 1812, zitiert nach Robert Ineichen
  13. Ivo Schneider: Die Entwicklung der Wahrscheinlichkeitstheorie von den Anfängen bis 1933. Wissenschaftliche Buchgesellschaft, Darmstadt 1988, ISBN 3-534-08759-3, S. 145.
  14. Robert Ineichen: Würfel und Wahrscheinlichkeit. Spektrum Akademischer Verlag, Heidelberg/ Berlin/ Oxford 1996, ISBN 3-8274-0071-6, S. 4.
  15. A. Büchter, W. Henn: Elementare Stochastik. Springer, Berlin/ Heidelberg/ New York 2005, ISBN 3-540-22250-2, S. 153.
  16. A. Büchter, W. Henn: Elementare Stochastik. Springer, Berlin/ Heidelberg/ New York 2005, ISBN 3-540-22250-2, S. 137.
  17. Hans Christian Reichel: Wahrscheinlichkeit und Statistik. Verlag Hölder-Pichler-Tempsky, Wien 1987, ISBN 3-209-00736-5, S. 64.
  18. Schülerduden: Die Mathematik II. Dudenverlag, Mannheim/ Leipzig/ Wien/ Zürich, ISBN 3-411-04273-7.
  19. Friedrich Barth, Rudolf Haller: Stochastik Leistungskurs. Ehrenwirth Verlag, München, ISBN 3-431-02511-0, S. 95.
  20. Beispiele in Johann Pfanzagl: Elementare Wahrscheinlichkeitstheorie. Walter de Gruyter, Berlin / New York 1991, ISBN 3-11-013384-9, S. 29/30.
  21. Norbert Henze: Stochastik für Einsteiger. Vieweg Verlag, Braunschweig/ Wiesbaden 1997, ISBN 3-528-06894-9, S. 23.
  22. Schülerduden: Die Mathematik II. Dudenverlag, Mannheim/ Leipzig/ Wien/ Zürich, ISBN 3-411-04273-7.
  23. J. S. Wentzel: Elemente der Spieltheorie. Harri Deutsch Verlag, Frankfurt am Main/ Zürich 1976, S. 5.