Das Gesetz der großen Zahlen (LLN) ist ein grundlegender Satz der Statistik und Wahrscheinlichkeitstheorie. Es beschreibt das Verhalten von wiederholten Zufallsereignissen: Beobachtet man eine Zufallsvariable unter denselben Bedingungen viele Male, so nähert sich ein geeigneter Durchschnitt der Beobachtungen einem festen Wert.
Grundidee
Anschaulich besagt das Gesetz der großen Zahlen: Der arithmetische Durchschnitt der beobachteten Werte wird bei wachsender Stichprobengröße stabil und weicht immer weniger vom theoretischen Erwartungswert der Grundverteilung ab. Für unabhängige, identisch verteilte Zufallsvariablen mit endlichem Erwartungswert liegt die typische Aussage darin, dass der Stichprobenmittelwert gegen diesen Erwartungswert konvergiert.
Formulierungen
- Schwaches Gesetz der großen Zahlen: Der Stichprobenmittelwert konvergiert in Wahrscheinlichkeit gegen den Erwartungswert; formell: für jede positive Abweichung ε geht die Wahrscheinlichkeit, dass der Mittelwert mehr als ε vom Erwartungswert abweicht, gegen 0, wenn die Stichprobengröße gegen unendlich geht.
- Starkes Gesetz der großen Zahlen: Der Stichprobenmittelwert konvergiert fast sicher (fast überall) gegen den Erwartungswert; das heißt, mit Wahrscheinlichkeit 1 liegen die realisierten Mittelwerte für große n arbiträr nahe am Erwartungswert.
- Die genauen Voraussetzungen (Unabhängigkeit, identische Verteilung, Endlichkeit des Erwartungswerts) unterscheiden die Varianten; es gibt zahlreiche Verallgemeinerungen, die schwächere oder andere Annahmen erlauben.
Wesentliche Voraussetzungen und Varianten
- i.i.d.-Fälle: Unabhängige, identisch verteilte Zufallsvariablen mit endlichem Erwartungswert sind die klassische Voraussetzung für viele Versionen des Gesetzes.
- Abhängige Folgen: Für bestimmte abhängige Prozesse (z. B. ergodische Markov-Ketten) gelten analoge Aussagen, oft unter anderen technischen Bedingungen.
- Konvergenzbegriffe: Wichtig ist die Unterscheidung zwischen Konvergenz in Wahrscheinlichkeit (schwach) und fast sicherer Konvergenz (stark).
- Beweismethoden: Das schwache Gesetz lässt sich häufig mit der Tschebyscheff-Ungleichung herleiten; stärkere Varianten verwenden Sätze wie Kolmogorovs starke Gesetzesformulierung oder spezielle Summationsbedingungen.
Mathematisches Beispiel: Würfeln
Beim Würfeln sind die Ergebnisse 1 bis 6 gleich wahrscheinlich. Der theoretische Erwartungswert (Populationserwartung) ist:
(1 + 2 + 3 + 4 + 5 + 6) / 6 = 3.5.
Werden sehr viele Würfe ausgeführt, zeigt sich das Gesetz der großen Zahlen: der Durchschnitt der Würfelwerte nähert sich 3,5 an. Wenn man gewürfelt hat, sieht man in frühen Stichproben oft große Schwankungen; die Schwankungen nehmen typischerweise mit wachsender Anzahl der Würfe ab.

Anwendungen und typische Beispiele
- Schätzverfahren: Das Gesetz erklärt, warum empirische Mittelwerte als konsistente Schätzer des Erwartungswerts funktionieren.
- Monte-Carlo-Simulationen: Wiederholte Zufallsexperimente liefern mit wachsender Anzahl von Durchläufen immer bessere Näherungen.
- Versicherung und Risikomanagement: Aggregation vieler unabhängiger Risiken reduziert relative Schwankungen.
- Umfragen und Stichproben: Große Stichproben liefern stabilere Schätzungen des Populationsmittelwerts.
Häufige Missverständnisse
- Das Gesetz garantiert keine schnellen Konvergenzen in einer konkreten, endlichen Stichprobe — es ist ein asymptotisches Resultat.
- Es bedeutet nicht, dass einzelne Ereignisse "ausgeglichen" werden müssen (Gambler's Fallacy): frühere Zufallsereignisse beeinflussen bei unabhängigen Versuchen nicht die zukünftigen.
- Unabhängigkeit und Verteilungseigenschaften sind entscheidend; bei starker Abhängigkeit oder unendlichem Erwartungswert können Aussagen des LLN nicht gelten.
Weiterführende Hinweise
Das Gesetz der großen Zahlen ist ein Baustein moderner Wahrscheinlichkeitstheorie und Statistik. Für formale Beweise und genauere Voraussetzungen werden klassische Resultate wie die Tschebyscheff-Ungleichung, Kolmogorovs Sätze und ergodische Theoreme herangezogen. In der Praxis hilft das Gesetz, die Zuverlässigkeit von Schätzungen und Simulationen einzuschätzen.