Wahrscheinlichkeitsrechnung – Vollständiger Leitfaden
Lernen Sie die Grundlagen der Wahrscheinlichkeitsrechnung einschließlich Grundwahrscheinlichkeit, zusammengesetzter Ereignisse und bedingter Wahrscheinlichkeit.
Was ist Wahrscheinlichkeit?
Wahrscheinlichkeit ist die mathematische Untersuchung von Unsicherheit und Zufall. Sie weist einem Ereignis eine Zahl zwischen 0 und 1 zu, wobei 0 bedeutet, dass das Ereignis unmöglich ist, und 1, dass es sicher ist. Eine Wahrscheinlichkeit von 0,5 (oder 50 %) bedeutet, dass das Ereignis gleich wahrscheinlich eintritt oder nicht. Die Wahrscheinlichkeitstheorie entstand aus Glücksspielproblemen im 17. Jahrhundert, ist aber seitdem grundlegend für Wissenschaft, Ingenieurwesen, Medizin, Finanzen und künstliche Intelligenz geworden. Ob Sie das Wetter vorhersagen, die Genauigkeit medizinischer Tests bewerten oder finanzielle Risiken analysieren – die Wahrscheinlichkeit bietet den Rahmen für das Schlussfolgern über unsichere Ergebnisse.
Grundlegende Wahrscheinlichkeitsformel
Bei gleich wahrscheinlichen Ergebnissen ist die Wahrscheinlichkeit eines Ereignisses die Anzahl der günstigen Ergebnisse geteilt durch die Gesamtzahl der möglichen Ergebnisse: P(A) = günstige Ergebnisse / Gesamtergebnisse. Zum Beispiel: Die Wahrscheinlichkeit, eine 4 mit einem fairen sechsseitigen Würfel zu würfeln, ist 1/6, weil es ein günstiges Ergebnis von sechs Möglichkeiten gibt. Die Wahrscheinlichkeit, ein Herz aus einem Standard-52-Karten-Deck zu ziehen, ist 13/52 = 1/4. Dieser Zählansatz funktioniert, wenn jedes Ergebnis im Ergebnisraum gleich wahrscheinlich ist.
Komplementärereignisse
Das Komplement eines Ereignisses A, geschrieben A', besteht aus allen Ergebnissen, die nicht in A enthalten sind. Die Wahrscheinlichkeiten eines Ereignisses und seines Komplements summieren sich immer zu 1: P(A) + P(A') = 1. Das bedeutet P(A') = 1 - P(A). Diese Regel ist äußerst nützlich, wenn es einfacher ist, die Wahrscheinlichkeit zu berechnen, dass etwas nicht passiert. Zum Beispiel: Die Wahrscheinlichkeit, mindestens eine 6 bei vier Würfeln zu würfeln, ist einfacher zu berechnen als 1 minus die Wahrscheinlichkeit keiner 6: 1 - (5/6)⁴ = 1 - 625/1296 ≈ 0,518.
Zusammengesetzte Ereignisse: UND und ODER
Beim Kombinieren von Ereignissen gibt die Additionsregel die Wahrscheinlichkeit von A oder B: P(A oder B) = P(A) + P(B) - P(A und B). Die Subtraktion von P(A und B) verhindert Doppelzählung. Wenn A und B sich gegenseitig ausschließen, ist P(A und B) = 0, und die Formel vereinfacht sich zu P(A oder B) = P(A) + P(B). Die Multiplikationsregel gibt die Wahrscheinlichkeit von A und B: Für unabhängige Ereignisse ist P(A und B) = P(A) × P(B). Zum Beispiel: Die Wahrscheinlichkeit, zweimal Kopf hintereinander zu werfen, ist (1/2) × (1/2) = 1/4.
Bedingte Wahrscheinlichkeit
Die bedingte Wahrscheinlichkeit misst die Wahrscheinlichkeit des Ereignisses A, gegeben dass Ereignis B bereits eingetreten ist, geschrieben P(A|B). Die Formel lautet P(A|B) = P(A und B) / P(B). Zum Beispiel: Wenn ein Beutel 3 rote und 5 blaue Murmeln enthält und Sie ohne Zurücklegen eine rote Murmel ziehen, ist die Wahrscheinlichkeit, dass die zweite Murmel rot ist, P(rot2|rot1) = 2/7, weil nur noch 2 rote Murmeln von insgesamt 7 übrig sind. Die bedingte Wahrscheinlichkeit ist der Schlüssel zum Verständnis, wie neue Information unsere Überzeugungen aktualisiert.
Der Satz von Bayes
Der Satz von Bayes bietet eine Möglichkeit, bedingte Wahrscheinlichkeiten umzukehren. Er besagt: P(A|B) = P(B|A) × P(A) / P(B). Dies lässt Sie die Wahrscheinlichkeit einer Hypothese A angesichts neuer Evidenz B aktualisieren. Ein klassisches Beispiel ist das medizinische Testen: Wenn eine Krankheit 1 % der Bevölkerung betrifft und ein Test 95 % Sensitivität (P(positiv|krank) = 0,95) und 90 % Spezifität (P(negativ|gesund) = 0,90) hat, dann ist P(krank|positiv) = (0,95 × 0,01) / (0,95 × 0,01 + 0,10 × 0,99) = 0,0095 / 0,1085 ≈ 8,8 %. Trotz des positiven Tests beträgt die tatsächliche Krankheitswahrscheinlichkeit weniger als 9 %.
Erwartungswert
Der Erwartungswert einer Zufallsvariablen ist das langfristige Durchschnittsergebnis, wenn ein Experiment viele Male wiederholt wird. Er wird berechnet als die Summe jedes Ergebnisses multipliziert mit seiner Wahrscheinlichkeit: E(X) = Summe von (xᵢ × P(xᵢ)). Zum Beispiel: In einem Spiel, bei dem Sie einen Würfel werfen und 10 € für eine 6 gewinnen, aber 2 € für jede andere Zahl zahlen, ist der Erwartungswert (1/6 × 10) + (5/6 × (-2)) = 1,67 - 1,67 = 0,00 €, was es zu einem fairen Spiel macht. Der Erwartungswert ist die Grundlage der Entscheidungstheorie, Versicherungspreisgestaltung und Risikomanagements.
Häufige Wahrscheinlichkeitsverteilungen
Mehrere Wahrscheinlichkeitsverteilungen treten in der Praxis wiederholt auf. Die Binomialverteilung modelliert die Anzahl der Erfolge in einer festen Anzahl unabhängiger Versuche, wie die Anzahl der Köpfe bei 10 Münzwürfen. Die Normalverteilung (Gaußsche Verteilung) beschreibt viele natürliche Phänomene und ist durch ihre Glockenkurvenform gekennzeichnet, mit Mittelwert und Standardabweichung als ihren zwei Parametern. Die Poisson-Verteilung modelliert die Anzahl seltener Ereignisse in einem festen Intervall, wie die Anzahl der Kundenankünfte pro Stunde.