Angewandte Stochastik – Zusammenfassung Kapitel 1-12
Kapitel 1 – Endliche diskrete Wahrscheinlichkeitsräume
- Typische Fragestellungen (Würfel, Krankheitstests, Schafkopf)
- Definition endlicher diskreter Wahrscheinlichkeitsraum: (Ω,P(Ω),P) mit P(Ω)=1 und P(A)=∑ω∈AP(ω)
- Begriffe
- Grundraum/Ergebnisraum Ω
- Ereignis A⊂Ω, Ereignisraum P(Ω)
- Elementarereignis ω, unmögliches Ereignis ∅, sicheres Ereignis Ω
- Zahldichte ρ(ω)=P(ω)
- Diskretes Wahrscheinlichkeitsmaß P
- Eigenschaften (Satz 1.5)
- 0≤P(A)≤1, P(∅)=0, P(Ω)=1
- Endliche Additivität, Subtraktivität, Monotonie, Gegenereignisformel P(Ac)=1−P(A)
- Starke Additivität, Subadditivität, σ-Additivität
- Mengenoperationen bei Ereignissen – Vereinigung bedeutet „mindestens eins“, Durchschnitt „alle“
- Diracmaß δa, Bernoulli-Maß b(1,p), Laplace-Raum P(A)=∣A∣/∣Ω∣
- Urnenmodelle (4 Fälle)
- Mit/ohne Zurücklegen × geordnet/ungeordnet: Kardinalitäten ∣Ω<em>1∣=(N−n)!N!,∣Ω</em>2∣=Nn,∣Ω<em>3∣=(nN),∣Ω</em>4∣=(nN+n−1)
- Beispiele
- Lotto 6 aus 49 ⇒ P(6 Richtige)=1/(649)≈7.2⋅10−8
- Dreimal würfeln: P(3 Sechsen)=1/216, P(genau 2 Sechsen)=15/216
- Schafkopf: P(alle Ober+Unter)=1/10518300
- Wichtig: Begriffe, Satz 1.5, Laplaceexperimente, Urnenmodelle sicher beherrschen
Kapitel 2 – Bedingte Wahrscheinlichkeit & Bayes
- Definition: P(A∣B)=P(B)P(A∩B) für P(B)>0
- Multiplikationsformel: P(A<em>1∩⋯∩A</em>n)=P(A<em>1)P(A</em>2∣A1)…
- Satz der totalen Wahrscheinlichkeit: P(A)=∑<em>iP(B</em>i)P(A∣Bi)
- Bayes-Formel: P(B<em>j∣A)=∑</em>iP(B<em>i)P(A∣B</em>i)P(B</em>j)P(A∣B<em>j)
- Alarmanlagen-Beispiel ⇒ P(E∣A)≈0.198 (nur 1 von 5 Alarmen echt)
- HIV-Screening analoge Berechnung
- Wichtig: Bedingte W’keiten erkennen & Bayes anwenden
Kapitel 3 – Unabhängigkeit & Produktmaß
- Zwei Ereignisse unabhängig ⇔ P(A∩B)=P(A)P(B)
- Equivalent bei P(A),P(B)>0 zu P(A∣B)=P(A)
- Paarweise vs. totale Unabhängigkeit (Lemma 3.6)
- Produktmaß P=P<em>1⊗⋯⊗P</em>n mit Zahldichte ρ(ω<em>1,…,ω</em>n)=∏<em>iρ</em>i(ωi)
- Modell: n-maliger Münzwurf b(1,p)⊗n, Zahldichte pk(1−p)n−k
- Folge von Ereignissen/Zufallsvariablen unabh.: jede endliche Teilmenge unabh.
- Wichtig: Definitionen, Unterschied paarweise/gesamt, Modellierung im Produktraum
Kapitel 4 – Abzählbarkeit & unendliche diskrete Räume
- Abzählbar ⇔ surjektive Abbildung φ:N→A
- Vereinigung abzählbarer Mengen abzählbar, kartesisches Produkt endlicher Anzahl abzählbar
- Diskreter Raum nun: Ω abzählbar; Formeln wie in Kap 1, aber σ-Additivität zwingend nötig
- Spezielle Verteilungen
- Poisson ρ(n)=e−λλn/n!
- Geometrisch ρ(n)=p(1−p)n−1
- Binomial b(n,p):ρ(k)=(kn)pk(1−p)n−k
- Wichtig: Begriffe Abzählbarkeit, neue Verteilungen
Kapitel 5 – Zufallsvariablen, Verteilungen, Faltung
- Zufallsvariable X:Ω→R, Zufallsvektor X:Ω→Rm
- Verteilung P<em>X auf (M,P(M)): P</em>X(C)=P(X∈C), Zahldichte ρX(y)=P(X=y)
- Verteilungsfunktion FX(x)=P(X≤x), Eigenschaften: monoton, rechtsstetig, F(−∞)=0,F(∞)=1
- Gemeinsame Verteilung P<em>(X</em>1,…,X<em>n), Randverteilungen P</em>Xi; Rand bestimmen nicht eindeutig die gemeinsame
- Unabhängige Zufallsvariablen: Ereignisse X<em>i∈C</em>i unabhängig; äquivalente Aussagen mit Verteilungsfunktionen
- Faltungsformel (diskret): ρ<em>X+Y(z)=∑</em>yρ<em>X(z−y)ρ</em>Y(y)
- Anwendungen: (\operatorname{Pois}(\lambdaX)+\operatorname{Pois}(\lambdaY)=\operatorname{Pois}(\lambdaX+\lambdaY)), Binomial-Summe
- Konstruktion: Funktionen unabhängiger Variablen bleiben unabhängig; Aufteilung in Blöcke etc.
- Wichtig: Verteilung, Faltungsformel, Konstruktion neuer unabhängiger Variablen
Kapitel 6 – Erwartungswert & Momente (diskret/abzählbar)
- Erwartungswert E(X)=∑ωX(ω)P(ω)
- Transformationsformel: E(f(X))=∑xf(x)P(X=x)
- Rechenregeln: Linearität, Monotonie, ∣E(X)∣≤E(∣X∣), für unabh.
E(XY)=E(X)E(Y) - n-tes Moment E(Xn), absolutes Moment E(∣X∣n)
- Beispiele: Spiel mit zwei Würfen (Erwartungswert 4.47 €), E(X2) beim Würfeln = 91/6
- Gefahr nicht-existierender Erwartungswerte (Beispiel mit X(n)=(−1)n2n)
- Wichtig: Berechnung, Regeln, Existenzkriterien
Kapitel 7 – Varianz, Kovarianz, Korrelation
- Varianz Var(X)=E((X−E(X))2)=E(X2)−(E(X))2, Standardabweichung σX
- Beispiele: Binomial Var(X)=np(1−p); Poisson Var=λ
- Rechenregeln: Var(aX+b)=a2Var(X); Summe unabhängiger Varianzen addiert
- Kovarianz Cov(X,Y)=E((X−E(X))(Y−E(Y)))=E(XY)−E(X)E(Y)
- Symmetrie, Bilinearität, Var(X)=Cov(X,X)
- Unabhängig ⇒ unkorreliert, nicht umgekehrt
- Cauchy–Schwarz: ∣E(XY)∣≤E(X2)E(Y2); daher ∣Corr(X,Y)∣≤1
- Corr=±1 ⇔ linearer Zusammenhang a.s.
- Markov-Ungleichung P(∣X∣≥ε)≤E(∣X∣γ)/εγ, Tschebyscheff P(∣X−E(X)∣≥ε)≤Var(X)/ε2
- Kovarianzmatrix (Cov(X<em>i,X</em>j)): symmetrisch, positiv semidefinit
- Wichtig: Formeln, Ungleichungen, Interpretation Korrelation
Kapitel 8 – Poisson-Grenzwert, Gesetze der großen Zahlen, CLT (diskret)
- Poissonscher Grenzwertsatz: b(n,p<em>n)n→∞Pois(λ) falls np</em>n→λ
- Modelle: Schäden Pois(αt), Selbstmorde Stadt (λ ≈ 36), Geburtstage λ=91/365
- Schwaches Gesetz der großen Zahlen (diskret): für paarweise unkorrelierte X<em>i mit Varianzen ≤M ⇒ n1∑X</em>iPμ
- Standardisierung Binomial: S<em>n∗=npqS</em>n−np
- Zentr. Grenzwertsatz für Binomial (de Moivre–Laplace): Sn∗dN(0,1) ⇒ Approximation mittels Φ
- Funktionen
- Dichte φ(x)=2π1e−x2/2
- Verteilungsfunktion Φ(x)=∫−∞xφ(t)dt, Eigenschaften: Symmetrie Φ(−x)=1−Φ(x)
- Wahlprognose-Beispiel: benötigtes n≥9604 für ±1 %-Genauigkeit mit 95 % Sicherheit (Worst-Case p=0.5)
- Wichtig: Poisson-Approx., WLLN, CLT, Umgang mit Φ
Kapitel 9 – Allgemeine Wahrscheinlichkeitsräume & stetige Verteilungen
- Notwendigkeit von σ-Algebren; Definition: Menge F⊂2Ω mit (i) Ω∈F, (ii) Abschluss unter Komplement, (iii) abzählbare Vereinigungen
- Borelsche σ-Algebra B1 auf R: kleinste σ-Alg., die Intervalle enthält; enthält praktisch alle „vernünftigen“ Mengen
- Wahrscheinlichkeitsmaß allgemein: P:F→[0,1], P(Ω)=1, σ-additiv
- Dichten: f nichtnegativ, ∫f=1 ⇒ P((a,b))=∫abf
- Normalverteilung N(μ,σ2), Dichte φμ,σ2
- Gleichverteilung auf [a,b], Dichte 1/(b−a)
- Exponentialverteilung Expo(λ), Dichte \lambda e^{-\lambda t}\,1_{t>0}
- Verteilungsfunktion allgemeinermaßen charakterisiert Maß (Satz 9.22)
- Für Dichte-Maße gilt P(x)=0
- Wichtig: σ-Algebra, Borel, stetige Standardverteilungen, Dichten/Verteilungsfunktionen
Kapitel 10 – Zufallsvariablen in stetigen Räumen & Faltung (stetig)
- Zufallsvariable messbar: X≤x∈F für alle x ⇒ auch für alle Borelmengen
- Verteilung P<em>X ist Maß auf (R,B</em>1); Verteilungsfunktion FX
- Stetige Funktion g: g(X) ist Zufallsvariable
- Dichte-Transformation: bei bijektiver stetig diff. g mit g′=0: f<em>g(X)(x)=∣g′(g−1(x))∣f</em>X(g−1(x))
- Beispiel: Lineare Transformation Normal ⇒ N((μ−b)/a,σ2/a2)
- Unabhängigkeit Definition analog; Stabilität unter stetigen Funktionen (Satz 10.13)
- Faltungsformel stetig: f<em>X+Y(x)=∫</em>−∞∞f<em>X(x−y)f</em>Y(y)dy
- N(μ<em>X,σ</em>X2)+N(μ<em>Y,σ</em>Y2)=N(μ<em>X+μ</em>Y,σ<em>X2+σ</em>Y2)
- Wichtig: Messbarkeit, Dichte-Transformation, stetige Faltung
Kapitel 11 – Erwartungswert, Varianz, Kovarianz (stetig)
- Erwartungswert für Dichte f: E(X)=∫−∞∞xf(x)dx; allgemein via Integrale
- Transformationssatz analog; Momente E(Xn) etc.
- Varianz/Kovarianz/Korrelation und alle Rechenregeln gelten wie in diskretem Fall, aber Integrale statt Summen
- Beispiel: Normalverteilung E(X)=μ,Var=σ2
- Tschebyscheff & Markov bleiben gültig
- Wichtig: Anwendung der Integralformeln
Kapitel 12 – Konvergenzbegriffe & starke Ergebnisse
- Konvergenzarten
- Fast sichere Konvergenz: P(ω:limYn(ω)=Y(ω))=1
- Stochastische Konvergenz: Y<em>nPY wenn P(∣Y</em>n−Y∣≥ε)→0
- Konvergenz in Verteilung: F<em>Y</em>n(x)→FY(x) an Stetigkeitsstellen
- Hierarchie: a.s. ⇒ stochastisch ⇒ in Verteilung (Umkehrungen falsch)
- Schwaches Gesetz der großen Zahlen (allgemein): paarweise unkorrelierte X<em>i, Var begrenzt ⇒ Xˉ</em>nPμ
- Starkes Gesetz: identisch verteilt & unabhängig ⇒ Xˉna.s.μ
- Zentraler Grenzwertsatz (iid mit μ,σ2): S<em>n∗=σn∑X</em>i−nμdN(0,1)
- Anwendung: relative Häufigkeit konvergiert fast sicher; CLT erlaubt Normal-Approximation beliebiger i.i.d.
- Wichtig: Definitionen, SLLN/WLLN, allgemeiner CLT
Gesamthafter Überblick – Thematische Querverbindungen
- Diskret vs. stetig: dieselben formalen Strukturen (Maß, σ-Algebra, Erwartungen, Varianzen) mit Summen bzw. Integralen
- Unabhängigkeit zentral für Produktmaße, Gesetz der großen Zahlen, CLT, Faltungsformeln
- Approximationen: Poisson für seltene Ereignisse, Normal für Summen vieler i.i.d.
- Ungleichungen (Markov, Tschebyscheff, Cauchy–Schwarz) liefern Abschätzungen für Wahrscheinlichkeiten und Momente
- Praktische Relevanz: Qualitätskontrolle, Risiko (Versicherung, Alarmanlagen), Statistik (Wahlprognosen), Kombinatorik (Lotto, Kartenspiele)