Angewandte Stochastik – Zusammenfassung Kapitel 1-12

Kapitel 1 – Endliche diskrete Wahrscheinlichkeitsräume
  • Typische Fragestellungen (Würfel, Krankheitstests, Schafkopf)
  • Definition endlicher diskreter Wahrscheinlichkeitsraum: (Ω,P(Ω),P)(\Omega,\,\mathcal P(\Omega),\,P) mit P(Ω)=1P(\Omega)=1 und P(A)=ωAP(ω)P(A)=\sum_{\omega\in A}P({\omega})
  • Begriffe
    • Grundraum/Ergebnisraum Ω\Omega
    • Ereignis AΩA\subset \Omega, Ereignisraum P(Ω)\mathcal P(\Omega)
    • Elementarereignis ω{\omega}, unmögliches Ereignis \emptyset, sicheres Ereignis Ω\Omega
    • Zahldichte ρ(ω)=P(ω)\rho(\omega)=P({\omega})
    • Diskretes Wahrscheinlichkeitsmaß PP
  • Eigenschaften (Satz 1.5)
    • 0P(A)10\le P(A)\le1, P()=0P(\emptyset)=0, P(Ω)=1P(\Omega)=1
    • Endliche Additivität, Subtraktivität, Monotonie, Gegenereignisformel P(Ac)=1P(A)P(A^{c})=1-P(A)
    • Starke Additivität, Subadditivität, σ\sigma-Additivität
  • Mengenoperationen bei Ereignissen – Vereinigung bedeutet „mindestens eins“, Durchschnitt „alle“
  • Diracmaß δa\delta_a, Bernoulli-Maß b(1,p)b(1,p), Laplace-Raum P(A)=A/ΩP(A)=|A|/|\Omega|
  • Urnenmodelle (4 Fälle)
    • Mit/ohne Zurücklegen × geordnet/ungeordnet: Kardinalitäten Ω<em>1=N!(Nn)!,  Ω</em>2=Nn,  Ω<em>3=(Nn),  Ω</em>4=(N+n1n)|\Omega<em>1|=\frac{N!}{(N-n)!},\;|\Omega</em>2|=N^{n},\;|\Omega<em>3|={N\choose n},\;|\Omega</em>4|={N+n-1\choose n}
  • Beispiele
    • Lotto 6 aus 496\text{ aus }49P(6 Richtige)=1/(496)7.2108P(6\text{ Richtige})=1/{49\choose 6}\approx7.2\cdot10^{-8}
    • Dreimal würfeln: P(3 Sechsen)=1/216P(\text{3 Sechsen})=1/216, P(genau 2 Sechsen)=15/216P(\text{genau 2 Sechsen})=15/216
    • Schafkopf: P(alle Ober+Unter)=1/10518300P(\text{alle Ober+Unter})=1/10\,518\,300
  • Wichtig: Begriffe, Satz 1.5, Laplaceexperimente, Urnenmodelle sicher beherrschen
Kapitel 2 – Bedingte Wahrscheinlichkeit & Bayes
  • Definition: P(AB)=P(AB)P(B)P(A\mid B)=\frac{P(A\cap B)}{P(B)} für P(B)>0
  • Multiplikationsformel: P(A<em>1A</em>n)=P(A<em>1)P(A</em>2A1)P(A<em>1\cap\dots\cap A</em>n)=P(A<em>1)P(A</em>2\mid A_1)\dots
  • Satz der totalen Wahrscheinlichkeit: P(A)=<em>iP(B</em>i)P(ABi)P(A)=\sum<em>{i}P(B</em>i)P(A\mid B_i)
  • Bayes-Formel: P(B<em>jA)=P(B</em>j)P(AB<em>j)</em>iP(B<em>i)P(AB</em>i)P(B<em>j\mid A)=\frac{P(B</em>j)P(A\mid B<em>j)}{\sum</em>i P(B<em>i)P(A\mid B</em>i)}
  • Alarmanlagen-Beispiel ⇒ P(EA)0.198P(E\mid A)\approx0.198 (nur 1 von 5 Alarmen echt)
  • HIV-Screening analoge Berechnung
  • Wichtig: Bedingte W’keiten erkennen & Bayes anwenden
Kapitel 3 – Unabhängigkeit & Produktmaß
  • Zwei Ereignisse unabhängig ⇔ P(AB)=P(A)P(B)P(A\cap B)=P(A)P(B)
    • Equivalent bei P(A),P(B)>0 zu P(AB)=P(A)P(A\mid B)=P(A)
  • Paarweise vs. totale Unabhängigkeit (Lemma 3.6)
  • Produktmaß P=P<em>1P</em>nP=P<em>1\otimes\dots\otimes P</em>n mit Zahldichte ρ(ω<em>1,,ω</em>n)=<em>iρ</em>i(ωi)\rho(\omega<em>1,\dots,\omega</em>n)=\prod<em>i\rho</em>i(\omega_i)
  • Modell: n-maliger Münzwurf b(1,p)nb(1,p)^{\otimes n}, Zahldichte pk(1p)nkp^{k}(1-p)^{n-k}
  • Folge von Ereignissen/Zufallsvariablen unabh.: jede endliche Teilmenge unabh.
  • Wichtig: Definitionen, Unterschied paarweise/gesamt, Modellierung im Produktraum
Kapitel 4 – Abzählbarkeit & unendliche diskrete Räume
  • Abzählbar ⇔ surjektive Abbildung φ:NA\varphi:\mathbb N\to A
  • Vereinigung abzählbarer Mengen abzählbar, kartesisches Produkt endlicher Anzahl abzählbar
  • Diskreter Raum nun: Ω\Omega abzählbar; Formeln wie in Kap 1, aber σ\sigma-Additivität zwingend nötig
  • Spezielle Verteilungen
    • Poisson ρ(n)=eλλn/n!\rho(n)=e^{-\lambda}\lambda^{n}/n!
    • Geometrisch ρ(n)=p(1p)n1\rho(n)=p(1-p)^{n-1}
    • Binomial b(n,p):  ρ(k)=(nk)pk(1p)nkb(n,p):\;\rho(k)={n\choose k}p^{k}(1-p)^{n-k}
  • Wichtig: Begriffe Abzählbarkeit, neue Verteilungen
Kapitel 5 – Zufallsvariablen, Verteilungen, Faltung
  • Zufallsvariable X:ΩRX: \Omega\to\mathbb R, Zufallsvektor X:ΩRmX:\Omega\to\mathbb R^{m}
  • Verteilung P<em>XP<em>X auf (M,P(M))(M,\mathcal P(M)): P</em>X(C)=P(XC)P</em>X(C)=P(X\in C), Zahldichte ρX(y)=P(X=y)\rho_X(y)=P(X=y)
  • Verteilungsfunktion FX(x)=P(Xx)F_X(x)=P(X\le x), Eigenschaften: monoton, rechtsstetig, F()=0,F()=1F(-\infty)=0,F(\infty)=1
  • Gemeinsame Verteilung P<em>(X</em>1,,X<em>n)P<em>{(X</em>1,\dots,X<em>n)}, Randverteilungen P</em>XiP</em>{X_i}; Rand bestimmen nicht eindeutig die gemeinsame
  • Unabhängige Zufallsvariablen: Ereignisse X<em>iC</em>i{X<em>i\in C</em>i} unabhängig; äquivalente Aussagen mit Verteilungsfunktionen
  • Faltungsformel (diskret): ρ<em>X+Y(z)=</em>yρ<em>X(zy)ρ</em>Y(y)\rho<em>{X+Y}(z)=\sum</em>{y}\rho<em>X(z-y)\rho</em>Y(y)
    • Anwendungen: (\operatorname{Pois}(\lambdaX)+\operatorname{Pois}(\lambdaY)=\operatorname{Pois}(\lambdaX+\lambdaY)), Binomial-Summe
  • Konstruktion: Funktionen unabhängiger Variablen bleiben unabhängig; Aufteilung in Blöcke etc.
  • Wichtig: Verteilung, Faltungsformel, Konstruktion neuer unabhängiger Variablen
Kapitel 6 – Erwartungswert & Momente (diskret/abzählbar)
  • Erwartungswert E(X)=ωX(ω)P(ω)E(X)=\sum_{\omega}X(\omega)P({\omega})
  • Transformationsformel: E(f(X))=xf(x)P(X=x)E(f(X))=\sum_{x}f(x)P(X=x)
  • Rechenregeln: Linearität, Monotonie, E(X)E(X)|E(X)|\le E(|X|), für unabh.
    E(XY)=E(X)E(Y)E(XY)=E(X)E(Y)
  • n-tes Moment E(Xn)E(X^{n}), absolutes Moment E(Xn)E(|X|^{n})
  • Beispiele: Spiel mit zwei Würfen (Erwartungswert 4.47 €), E(X2)E(X^2) beim Würfeln = 91/691/6
  • Gefahr nicht-existierender Erwartungswerte (Beispiel mit X(n)=(1)n2nX(n)=(-1)^n2^n)
  • Wichtig: Berechnung, Regeln, Existenzkriterien
Kapitel 7 – Varianz, Kovarianz, Korrelation
  • Varianz Var(X)=E((XE(X))2)=E(X2)(E(X))2\operatorname{Var}(X)=E\bigl((X-E(X))^{2}\bigr)=E(X^{2})-(E(X))^{2}, Standardabweichung σX\sigma_X
  • Beispiele: Binomial Var(X)=np(1p)\operatorname{Var}(X)=np(1-p); Poisson Var=λ\operatorname{Var}=\lambda
  • Rechenregeln: Var(aX+b)=a2Var(X)\operatorname{Var}(aX+b)=a^{2}\operatorname{Var}(X); Summe unabhängiger Varianzen addiert
  • Kovarianz Cov(X,Y)=E((XE(X))(YE(Y)))=E(XY)E(X)E(Y)\operatorname{Cov}(X,Y)=E((X-E(X))(Y-E(Y)))=E(XY)-E(X)E(Y)
    • Symmetrie, Bilinearität, Var(X)=Cov(X,X)\operatorname{Var}(X)=\operatorname{Cov}(X,X)
    • Unabhängig ⇒ unkorreliert, nicht umgekehrt
  • Cauchy–Schwarz: E(XY)E(X2)E(Y2)|E(XY)|\le\sqrt{E(X^{2})}\sqrt{E(Y^{2})}; daher Corr(X,Y)1|\operatorname{Corr}(X,Y)|\le1
    • Corr=±1\operatorname{Corr}=\pm1 ⇔ linearer Zusammenhang a.s.
  • Markov-Ungleichung P(Xε)E(Xγ)/εγP(|X|\ge\varepsilon)\le E(|X|^{\gamma})/\varepsilon^{\gamma}, Tschebyscheff P(XE(X)ε)Var(X)/ε2P(|X-E(X)|\ge\varepsilon)\le \operatorname{Var}(X)/\varepsilon^{2}
  • Kovarianzmatrix (Cov(X<em>i,X</em>j))(\operatorname{Cov}(X<em>i,X</em>j)): symmetrisch, positiv semidefinit
  • Wichtig: Formeln, Ungleichungen, Interpretation Korrelation
Kapitel 8 – Poisson-Grenzwert, Gesetze der großen Zahlen, CLT (diskret)
  • Poissonscher Grenzwertsatz: b(n,p<em>n)nPois(λ)b(n,p<em>n)\xrightarrow[n\to\infty]{}\operatorname{Pois}(\lambda) falls np</em>nλn p</em>n\to\lambda
    • Modelle: Schäden Pois(αt)\operatorname{Pois}(\alpha t), Selbstmorde Stadt (λ ≈ 36), Geburtstage λ=91/365\lambda=91/365
  • Schwaches Gesetz der großen Zahlen (diskret): für paarweise unkorrelierte X<em>iX<em>i mit Varianzen M\le M1nX</em>iPμ\frac1n\sum X</em>i \xrightarrow{P} \mu
  • Standardisierung Binomial: S<em>n=S</em>nnpnpqS<em>n^{*}=\frac{S</em>n-np}{\sqrt{npq}}
  • Zentr. Grenzwertsatz für Binomial (de Moivre–Laplace): SndN(0,1)S_n^{*}\xrightarrow{d}\mathcal N(0,1) ⇒ Approximation mittels Φ\Phi
  • Funktionen
    • Dichte φ(x)=12πex2/2\varphi(x)=\frac1{\sqrt{2\pi}}e^{-x^{2}/2}
    • Verteilungsfunktion Φ(x)=xφ(t)dt\Phi(x)=\int_{-\infty}^{x}\varphi(t)dt, Eigenschaften: Symmetrie Φ(x)=1Φ(x)\Phi(-x)=1-\Phi(x)
  • Wahlprognose-Beispiel: benötigtes n9604n\ge9604 für ±1 %-Genauigkeit mit 95 % Sicherheit (Worst-Case p=0.5p=0.5)
  • Wichtig: Poisson-Approx., WLLN, CLT, Umgang mit Φ\Phi
Kapitel 9 – Allgemeine Wahrscheinlichkeitsräume & stetige Verteilungen
  • Notwendigkeit von σ\sigma-Algebren; Definition: Menge F2Ω\mathcal F \subset 2^{\Omega} mit (i) ΩF\Omega\in\mathcal F, (ii) Abschluss unter Komplement, (iii) abzählbare Vereinigungen
  • Borelsche σ\sigma-Algebra B1\mathcal B_1 auf R\mathbb R: kleinste σ\sigma-Alg., die Intervalle enthält; enthält praktisch alle „vernünftigen“ Mengen
  • Wahrscheinlichkeitsmaß allgemein: P:F[0,1]P:\mathcal F\to[0,1], P(Ω)=1P(\Omega)=1, σ\sigma-additiv
  • Dichten: f nichtnegativ, f=1\int f =1P((a,b))=abfP((a,b))=\int_a^b f
    • Normalverteilung N(μ,σ2)\mathcal N(\mu,\sigma^{2}), Dichte φμ,σ2\varphi_{\mu,\sigma^{2}}
    • Gleichverteilung auf [a,b][a,b], Dichte 1/(ba)1/(b-a)
    • Exponentialverteilung Expo(λ)\operatorname{Expo}(\lambda), Dichte \lambda e^{-\lambda t}\,1_{t>0}
  • Verteilungsfunktion allgemeinermaßen charakterisiert Maß (Satz 9.22)
  • Für Dichte-Maße gilt P(x)=0P({x})=0
  • Wichtig: σ\sigma-Algebra, Borel, stetige Standardverteilungen, Dichten/Verteilungsfunktionen
Kapitel 10 – Zufallsvariablen in stetigen Räumen & Faltung (stetig)
  • Zufallsvariable messbar: XxF{X\le x}\in\mathcal F für alle x ⇒ auch für alle Borelmengen
  • Verteilung P<em>XP<em>X ist Maß auf (R,B</em>1)(\mathbb R,\mathcal B</em>1); Verteilungsfunktion FXF_X
  • Stetige Funktion g: g(X)g(X) ist Zufallsvariable
  • Dichte-Transformation: bei bijektiver stetig diff. gg mit g0g'\neq0: f<em>g(X)(x)=f</em>X(g1(x))g(g1(x))f<em>{g(X)}(x)=\frac{f</em>X(g^{-1}(x))}{|g'(g^{-1}(x))|}
    • Beispiel: Lineare Transformation Normal ⇒ N((μb)/a,σ2/a2)\mathcal N((\mu-b)/a,\sigma^{2}/a^{2})
  • Unabhängigkeit Definition analog; Stabilität unter stetigen Funktionen (Satz 10.13)
  • Faltungsformel stetig: f<em>X+Y(x)=</em>f<em>X(xy)f</em>Y(y)dyf<em>{X+Y}(x)=\int</em>{-\infty}^{\infty} f<em>X(x-y)f</em>Y(y)dy
    • N(μ<em>X,σ</em>X2)+N(μ<em>Y,σ</em>Y2)=N(μ<em>X+μ</em>Y,σ<em>X2+σ</em>Y2)\mathcal N(\mu<em>X,\sigma</em>X^{2})+\mathcal N(\mu<em>Y,\sigma</em>Y^{2})=\mathcal N(\mu<em>X+\mu</em>Y,\sigma<em>X^{2}+\sigma</em>Y^{2})
  • Wichtig: Messbarkeit, Dichte-Transformation, stetige Faltung
Kapitel 11 – Erwartungswert, Varianz, Kovarianz (stetig)
  • Erwartungswert für Dichte ff: E(X)=xf(x)dxE(X)=\int_{-\infty}^{\infty} x f(x)dx; allgemein via Integrale
  • Transformationssatz analog; Momente E(Xn)E(X^{n}) etc.
  • Varianz/Kovarianz/Korrelation und alle Rechenregeln gelten wie in diskretem Fall, aber Integrale statt Summen
  • Beispiel: Normalverteilung E(X)=μ,  Var=σ2E(X)=\mu,\;\operatorname{Var}=\sigma^{2}
  • Tschebyscheff & Markov bleiben gültig
  • Wichtig: Anwendung der Integralformeln
Kapitel 12 – Konvergenzbegriffe & starke Ergebnisse
  • Konvergenzarten
    • Fast sichere Konvergenz: P(ω:limYn(ω)=Y(ω))=1P({\omega: \lim Y_n(\omega)=Y(\omega)})=1
    • Stochastische Konvergenz: Y<em>nPYY<em>n \xrightarrow{P} Y wenn P(Y</em>nYε)0P(|Y</em>n-Y|\ge\varepsilon)\to0
    • Konvergenz in Verteilung: F<em>Y</em>n(x)FY(x)F<em>{Y</em>n}(x)\to F_Y(x) an Stetigkeitsstellen
    • Hierarchie: a.s. ⇒ stochastisch ⇒ in Verteilung (Umkehrungen falsch)
  • Schwaches Gesetz der großen Zahlen (allgemein): paarweise unkorrelierte X<em>iX<em>i, Var begrenzt ⇒ Xˉ</em>nPμ\bar X</em>n \xrightarrow{P} \mu
  • Starkes Gesetz: identisch verteilt & unabhängig ⇒ Xˉna.s.μ\bar X_n \xrightarrow{a.s.} \mu
  • Zentraler Grenzwertsatz (iid mit μ,σ2\mu,\sigma^{2}): S<em>n=X</em>inμσndN(0,1)S<em>n^{*}=\frac{\sum X</em>i-n\mu}{\sigma\sqrt n}\xrightarrow{d}\mathcal N(0,1)
  • Anwendung: relative Häufigkeit konvergiert fast sicher; CLT erlaubt Normal-Approximation beliebiger i.i.d.
  • Wichtig: Definitionen, SLLN/WLLN, allgemeiner CLT
Gesamthafter Überblick – Thematische Querverbindungen
  • Diskret vs. stetig: dieselben formalen Strukturen (Maß, σ\sigma-Algebra, Erwartungen, Varianzen) mit Summen bzw. Integralen
  • Unabhängigkeit zentral für Produktmaße, Gesetz der großen Zahlen, CLT, Faltungsformeln
  • Approximationen: Poisson für seltene Ereignisse, Normal für Summen vieler i.i.d.
  • Ungleichungen (Markov, Tschebyscheff, Cauchy–Schwarz) liefern Abschätzungen für Wahrscheinlichkeiten und Momente
  • Praktische Relevanz: Qualitätskontrolle, Risiko (Versicherung, Alarmanlagen), Statistik (Wahlprognosen), Kombinatorik (Lotto, Kartenspiele)