Mathe Thema 7

Universität Innsbruck
ESARE

Mathematik - Thema 7: Wahrscheinlichkeitsrechnung


Überblick Thema: Wahrscheinlichkeitsrechnung
  • Inhalte: - Buch

  • 5.1 Grundbegriffe

  • 5.2 Kopplung von Ereignissen (Bedingte Wahrscheinlichkeit)

  • 5.3 Zufallsvariablen

    • 5.1 Erwartungswert

    • 5.3 Varianz

    • 5.3 Normalverteilung

    • 5.4 Binomialverteilung

    • 5.5


Allgemeine Bemerkungen
  • Abweichungen vom Buch: - Kombinatorik wird nicht behandelt, insbesondere nicht die Musteraufgaben (MA), die Kombinatorik verwenden (MA 5.4, 5.5, 5.7, 5.12, 5.14).

    • Der Wahrscheinlichkeitsbegriff wird allgemeiner eingeführt.

    • Das Buch beschränkt sich auf die statistische Wahrscheinlichkeit.

    • Das Thema Zufallsvariablen wird ausführlicher diskutiert.

    • Die Besprechung der Konzepte von Erwartungswert und Varianz fällt intensiver aus.

  • Literaturhinweis: Für detailliertere Literatur siehe z.B. Kapitel 8–9 in Josef Schira (2003), Statistische Methoden der VWL und BWL, Pearson Studium.


Generelle Ziele
  • Gefühl für Wahrscheinlichkeiten/Zufallsvorgänge:- Sind beim zweimaligen Werfen eines sechsseitigen Würfels die Augensummen 11 und 12 gleich wahrscheinlich?

    • Welche Aussage ist wahrscheinlicher? :

    • A: Mein Nachbar steht wochentags immer um 2.00 Uhr in der Nacht auf.

    • B: Mein Nachbar ist Bäcker und steht wochentags immer um 2.00 Uhr in der Nacht auf.

    • Beurteilung der Qualität eines Tests:

    • Ein AIDS-Test erkennt infizierte Personen mit 99.9%iger Sicherheit.

    • Bei 0.2% gesunder Menschen liefert der Test fälschlicherweise ein positives Ergebnis.

    • In Industrieländern sind 0.1% der Bevölkerung infiziert.

    • Wie groß ist die Wahrscheinlichkeit, dass eine positiv getestete Person gesund ist?

  • Als Grundlage für weiterführende Vorlesungen: - Ein Fondsmanager möchte das Kapital diversifizieren.

    • Eine Bank will das Verlustrisiko beurteilen.

    • Grundlage der induktiven Statistik:

    • Beschreibung zufälliger Vorgänge ist fundamental für/statistische Verfahren.


Grundbegriffe

Zufallsvorgang / Zufallsexperiment

  • Definition: Ein Zufallsvorgang oder Zufallsexperiment führt zu einem von mehreren, sich gegenseitig ausschließenden Ergebnissen.

  • Beispiel - Werfen eines Würfels: - Der Würfel hat die Augenzahlen 1, 2, …, 6.

    • Vor dem Wurf ist ungewiss, welches Ergebnis eintreten wird.


Ergebnismenge / Ergebnisraum

  • Definition: Die Menge aller möglichen Ergebnisse eines Zufallsvorgangs nennt man Ergebnismenge oder Ergebnisraum extext{Ω}.- Beispiel: Ergebnismenge beim Würfeln ext{Ω} = ig{1, 2, 3, 4, 5, 6\big\ ext{} } .


Ereignis

  • Definition: Ein Ereignis ist eine Aussage über ein mögliches Ergebnis eines Zufallsexperiments.

  • Jedes Ereignis ist die Teilmenge der Ergebnismenge; Ereignisse mit nur einem Element heißen Elementarereignisse.

  • Hier wird von einer endlichen Anzahl von Ergebnissen ausgegangen.


Mathematische Beschreibung eines Zufallsvorgangs

  • Definition: Ein Zufallsvorgang wird mathematisch durch die Angabe der Ergebnismenge und die Zuweisung von Wahrscheinlichkeiten beschrieben.- Beispiel - Werfen eines Würfels:

    • extP(1)=extP(2)=extP(3)=extP(4)=extP(5)=extP(6)=16ext{P}({1}) = ext{P}({2}) = ext{P}({3}) = ext{P}({4}) = ext{P}({5}) = ext{P}({6}) = \frac{1}{6}, wenn der Würfel fair ist.


Wahrscheinlichkeitsmaß

  • Definition: Sei ext{Ω} = ig{ω1, …, ωn\big\ ext{} } ein endlicher Ergebnisraum. Ein Wahrscheinlichkeitsmaß ordnet jeder Teilmenge A von extext{Ω} eine Wahrscheinlichkeit extP(A)ext{P(A)} zu, wobei folgende Axiome von Kolmogorov erfüllt sein müssen: 1. extP(A)0ext{P(A)} \ge 0

    1. extP()=1ext{P(Ω)} = 1

    2. Wenn AA und BB sich ausschließende Ereignisse sind, dann gilt extP(AB)=extP(A)+extP(B)ext{P(A ∪ B)} = ext{P(A)} + ext{P(B)}.


Was sind Axiome?

  • Definition: Axiome bilden das Fundament jeder mathematischen Disziplin.

  • Axiome sind Aussagen, die nicht begründet oder bewiesen werden müssen.

  • Alle weiteren Aussagen werden aus Axiomen bewiesen.

  • Es ist eine komplexe Aufgabe, sinnvolle und konsistente Axiomensysteme zu postulieren.

  • Die axiomatischen Grundlagen der Wahrscheinlichkeitstheorie wurden 1933 von Kolmogorov gegründet.


Wahrscheinlichkeiten

  • Definition: Ordne jedem Ereignis AA eine Wahrscheinlichkeit extP(A)ext{P(A)}
    zwischen 0 und 1 zu.

  • extP(A)=0ext{P(A)} = 0 bedeutet, dass das Ereignis nie eintritt;

  • extP(A)=1ext{P(A)} = 1 bedeutet, dass das Ereignis sicher eintritt.


Objektivistischer Wahrscheinlichkeitsbegriff

  • Häufigkeitsinterpretation: extP(A)=extlim<em>nextf</em>n(A)ext{P(A)} = ext{lim}<em>{n \to ext{∞}} f</em>n(A), wobei fn(A)f_n(A) die relative Häufigkeit des Ereignisses AA in nn Wiederholungen beschreibt.


Laplace-Wahrscheinlichkeiten

  • Häufige Situation: Wenn alle möglichen Ergebnisse gleichwahrscheinlich sind, d.h. extP(ωj)=1extext{P({ω_j}) = \frac{1}{| ext{Ω}|}}, für j=1,ext,nj = 1, ext{…}, n.

  • Abzählregel:
    extP(A)=extAnzahlderfu¨rAgu¨nstigenErgebnisseextAnzahlallermo¨glichenErgebnisse=Aextext{P(A)} = \frac{ ext{Anzahl der für A günstigen Ergebnisse}}{ ext{Anzahl aller möglichen Ergebnisse}} = \frac{|A|}{| ext{Ω}|}.


Beispiel: Würfelwurf

  • Frage: Wie groß ist die Wahrscheinlichkeit für eine gerade Augenzahl?

  • Lösung: Ergebnisraum: ext{Ω} = ig{1, 2, 3, 4, 5, 6\big\ ext{} }. - Angenommen, alle Augenzahlen haben die gleiche Wahrscheinlichkeit (Laplace-Experiment)

    • extP(k)=16ext{P}({k}) = \frac{1}{6} für alle Augenzahlen k=1,,6k = 1, …, 6.

    • Ereignis A = ext{gerade Augenzahl} = ig{2, 4, 6\big\ ext{} }

    • extP(A)=Aext=36=12ext{P(A)} = \frac{|A|}{| ext{Ω}|} = \frac{3}{6} = \frac{1}{2}.


Laplace-Wahrscheinlichkeiten Beispiel: Leibniz Irrtum

  • Frage: Bei zweimaligem Werfen eines sechsseitigen Würfels, wie groß ist die Wahrscheinlichkeit für die Augensummen 11 und 12?

  • Lösung: - Möglicher Ergebnisraum: ext{Ω} = ig{2, 3, 4, ext{…}, 12\big\ ext{} }.

    • Alternativer Ergebnisraum: ext{Ω} = ig{(1, 1), (1, 2), ext{…}, (6, 6)\big\ ext{} }.

    • extext{Ω} hat 36 mögliche gleichwahrscheinliche Ergebnisse.


Weitere Ereignisse

Beispiel:

  • A=extWurfeiner6A = ext{Wurf einer 6}

  • B=extZufa¨lligerWurfeinerZahlgro¨ßerals4B = ext{Zufälliger Wurf einer Zahl größer als 4}

  • Ereignis C=extGeradeAugenzahlC = ext{Gerade Augenzahl}


Rechnen mit Wahrscheinlichkeiten

Teilmengen

  • Falls ein Ereignis AA ein Spezialfall eines anderen Ereignisses BB ist (d.h. ABA \subset B), dann gilt: P(A)P(B)P(A) \le P(B).


Beispiel - Einmaliges Werfen eines Würfels

  • Betrachtet den Ergebnisraum ext{Ω} = ig{1, 2, 3, 4, 5, 6\big\ ext{} } mit P(1)=P(2)==P(6)=16P({1}) = P({2}) = … = P({6}) = \frac{1}{6}.

  • Ereignisse - A = ext{Augenzahl 6} = ig{6\big\ ext{} }

    • B = ext{Gerade Augenzahl} = ig{2, 4, 6\big\ ext{} }

  • Rechenregel: P(AB)=P(A)+P(B)P(AB)P(A ∪ B) = P(A) + P(B) - P(A ∩ B)


Beispiel - Nachbar

  • Betrachtet die Ereignisse: - A=extMeinNachbarstehtwochentagsimmerum2.00Uhrauf.A = ext{Mein Nachbar steht wochentags immer um 2.00 Uhr auf.}

    • B=extMeinNachbaristBa¨cker,stehtwochentagsum2.00Uhrauf.B = ext{Mein Nachbar ist Bäcker, steht wochentags um 2.00 Uhr auf.}

  • Beurteilung: Offenbar ist P(B)P(A)P(B) \le P(A).


Gegenereignis

  • Für die Wahrscheinlichkeit des Gegenereignisses AA gilt:
    P(A)=1P(A)P(A') = 1 - P(A).

  • Beispiel: - Wie groß ist beim zweimaligen Würfeln die Wahrscheinlichkeit für das Ereignis, mindestens Augensumme 3 zu würfeln?

    • Lösung: P(extmindestensAugensumme3)=1P(extAugensumme2)=1136=3536P( ext{mindestens Augensumme 3}) = 1 - P( ext{Augensumme 2}) = 1 - \frac{1}{36} = \frac{35}{36}.


Vereinigung

  • Für zwei Ereignisse AA und BB gilt:
    P(AB)=P(A)+P(B)P(AB)P(A ∪ B) = P(A) + P(B) - P(A ∩ B).


Beispiel - Wetter

  • Betrachtet folgende Einschätzungen:- Wahrscheinlichkeit für Regen am Samstag: 70%.

    • Wahrscheinlichkeit für Regen am Sonntag: 70%.

    • Wahrscheinlichkeit, dass es an beiden Tagen regnet: 30%.

  • Frage: Wie groß ist die Wahrscheinlichkeit, dass es am Samstag oder Sonntag regnet?

  • Lösung: - P(A)=0.7P(A) = 0.7

    • P(B)=0.7P(B) = 0.7

    • P(AB)=0.3P(A ∩ B) = 0.3

    • P(AB)=P(A)+P(B)P(AB)=0.7+0.70.3=1.1P(A ∪ B) = P(A) + P(B) - P(A ∩ B) = 0.7 + 0.7 - 0.3 = 1.1

    • Interpretation: Die Axiome von Kolmogorov werden verletzt.


Zusammenfassung der Rechenregeln für Wahrscheinlichkeiten

  1. 0P(A)10 \le P(A) \le 1

  2. P()=0P(\emptyset) = 0

  3. P(A)P(B)P(A) \le P(B), falls ABA \subset B

  4. P(A)=1P(A)P(A') = 1 - P(A)

  5. P(AB)=P(A)+P(B)P(AB)P(A ∪ B) = P(A) + P(B) - P(A ∩ B)


Kopplung von Ereignissen (Bedingte Wahrscheinlichkeit)

Definition

  • Gegeben seien zwei Ereignisse AA und BB mit P(B) > 0.

  • Bedingte Wahrscheinlichkeit von AA unter BB:
    P(AB)=P(AB)P(B)P(A|B) = \frac{P(A ∩ B)}{P(B)}.

  • Interpretation: - Ereignis AA tritt mit Wahrscheinlichkeit P(A)P(A) ein und wir haben die Zusatzinformation, dass Ereignis BB eingetreten ist.

    • Wie groß ist die Wahrscheinlichkeit von AA, falls BB bereits eingetreten ist?


Produktformel

  • P(AB)=P(AB)P(B)P(AB)=P(AB)P(B)P(A|B) = \frac{P(A ∩ B)}{P(B)} \Rightarrow P(A ∩ B) = P(A|B) P(B)


Beispiel: AMDS-Test

  • Definition: AMDS (Acute Mathematics Deficiency Syndrome) hindert Studierende am erfolgreichen Abschluss eines Wirtschaftsstudiums.

  • 5% aller Studierenden leiden daran.

  • Ein Test (Prüfung) erkennt AMDS: - Wer AMDS hat, wird mit 90%iger Sicherheit durchfallen.

    • Wer es nicht hat, besteht mit 90%iger Sicherheit.

  • Ein Student ist durchgefallen.

  • Frage: Sollte der Student das Studium beenden?

  • Notation für Ereignisse: - A=extAMDS(krank)A = ext{AMDS (krank)}

    • B=extinPru¨fungdurchfallenB = ext{in Prüfung durchfallen}.


Rechnerischer Ansatz

  • P(A)=0.05P(A) = 0.05

  • P(BA)=0.9P(B|A) = 0.9

  • P(BA)=0.1P(B|A') = 0.1 (Gesund)

  • P(BA)=0.9P(B|A') = 0.9 (Nicht krank)

  • Vierfeldertafel für Wahrscheinlichkeit - Eintragen in die Tabelle:

    • P(AB)P(A∩B), P(AB)P(A'∩B), usw.

  • Berechnung der gesuchten bedingten Wahrscheinlichkeiten - P(AB)=P(AB)P(B)P(A|B) = \frac{P(A ∩ B)}{P(B)}

    • P(B)=P(AB)+P(AB)P(B) = P(A∩B) + P(A'∩B).


Bedingte Wahrscheinlichkeit Rechnen

Regeln für bedingte Wahrscheinlichkeiten

  • Für eine feste Bedingung BB:1. 0P(AB)10 \le P(A|B) \le 1

    1. P(B)=0P(\emptyset|B) = 0

    2. P(AB)P(CB)P(A|B) \le P(C|B), falls ACA \subset C

    3. P(AB)=1P(AB)P(A'|B) = 1 - P(A|B)

    4. P(ACB)=P(AB)+P(CB)P(ACB)P(A ∪ C|B) = P(A|B) + P(C|B) - P(A ∩ C|B)


Satz von der totalen Wahrscheinlichkeit

  • Gegeben seien zwei Ereignisse AA und BB:

  • P(B)=P(BA)+P(BA)=P(BA)P(A)+P(BA)P(A)P(B) = P(B ∩ A) + P(B ∩ A') = P(B|A) \cdot P(A) + P(B|A') \cdot P(A').


Satz von Bayes

  • Für zwei Ereignisse AA und BB gilt:

  • P(AB)=P(AB)P(B)=P(BA)P(A)P(B)P(A|B) = \frac{P(A ∩ B)}{P(B)} = \frac{P(B|A) \cdot P(A)}{P(B)}

  • Nutzen des Satzes von Bayes: Er ermöglicht die Berechnung der Wahrscheinlichkeit eines Ereignisses AA unter Berücksichtigung des eingetretenen Ereignisses BB.


Beispiel: AMDS-Beispiel mit Satz von Bayes

  • Wahrscheinlichkeiten: - P(A)=0.05P(A) = 0.05,

    • P(BA)=0.9P(B|A) = 0.9,

    • P(BA)=0.1P(B|A') = 0.1.

    • Wir wollen P(AB)P(A|B) berechnen:
      P(AB)=P(BA)P(A)P(BA)P(A)+P(BA)P(A)P(A|B) = \frac{P(B|A) \cdot P(A)}{P(B|A) \cdot P(A) + P(B|A') \cdot P(A')}

    • Eintragung der Werte und Berechnung.


Zufallsvariablen (Zufallsgrößen)

Definition

  • Zufallsvariablen beschreiben die Ergebnisse von Zufallsvorgängen durch Zahlen.

  • Eine Zufallsvariable XX ist eine in einem Zufallsvorgang beobachtbare zufällige Zahl.

  • Jede Aussage über XX stellt ein Ereignis dar.


Beispiel - Zweimaliges Würfeln

  • Parameter: - Ergebnisraum: Ω = ig{(1,1), (1,2), ext{…}, (6,6)\big\ ext{} }

  • Zufallsvariable: - X=extAugensummederbeidenWu¨rfeX = ext{Augensumme der beiden Würfe}

  • Wertebereich von XX: 2, 3, 4, …, 12

  • Wahrscheinlichkeiten:- P(X = 2) = P( ig{(1, 1)\big\text{} }) = \frac{1}{36},

    • P(X = 3) = P( ig{(1, 2),(2, 1)\big\text{} }) = \frac{2}{36}.


Diskrete Zufallsvariablen

  • Definition: Eine Zufallsvariable XX ist diskret, wenn sie nur endlich oder abzählbar unendlich viele Werte annehmen kann.

  • Die Menge der Werte τ = ig{x1, x2, ext{…}, x_k\big\text{} } heißt Wertemenge oder Träger von XX.


Wahrscheinlichkeitsfunktion

  • Definition: Die Wahrscheinlichkeitsfunktion f(x)f(x) einer diskreten Zufallsvariablen XX gibt für jeden Wert x<em>1,x</em>2,extx<em>1, x</em>2, ext{…} die Wahrscheinlichkeiten P(X=x<em>1),P(X=x</em>2),extP(X = x<em>1), P(X = x</em>2), ext{…} an.

  • Kompakt: f(x<em>i)=P(X=x</em>i)f(x<em>i) = P(X = x</em>i).


Beispiel: Münzwurf

  • Wahrscheinlichkeitsfunktion: - f(x) = P(X = x) = egin{cases} \frac{1}{2} & ext{für } x = 0 & ext{(Kopf)} \ \frac{1}{2} & ext{für } x = 1 & ext{(Zahl)} \ 0 & ext{sonst.} \end{cases}.


Diskrete Zufallsvariablen Benfords Gesetz

  • Erklärung: Benford bemerkte, dass die Anfangsziffern von Zahlen nicht gleichmäßig verteilt sind und die Eins am häufigsten vorkommt.

  • P(X=x)=extlog10(1+1x)extfu¨rx=1,2,,9.P(X = x) = ext{log}_{10} \left(1 +\frac{1}{x} \right) ext{ für } x = 1,2,…,9.


Beispiel: Leicht zu eruieren

  • Betrug, durch Verwendung von Benfords Gesetz kann auf Plausibilität geprüfte Zahlen - Bei großen Abweichungen folgt oft eine inhaltliche Prüfung.

  • Beispiel: - Bilanzen, Steuererklärungen, Wahlergebnisse, wissenschaftliche Publikationen.


Stetige Zufallsvariablen (Zufallsgrößen)

Definition

  • Eine Zufallsvariable XX ist stetig, wenn sie jeden Wert in einem Intervall annehmen kann.


Dichtefugtion

  • Die Funktion f(x)f(x) wird als Dichte von XX bezeichnet. P(aXb)=extFla¨cheunterderDichteimIntervall[a,b]=extabf(x)extdxP(a \le X \le b) = ext{Fläche unter der Dichte im Intervall } [a, b] = \boxed{ ext{∫ }_a^b f(x) ext{d}x}.


Beispiel: Stückweise konstante Dichte

  • Dichte: f(x) = egin{cases} 0.1 & ext{für } x ext{ in } [1, 3) \ 0.5 & ext{für } x ext{ in } [3, 4) \ 0.15 & ext{für } x ext{ in } [4, 6) \ 0 & ext{sonst.} \end{cases}.


Verteilungsfunktion
  • Definition: Die Verteilungsfunktion F(x)F(x) einer stetigen Zufallsvariablen XX gibt die Wahrscheinlichkeit für XxX \le x an, d.h. F(x)=P(Xx)F(x) = P(X \le x).


Exponentialverteilung
  • Dichte: f(x) = egin{cases} \frac{1}{μ} e^{-\frac{x}{μ}} & x ext{ ≥ 0} \ 0 & ext{sonst.}\ \end{cases}

  • Anwendungsbeispiele: Wartezeiten

  • Parameter: μ kann als durchschnittliche Wartezeit gedeutet werden.


Normalverteilung
  • Standardnormalverteilung:
    f(x)=12πex22f(x) = \frac{1}{\sqrt{2π}} e^{-\frac{x^2}{2}}

  • Wahrscheinlichkeit:
    P(a < Z < b) = ext{Fläche unter der Dichte zwischen } a ext{ und } b.


Binomialverteilung
  • Beispiel: - Ein sechsseitiger Würfel wird 5 mal geworfen.

    • Zahl der geworfenen 6en.

  • (XextB(n,π))(X ext{ ∼ B}(n, π))

  • Wahrscheinlichkeit man erhält: f(x)=P(X=x)=(nx)πx(1π)nxf(x) = P(X = x) = {n \choose x} π^x (1 - π) ^ {n − x}.

  • Erwartungswert= nπ, Varianz=nπ(1-π)


Beispiele

  • Wurf eines Würfels:- A=extWurfeiner6A = ext{Wurf einer 6}

    • Natürlich auch für Kreditausfälle oder Tests bei Klausuren etc.


Nutzung der binomialen Verteilung

  • Würfelwurf - Beispiel: P(X=5)

  • Wahrscheinlichkeit ermitteln(u.a.).


Relevante Formeln

Grundlegende Wahrscheinlichkeitsregeln

  1. Ergebnismenge (Omega):

  2. Wahrscheinlichkeitsmaß (Kolmogorov-Axiome):

    • P(A)0P(A) \ge 0

    • P()=1P(Ω) = 1

    • Für disjunkte Ereignisse AA und BB: P(AB)=P(A)+P(B)P(A ∪ B) = P(A) + P(B)

  3. Laplace-Wahrscheinlichkeit: P(A)=AP(A) = \frac{|A|}{|Ω|}

  4. Wahrscheinlichkeit des Gegenereignisses: P(A)=1P(A)P(A') = 1 - P(A)

  5. Wahrscheinlichkeit der Vereinigung zweier Ereignisse: P(AB)=P(A)+P(B)P(AB)P(A ∪ B) = P(A) + P(B) - P(A ∩ B)

  6. Objektivistischer Wahrscheinlichkeitsbegriff (Häufigkeitsinterpretation): P(A)=lim<em>nf</em>n(A)P(A) = \lim<em>{n \to ∞} f</em>n(A)

Bedingte Wahrscheinlichkeiten

  1. Definition der Bedingten Wahrscheinlichkeit: P(AB)=P(AB)P(B)P(A|B) = \frac{P(A ∩ B)}{P(B)} (für P(B) > 0)

  2. Produktformel: P(AB)=P(AB)P(B)P(A ∩ B) = P(A|B) P(B)

  3. Satz von der totalen Wahrscheinlichkeit: P(B)=P(BA)P(A)+P(BA)P(A)P(B) = P(B|A) \cdot P(A) + P(B|A') \cdot P(A')

  4. Satz von Bayes: P(AB)=P(BA)P(A)P(BA)P(A)+P(BA)P(A)P(A|B) = \frac{P(B|A) \cdot P(A)}{P(B|A) \cdot P(A) + P(B|A') \cdot P(A')}

Zufallsvariablen und Verteilungen

  • Wahrscheinlichkeitsfunktion (diskrete ZV): f(x<em>i)=P(X=x</em>i)f(x<em>i) = P(X = x</em>i)

    • Benfords Gesetz: P(X=x)=log10(1+1x)P(X = x) = \log_{10} \left(1 +\frac{1}{x} \right)

  • Dichtefunktion (stetige ZV): P(aXb)=abf(x)dxP(a \le X \le b) = \int_a^b f(x) \text{d}x

  • Verteilungsfunktion: F(x)=P(Xx)F(x) = P(X \le x)

  • Exponentialverteilung (Dichte): f(x)={1μexμamp;x0 0amp;sonst.f(x) = \begin{cases} \frac{1}{μ} e^{-\frac{x}{μ}} &amp; x \ge 0 \ 0 &amp; \text{sonst.} \end{cases}

  • Standardnormalverteilung (Dichte): f(x)=12πex22f(x) = \frac{1}{\sqrt{2π}} e^{-\frac{x^2}{2}}

  • Binomialverteilung (Wahrscheinlichkeit, Erwartungswert, Varianz):

    • P(X=x)=(nx)πx(1π)nxP(X = x) = {n \choose x} π^x (1 - π)^{n - x}

    • Erwartungswert E(X)=nπE(X) = n \cdot π

    • Varianz Var(X)=nπ(1π)Var(X) = n \cdot π \cdot (1 - π)


Inhaltliche Zusammenfassung

Die Unterlagen zur Wahrscheinlichkeitsrechnung für die Universität Innsbruck im Rahmen von ESARE Mathematik – Thema 7 bieten einen umfassenden Überblick über zentrale Konzepte und Anwendungen. Sie beginnen mit den fundamentalen Grundbegriffen wie Zufallsvorgängen, Ergebnismengen, Ereignissen und deren mathematischer Beschreibung durch Wahrscheinlichkeitsmaße, wobei die Axiome von Kolmogorov als Basis dienen. Unterschiedliche Wahrscheinlichkeitsbegriffe, wie der objektivistische Ansatz und die Laplace-Wahrscheinlichkeit, werden erläutert und anhand von Beispielen verdeutlicht.

Ein wesentlicher Teil befasst sich mit den Rechenregeln für Wahrscheinlichkeiten, einschliesslich Teilmengenrelationen, Gegenereignissen und der Vereinigung von Ereignissen, stets mit praktischen Beispielen. Anschliessend wird die Kopplung von Ereignissen, insbesondere die bedingte Wahrscheinlichkeit, detailliert eingeführt. Hier werden die Produktformel, der Satz von der totalen Wahrscheinlichkeit und der Satz von Bayes ausführlich behandelt, illustriert durch das AMDS-Testbeispiel, das die praktische Bedeutung dieser Konzepte hervorhebt.

Das Skript differenziert weiter zwischen diskreten und stetigen Zufallsvariablen. Für diskrete Variablen werden die Wahrscheinlichkeitsfunktion und Benfords Gesetz besprochen, während für stetige Variablen die Dichtefunktion und die Verteilungsfunktion im Fokus stehen. Abschliessend werden spezifische Wahrscheinlichkeitsverteilungen wie die Exponentialverteilung, die Normalverteilung und die Binomialverteilung mit ihren jeweiligen Formeln für Dichte, Wahrscheinlichkeitsfunktion, Erwartungswert und Varianz vorgestellt, um das Verständnis für deren Anwendung in ökonomischen und alltäglichen Szenarien zu vertiefen. Besonderes Augenmerk liegt auf der Verknüpfung der Theorie mit realen Problemstellungen und der Abgrenzung von buchspezifischen Inhalten.