poly
Fondements des Probabilités
Version: 10 octobre 2017
Auteur: Thibaut Le Gouic
Enseignement: Cours de probabilités 1ère année 2017-2018
Notations
Fonction indicatrice 1A(x) = (1 si x ∈ A, 0 sinon)
Mesure de Dirac δa(B) = (1 si a ∈ B, 0 sinon)
Loi de probabilité X ∼ PX
Variable Aléatoire et Loi de Probabilité
1.1 Formalisme
Rappel des notions d’intégration de Lebesgue avec adaptation probabiliste.
1.2 Tribu et Mesure
Tribu (σ-algèbre): A ⊂ P(Ω) vérifie :
φ ∈ A (ensemble vide)
A ∈ A ⇒ Ac ∈ A (stabilité par complémentaire)
(An)n≥1 ⊂ A ⇒ ∪n≥1 An ∈ A (stabilité par union dénombrable)
Couple (Ω, A) = espace mesurable, événements inclus dans A.
Tribu borélienne sur R est B(R).
Variable Aléatoire
Définition: X : (Ω, A) → (E, E) est A-mesurable.
Transformations sur X sont aussi des variables aléatoires.
Théorèmes
3.1 Stabilité des Variables Aléatoires
Résultat sur la préservation de la mesurabilité des opérations sur variables aléatoires. Exemple :
X + c, X + cY, <X, Y>, X/Y (pour Y non nul).
3.2 Tribu Engendrée
Tribu engendrée par X:
σ(X) = {X−1(B)|B ∈ E}
Correspond à l’information d’observation de X.
Mesures de Probabilité
6.1 Mesure Positive
Définition:
µ(φ) = 0
A ∩ B = φ ⇒ µ(A ∪ B) = µ(A) + µ(B)
Suite croissante ⇒ limite = somme
Espace Mesuré: (Ω, A, µ)
6.2 Loi de Variable Aléatoire
Définition: P est une mesure de probabilité si P(Ω) = 1.
Loi PX définit par PX(B) = P(X−1(B)).
1.3 Exemples de Loi
Lois Notables:
Loi de Bernoulli: B(p)
Loi binomiale: Bin(n, p)
Loi de Poisson: P(λ)
Loi géométrique: G(p)
Loi exponentielle: E(λ)
Loi normale: N(m, σ²)
Loi uniforme: U([a, b])
Outils Fondamentaux
1.4 Espérance
Définition: EX = ∫ X(ω)dP(ω).
Propriétés de l’espérance:
Linéaire: E(X + cY) = EX + cEY
Variables Aléatoires Réelles
1.5 Variance
Définition de la Variance: Var(X) = E(X − EX)².
Classification selon moments.
1.6 Caractérisation de la Loi
Fonctions caractérisant la loi de PX:
B → PX(B)
Fonction de répartition FX
Fonction caractéristique ϕX
Fonction génératrice des moments
Inégalités
1.7 Théorèmes d’Inégalités
Jensen: Φ(EX) ≤ EΦ(X)
Markov: P(|X| > a) ≤ E|X|/a
Bienaymé-Tchebychev: P(|X − EX| > a) ≤ Var(X)/a²
Vecteurs Aléatoires
3.1 Covariance
Définition: Cov(X, Y) = E((X − EX)(Y − EY)).
Matrice de variance-covariance Σ.
3.2 Indépendance
Variables X1,...,Xn indépendantes si P(X1 ∈ A1, ..., Xn ∈ An) = Πni=1P(Xi ∈ Ai).
Convergence de Variables Aléatoires
4.1 Convergence Types
Convergence en probabilité, presque sûrement, dans L1, Lp, et en loi.
Implications des notions de convergence.
4.2 Théorèmes de Convergence
Théorème de Slutsky.
Mesure Empirique et Lois
5.1 Loi des Grands Nombres
Théorème: Nombres i.i.d. convergent en probabilité vers l’espérance.
5.2 Mesure Empirique
Notion de mesure empirique Pn pour n variables aléatoires i.i.d.
5.3 Théorème Central Limite
Convergence en loi vers N(0, 1).
Espérance Conditionnelle
6.1 Définition
Base de l’espérance conditionnelle, définie avec des v.a. intégrables.
6.2 Propriétés
Linéarité, propriétés d’indépendance, théorèmes de convergence.
Loi Conditionnelle
7.1 Définition
Probabilité de transition et densité conditionnelle.
7.2 Propriétés
Se rapportant à la loi conditionnelle basée sur des événements.