Probabilit E: Enseignant: Pegdwind e Ouss Eni Fabrice OUEDRAOGO
Probabilit E: Enseignant: Pegdwind e Ouss Eni Fabrice OUEDRAOGO
Probabilit E: Enseignant: Pegdwind e Ouss Eni Fabrice OUEDRAOGO
Enseignant:
Pegdwindé Ousséni Fabrice OUEDRAOGO
Licence 1, Géologie
Institut Teng Tuuma Géosciences de Ouagadougou (I.T.T.G.O)
2019-2020
4 Variables aléatoires
2 Modèle probabiliste
continues
Exemple 1 : On considère une ensemble à deux éléments {a, b}. Avec deux
tirages sans répétition, on peut obtenir {a, b} ou {b, a} ; avec deux tirages
avec répétition, on peut obtenir {a, a}, {a, b}, {b, a} ou {b, b}. Cela
correspond à un tirage avec remise.
n!
Cnp =
p!(n − p)!
Propriétés
1 Cn0 = Cnn = 1
2 Cnp = Cnn−p (complémentaire)
3 Cnp = Cn−1
p p−1
+ Cn−1 (triangle de Pascal)
Apn
4 Cnp = p!
Exemple :
- Match OL-OM : Ω = { OL gagne, OM gagne, match nul }. Donc Ω
est composé de trois événements élémentaires. On peut considérer par
exemple l’événement qui correspond à ”Lyon ne gagne pas”.
- On lance un dé : Ω = {1, 2, . . . , 6}. On peut s’intéresser à
l’événement A = ”on obtient un chiffre pair”, ie A = {2, 4, 6}.
- On lance deux dés :
Ω = {1, . . . , 6} × {1, . . . , 6} = {(i, j) : 1 ≤ i ≤ 6, 1 ≤ j ≤ 6}. Ici, un
événement élémentaire est un couple (i, j), où i représente le résultat
du premier dé et j celui du second.
Exemple :
- On lance trois fois une pièce de monnaie. Les événements
élémentaires vont décrire le plus précisément possible le résultat de
cette expérience. Donc un événement élémentaires ω est un triplet
(r1 , r2 , r3 ) qui donne les résultats de trois lancers (dans l’ordre).
L’événement B : ”on obtient pile au deuxième lancer” est
P(Ω) = {∅, {0}, {1}, {2}, {0, 1}, {0, 2}, {1, 2}, Ω}
Définition
Une probabilité est une application sur P(Ω), l’ensemble des parties de Ω,
telle que :
- 0 ≤ P(A) ≤ 1, pour tout événement A ⊂ Ω
X
- P(A) = P(ω), pour tout événement de A
ω∈A
X
- P(Ω) = P(ω) = 1.
ω∈Ω
Proposition
Soient A et B deux événements.
1 Si A et B sont incompatibles, P(A ∪ B) = P(A) + P(B).
2 P(Ac ) = 1 − P(A).
3 P(∅) = 0.
4 P(A ∪ B) = P(A) + P(B) − P(A ∩ B).
Définition
Soit une expérience aléatoire et Ω l’espace des possibles associé. Une
probabilité sur Ω est une application, définie sur l’ensemble des
événements, qui vérifie :
- axiome 1 : 0 ≤ P(A) ≤ 1, pour tout événement A.
- axiome 2 : pour toute suite d’événements (Ai )i∈N , deux à deux
incompatibles,
!
[ X
P Ai = P(Ai )
i∈N i∈N
- axiome 3 : P(Ω) = 1
NB : les événements (Ai )i∈N sont deux à deux incompatibles, si pour tous
i 6= j, Ai ∩ Aj = ∅.
P.O.Fabrice OUEDRAOGO cours de probabilité 2019-2020 24 / 97
Modèle probabiliste
Probabilité
1
D’où p = P(ω) = , pour tout ω. La probabilité ainsi définie sur
card(Ω)
l’ensemble Ω s’appelle probabilité uniforme.
La probabilité d’un événement A se calcule donc facilement :
X card(A)
P(A) = P(ω) =
card(Ω)
ω∈A
Définition
Etant donnés deux événements A et B, avec P(A) > 0, on appelle
probabilité de B conditionnellement à A, ou sachant A, la probabilité
notée P(B|A) définie par :
P(A ∩ B)
P(B|A) =
P(A)
Preuve : Exercice
Définition
Soit (Ai )i∈I une famille d’événements. On l’appelle partition de Ω si elle
vérifie les deux conditions :
S
(i) i∈I Ai = Ω
(ii) les Ai sont deux-à-deux incompatibles : pour tout i 6= j, Ai ∩ Aj = ∅.
P(B|A)P(A)
P(A|B) =
P(B|A)P(A) + P(B|Ac )P(Ac )
Preuve : Exercice
P.O.Fabrice OUEDRAOGO cours de probabilité 2019-2020 30 / 97
Modèle probabiliste
Indépendance et conditionnement
P(B|Ai )P(Ai )
P(Ai |B) = P
j∈I P(B|Aj )P(Aj )
Définition
Deux événements A et B sont dits indépendants si
P(A ∩ B) = P(A)P(B)
Proposition
Soit Ω = E × F où E est de cardinal n et F de cardinal p. Supposons que
l’on choisisse avec la probabilité uniforme un élément de E , et, de manière
indépendante, un élément de F toujours avec la probabilité uniforme. Alors
chaque élément ω = (x, y ) de Ω a la même probabilité, qui vaut
1 1
P(ω) = P((x, y )) = = = PE ({x})PF ({y })
card(Ω) np
Proposition
On répète N fois, de manière indépendante, la même expérience aléatoire
modélisée par un univers Ω et par une probabilité P. Alors le nouvel
univers est ΩN = Ω × · · · × Ω, et la probabilité associée est
Définition
Une variable aléatoire (v.a) X est une fonction définie sur l’espace
fondamental Ω, qui associe une valeur numérique à chaque résultat de
l’expérience aléatoire étudiée. Ainsi, à chaque événement élémentaire ω,
on associe un nombre X (ω).
Définition
La loi d’une variable aléatoire discrète X est la liste de toutes les valeurs
différentes que peut prendre X avec les probabilités qui leurs sont
associées.
Exemple : Nous avons déjà la liste de tous les événements élémentaires et
ils sont équiprobables, de probabilité 1/8. D’après la composition des
événements [X = k], pour k = 0, . . . , 3, on peut déduire facilement la loi
de X .
valeur de X
[X = 3] [X = 2] [X = 1] [X = 0]
(événement)
composition
{PPP} {PPF , PFP, FPP} {PFF , FPF , FFP} {FFF }
de l’événement
probabilité 1/8 3/8 3/8 1/8
F (x) = P[X ≤ x]
Exemple : X est le nombre de Face quand on lance trois fois une pièce.
On a vu que la loi de X est
D’où
0 si x < 0,
1/8 si 0 ≤ x < 1,
F (x) = 4/8 si 1 ≤ x < 2,
7/8 si 2 ≤ x < 3,
1 si x ≥3
Remarque : Deux v.a ayant la même loi ont même fonction de répartition.
Proposition
Soit F une fonction de répartition. Alors
1) F est croissante,
2) F est continue à droite et admet une limite à gauche en tout point x
égal à P[X < x].
3) lim F (x) = 0, lim F (x) = 1
x→−∞ x→+∞
Définition
L’espérance ou moyenne d’une v.a. discrète X est un réel
X
E [X ] = k P[X = k]
k
Théorème
Pour toute fonction g ,
X
E [g (X )] = g (k) P[X = k]
k
Remarque : l’espérance n’a pas toujours un sens quand X (Ω) est infini.
Dans ce cas, X a une espérance si
X
|k| P(X = k) < ∞
k∈X (Ω)
P.O.Fabrice OUEDRAOGO cours de probabilité 2019-2020 43 / 97
Variables aléatoires discrètes
Définitions
Définition
La variance d’une v.a. discrète X est le réel positif
X
Var (X ) = E (X − E [X ])2 = (k −E [X ])2 P[X = k] = E [X 2 ]−(E [X ])2
Définition
Deux v.a. X et Y sont dites indépendantes si, pour tous i et j, les
événements {X = i} et {Y = j} sont indépendants, ie
Théorème
1) Pour toutes v.a. X et Y , E [X + Y ] = E [X ] + E [Y ].
2) Si X et Y sont indépendantes, Var (X + Y ) = Var (X ) + Var (Y ).
Preuve : Exercice.
P[Y = 1] = p, P[Y = 0] = q = 1 − p
Schéma de Bernoulli :
1 Chaque épreuve a deux issues : succès [S] ou échec [E].
2 Pour chaque épreuve, la probabilité d’un succès est la même, notons
P(S) = p et P(E ) = q = 1 − p.
3 Les n épreuves sont indépendantes : la probabilité d’un succès ne
varie pas, elle ne dépend pas des informations sur les résultats des
autres épreuves.
Proposition
Si X est une v.a. de loi B(n, p),
E [X ] = np, V (X ) = np(1 − p)
Autrement dit, une v.a. de loi B(n, p) est une somme de n v.a.
indépendantes de loi B(p).
Proposition
E [Y ] = 1/p, V (Y ) = (1 − p)/p 2
Cette loi est une approximation de la loi binomiale quand np est petit et n
est grand (en pratique, n ≥ 50 et np ≤ 10). Une v.a. X de loi de Poisson
de paramètre λ, notée P(λ), vérifie
λk
∀ k ∈ N, P[X = k] = exp(−λ)
k!
et on a :
E [X ] = λ, V (X ) = λ
L’approximation de la binomiale par la loi de Poisson est donnée par :
X B(n, p),
avec n ≥ 50 =⇒ X P(λ), où λ = E [X ] = np.
et E [X ] = np ≤ 10
1
∀ k = 1, . . . , n, P[X = k] =
n
On montre que :
n+1 (n + 1)(n − 1)
E [X ] = et V (X ) =
2 12
2.50 1.37 1.57 1.28 1.64 1.37 2.05 2.11 1.00 1.72
1.96 1.70 2.03 2.26 1.60 1.70 2.09 1.79 1.66 2.09
1.58 1.78 2.02 2.22 1.51 2.59 1.94 1.36 2.31 1.36
0.97 1.07 0.91 2.05 1.70 1.70 1.17 2.02 2.26 1.78
1.60 1.63 1.68 1.34 1.56 1.91 1.86 1.44 2.37
P.O.Fabrice OUEDRAOGO
Figure 1–
cours de probabilité 2019-2020 65 / 97
Variables aléatoires continues
Loi d’une v.a. continue
Figure 2 –
Définition
On appelle densité de probabilité toute fonction réelle positive, d’intégrale
1.
Remarque :
La loi d’une v.a. X est donnée par sa densité ou les probabilités
P[a ≤ X ≤ b] pour tout a, b ou les probabilités F (x) = P[X ≤ x]
pour tout x (F étant la fonction de répartition).
P[X = x] = 0 pour tout x.
Proposition
La fonction de répartition F d’une v.a. X de densité f est continue,
croissante. Elle est dérivable en tout point x où f est continue et
F 0 (x) = f (x). On a la relation
dès que b ≥ a.
Définition
L’espérance de la v.a. X est définie par
Z +∞
E [X ] = x f (x) dx
−∞
Var (X ) = E [X 2 ] − (E [X ])2
Proposition
i) L’espérance d’une fonction Y = ϕ(X ) est donnée par
Z +∞
E [Y ] = E [ϕ(X )] = ϕ(x) f (x) dx
−∞
E [aX + b] = aE [X ] + b
E [X + Y ] = E [X ] + E [Y ]
Définition
Une v.a. X suit une loi uniforme sur [a, b], si elle admet pour densité
(
1
si a < x < b
f (x) = b−a
0 sinon
Définition
Une v.a. X suit une loi normale (ou loi gaussienne ou loi de
Laplace-Gauss) N (0, 1) si sa densité f est donnée par
2
1 x
f (x) = √ exp − , pour tout x ∈ R
2π 2
Proposition
La v.a. X est centrée, c’est-à-dire de moyenne nulle, et réduite,
c’est-à-dire de variance 1. De plus −X suit encore une loi normale centrée
réduite.
Proposition
Soient m ∈ R et σ > 0. Une v.a. X suit une loi normale N (m, σ) si sa
densité f est donnée par
(x − m)2
1
f (x) = √ exp − , pour tout x ∈ R
σ 2π 2σ 2
Proposition
X −m
Si X suit une loi normale N (m, σ), Z = σ suit une loi normale centrée
réduite N (0, 1).
Proposition
E [X ] = m et Var (X ) = σ 2
Exemple : Soit X une v.a. de loi N (15, 5). Quelle est la probabilité
P[10 ≤ X ≤ 22] ?
Proposition
La fonction de répartition de la loi E(λ) est égale à
(
0 si x < 0
F (x) =
1 − exp(−λx) si x ≥ 0
De plus,
1 1
E [X ] = , Var (X ) =
λ λ2
Proposition
La loi exponentielle vérifie la propriété d’absence de mémoire. Soit X un
v.a. de loi exponentielle. Alors pour tous s, t > 0,
Théorème
Soit X une v.a. continue, de fonction de répartition F . Alors F (X ) suit la
loi uniforme sur [0, 1].
On considère ici une suite (Xn )n≥1 de v.a. indépendantes et de même loi.
On suppose que ces v.a. ont une espérance, notée m et une variance,
notée σ 2 .
Théorème
E (X1 + · · · + Xn ) = E (X1 ) + · · · + E (Xn ) = nm
Var (X1 + · · · + Xn ) = Var (X1 ) + · · · + Var (Xn ) = nσ 2
Var (X ) = E (|x−E (x)|2 ) ≥ E (|X −E (X )|2 1|X −E (X )|>x ) ≥ x 2 P(|X −E (X )| > x).
Définition
La moyenne empirique des v.a. X1 , . . . , Xn est la v.a.
x1 + · · · + Xn
X̄n =
n
On sait d’ores et déjà que la moyenne empirique X̄ a pour espérance et
variance (resp.)
E (X̄ ) = m, V (X̄ ) = σ 2 /n
Ainsi, plus n est grand, moins cette v.a. varie. A la limite, quand n tend
vers l’infini, elle se concentre sur son espérance, m. C’est la loi des grands
nombres.
Var (X̄n ) σ2
P(|X̄n − m| > ε) ≤ = −→ 0
ε2 n ε2
On dit que X̄n converge en probabilité vers m.
Théorème
Pour tous réels a < b, quand n tend vers +∞,
Z b
X̄n − m 1 2
P a≤ √ ≤ b −→ √ e −x /2 dx
σ/ n a 2π
X̄n −m
On dit que σ/ n
√ converge en loi vers la loi normale N (0, 1).
Corollaire
n est grand, la loi binomiale B(n, p) est proche de la loi normale
Quand p
N (np, np(1 − p)).
X1 + · · · + Xn
X̄ =
n
√
E [X̄n ] = m, Var (X̄n ) = σ 2 /n, donc SE (X̄n ) = σ/ n ;
X̄n −→ m quand n → ∞,
quand n est grand, X̄n suit approximativement une loi normale
√
N (m, σ/ n).
ou de manière équivalente
√ √
P[X̄n − 2σ/ n ≤ m ≤ X̄n + 2σ/ n] = 0.954
Ce qui peut se traduire ainsi : quand on estime m par X̄n , l’erreur faite est
√
inférieure à 2σ/ n, pour 95, 4% des échantillons. Ou avec une probabilité
de 95, 4%, la moyenne iconnue m est dans l’intervalle
√ √
[X̄n − 2σ/ n, X̄n + 2σ/ n].
Définition
On peut associer à chaque incertitude α, un intervalle, appelé intervalle de
confiance de niveau de confiance 1 − α, qui contient la vraie moyenne m
avec une probabilité égale à 1 − α.
Définition
Soit Z un v.a. .
Le fractile supérieur d’ordre α de la loi de Z est le réel z qui vérifie
P[Z ≥ z] = α
P[Z ≤ z] = α
Proposition
Un intervalle de confiance pour la moyenne, de niveau de confiance 1 − α,
est √ √
[ X̄n − zα/2 σ/ n, X̄n + zα/2 σ/ n ]
où zα/2 est le fractile supérieur d’ordre α/2 de la loi normale N (0, 1).