Cours Statistique Et Probabilité Complet PDF
Cours Statistique Et Probabilité Complet PDF
Cours Statistique Et Probabilité Complet PDF
Mohammed BADAOUI
Table des matières
1 Analyse combinatoire 5
1.1 Notions fondamentales . . . . . . . . . . . . . . . . . . . . . . . . . . 5
1.1.1 Produit cartésien . . . . . . . . . . . . . . . . . . . . . . . . . 5
1.1.2 Cardinal d’un ensemble . . . . . . . . . . . . . . . . . . . . . . 5
1.1.3 Factoriel d’un nombre . . . . . . . . . . . . . . . . . . . . . . 6
1.2 Arrangements . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6
1.2.1 Arrangements sans répétition . . . . . . . . . . . . . . . . . . 7
1.2.2 Arrangements avec répétition . . . . . . . . . . . . . . . . . . 7
1.3 Permutations . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 8
1.3.1 Permutations sans répétition . . . . . . . . . . . . . . . . . . . 8
1.3.2 Permutations avec répétition . . . . . . . . . . . . . . . . . . . 8
1.4 Combinaison . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 8
1.4.1 Combinaison sans répétition . . . . . . . . . . . . . . . . . . . 8
1.4.2 Combinaison avec répétition . . . . . . . . . . . . . . . . . . . 9
2 Calcul de probabilité 10
2.1 Terminologie . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 10
2.1.1 Algèbre des événements . . . . . . . . . . . . . . . . . . . . . 10
2.2 Probabilité dans le cas général . . . . . . . . . . . . . . . . . . . . . . 11
2.2.1 Probabilité uniforme sur Ω . . . . . . . . . . . . . . . . . . . . 11
2.2.2 Probabilité conditionnelle . . . . . . . . . . . . . . . . . . . . 12
2.2.2.1 Formules des probabilités composées . . . . . . . . . 13
2.2.2.2 Indépendances d’événements . . . . . . . . . . . . . 14
1
2 TABLE DES MATIÈRES
M.Badaoui UH1-ENSAK
3 TABLE DES MATIÈRES
5 Estimation 46
5.1 Échantillonnage . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 46
5.1.1 Terminologie . . . . . . . . . . . . . . . . . . . . . . . . . . . 46
5.1.2 Méthodes de sondage . . . . . . . . . . . . . . . . . . . . . . . 47
5.1.2.1 Méthodes probabilistes . . . . . . . . . . . . . . . . . 47
5.1.2.2 Méthodes non probabilistes . . . . . . . . . . . . . . 49
5.1.2.3 Sources d’erreurs dans une enquête . . . . . . . . . . 49
5.1.3 Échantillon aléatoire . . . . . . . . . . . . . . . . . . . . . . . 50
5.1.4 Statistique de l’échantillon . . . . . . . . . . . . . . . . . . . . 50
5.1.5 Distributions échantillonnales . . . . . . . . . . . . . . . . . . 50
5.1.5.1 Moyenne empirique . . . . . . . . . . . . . . . . . . . 50
5.1.5.2 Variance empirique . . . . . . . . . . . . . . . . . . . 51
5.1.5.3 Fonction de répartition empirique . . . . . . . . . . . 51
5.2 Estimateur et propriétés d’un estimateur . . . . . . . . . . . . . . . . 52
5.2.1 Estimateur et estimation . . . . . . . . . . . . . . . . . . . . . 52
5.2.2 Propriétés d’un estimateur . . . . . . . . . . . . . . . . . . . . 53
5.2.3 Trois exemples . . . . . . . . . . . . . . . . . . . . . . . . . . 54
5.2.4 Vraisemblance d’un échantillon . . . . . . . . . . . . . . . . . 56
5.2.4.1 Information de Fisher . . . . . . . . . . . . . . . . . 57
5.3 Estimateurs ponctuelles . . . . . . . . . . . . . . . . . . . . . . . . . 59
5.3.1 Méthode du maximum de vraisemblance . . . . . . . . . . . . 59
5.3.1.1 Estimateur du maximum de vraisemblance . . . . . . 59
5.3.2 Méthode des moments . . . . . . . . . . . . . . . . . . . . . . 61
5.4 Estimation par intervalle de confiance . . . . . . . . . . . . . . . . . . 63
5.4.0.1 Exemple introductif . . . . . . . . . . . . . . . . . . 63
5.4.0.2 Principe de construcion . . . . . . . . . . . . . . . . 64
5.4.1 Estimation usuels . . . . . . . . . . . . . . . . . . . . . . . . . 65
5.4.1.1 Estimation de la moyenne : cas de la loi normale . . 65
5.4.1.2 Estimation de la variance : cas de la loi normale . . . 67
5.5 Estimation d’une proportion . . . . . . . . . . . . . . . . . . . . . . . 68
6 Les Tests 71
6.1 Introduction . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 71
6.2 Hypothèses nulle et alternative . . . . . . . . . . . . . . . . . . . . . 71
6.3 Risque de 1er et 2eme espèce . . . . . . . . . . . . . . . . . . . . . . . 72
6.4 Exemples d’utilisation . . . . . . . . . . . . . . . . . . . . . . . . . . 74
6.4.0.3 Comparer un échantillon à une référence théorique . 74
6.4.0.4 Comparer plusieurs échantillons . . . . . . . . . . . . 74
M.Badaoui UH1-ENSAK
6.5 Choix d’un test suivant le procédure de Neyman . . . . . . . . . . . . 74
6.6 La classification des tests . . . . . . . . . . . . . . . . . . . . . . . . . 75
6.7 Quelques tests paramétriques usuels : cas d’un échantillion . . . . . . 76
6.7.1 Test d’une espérence . . . . . . . . . . . . . . . . . . . . . . . 76
6.7.2 Test d’un écart-type . . . . . . . . . . . . . . . . . . . . . . . 78
6.7.3 Test d’un pourcentage . . . . . . . . . . . . . . . . . . . . . . 79
6.8 Tests d’homogénéité . . . . . . . . . . . . . . . . . . . . . . . . . . . 80
6.8.1 Test de comparaison de deux variances ou test de Fisher-
Snedecor . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 81
6.8.2 Test de comparaison de deux moyennes . . . . . . . . . . . . . 82
6.8.3 Test de comparaison de deux proportions . . . . . . . . . . . . 84
6.9 Tests de comparaison d’échantillon appariés . . . . . . . . . . . . . . 85
6.10 Analyse de la variance . . . . . . . . . . . . . . . . . . . . . . . . . . 86
6.10.1 Analyse de la variance à un facteur. Comparaison de plusieurs
moyennes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 87
6.10.1.1 Variance résiduelle et Variance factorielle . . . . . . . 87
6.11 Test de Khi-deux . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 89
6.11.1 Test d’indépendance . . . . . . . . . . . . . . . . . . . . . . . 90
6.11.2 Test d’ajustement . . . . . . . . . . . . . . . . . . . . . . . . . 91
6.12 Le test de Henry . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 92
Chapitre 1
Analyse combinatoire
E × F = {(x; y)/x ∈ E et y ∈ F }
E1 × E2 × · · · × En = E n .
5
6 Statistique et Probabilité
– Card(A) = Card(E) si A = E
– Card(A ∪ B) = Card(A) + Card(B) − Card(A ∩ B)
– Card(A × B) = Card(A) × Card(B)
Propriété 1.1
n! = n × (n − 1)!
= n × (n − 1) × (n − 2)!
= n × (n − 1) × (n − 2) × . . . × 1
Remarque 1.1 Dès que n dépasse la dizaine n! se compte en millier ? Il est bon
des fois d’utiliser la formule d’approximation dites de Sterling :
n n √
n! = 2πn
e
avec π ' 3.14 et e ' 2.71.
1.2 Arrangements
Définition 1.4 Etant donné un ensemble E de n éléménts, on appelle arrangement
de p éléments toute suite ordonnée pris parmi les n éléments.
Le nombre d’arrangements de p éléments pris parmi n éléments est noté Apn .
M.Badaoui UH1-ENSAK
7 Statistique et Probabilité
Propriété 1.2
Apn = Apn−1 + pAn−1
p−1
Dénombrement de Apn
Pour le premier élément tiré, il y a n manières de le faire, si on le remait il va y
avoir encore n manières de le faire comme il y’en a p, il va y avoir n | ×n× {z· · · × n}
p f ois
p fois arrangements possible soit np . En effet on a n possibilités pour chaque place.
Exemple 1.4 Si on considère une urne qui contient 9 boules (3 rouges, 3 noires et
3 blanches). On tire 4 boules avec remise de cette urne. Il s’agit d’un arrangement
avec répétition, le nombre de tirage possible est de 94
M.Badaoui UH1-ENSAK
8 Statistique et Probabilité
1.3 Permutations
1.3.1 Permutations sans répétition
Définition 1.7 Etant donné un ensemble E de n éléments ; on appelle permutation
de n éléments distincts, toute suite ordonnée de n éléments ou tout arrangement n
à n de ces éléments. Le nombre de permutation de n éléments est noté Pn = n!.
Remarque 1.3 La permutation sans répétition constitue un cas particulier d’ar-
rangement lorsque n = p.
Exemple 1.5 Le nombre de façons de placer 3 étudiants dans 3 places différentes
est de 3! = 3 × 2 × 1.
1.4 Combinaison
1.4.1 Combinaison sans répétition
Définition 1.8 Etant donné un ensemble de n éléments ; on appelle combinaison
de p éléments, tout ensemble de p éléments pris parmis les n éléments sans remise.
Le nombre de combinaison de p éléments pris parmi n est noté Cnp .
M.Badaoui UH1-ENSAK
9 Statistique et Probabilité
Dénombrement de Cnp
Pour une disposition ordonnée de p éléments parmis n sans répétition, il y a Apn
possibilités. Parmi celle ci p! permutations correspondant à la même disposition non
ordonnée. On en déduit que ∀(n; p) ∈ N2 avec p ≤ n
Apn n!
Cnp = = .
p! p!(n − p)!
4
Exemple 1.7 Dans un jeu de 32 cartes, on tire 4 cartes au hazard, on a donc C32
tirages possibles.
4 32 × 31 × 30 × 29
C32 = = 35960.
4×3×2×1
Propriété 1.3
– C01 = Cnn = 1
– Si n ≥ 1, Cn1 = Cnn−1 = n
– Si n ≥ 2, Cn2 = Cnn−2 = n(n−1)
2
– Si n ≤ p, Cnp = Cnn−p
p p−1
– Si 0 ≤ n ≤ p − 1, Cnp = Cn−1 + Cn−1
C73 = C5+3−1
3 n
= Cn+p−1 n = 5, p = 3
M.Badaoui UH1-ENSAK
Chapitre 2
Calcul de probabilité
2.1 Terminologie
Définition 2.1 Une expérience aléatoire ξ est une expérience qui est répétée dans
des conditions apparement identiques, peut produire des résultats différents.
L’ensemble des résultats possibles d’une expérience aléatoire ξ s’appelle ensemble
fondamental (ou univers ou espace des résultats) et on le note Ω. Ses éléments sont
appelés résultats ou événements élémentaires.
Exemple 2.1 On lance une pièce de monnaie Ω={P ; F}, lancer la pièce est une
expérience aléatoire.
Exemple 2.2
Jet de dé : expérience aléatoire.
Univers Ω = {1, 2, 3, 4, 5, 6}.
Eventualités : {1}, {2}, {3}, {4}, {5}, {6}.
Evénement A : tomber sur un pair {2, 4, 6}.
10
11 Statistique et Probabilité
P : A → [0, 1]
ω 7−→ P(ω)
telle que,
– P(Ω) = 1
– Si A et B deux événements incompatibles (A ∩ B = ∅) alors P(A ∪ B) =
P(A) + P(B).
(Ω, P(Ω), P) est appelé espace probabilisé.
Propriété 2.1
1. P(Ā) = 1 − P(A)
2. ∀A ∈ P(Ω); 0 ≤ P(A) ≤ 1
3. P(∅) = 0
4. A ⊂ B ⇒ P(A) ≤ P(B)
5. P(A ∪ B) = P(A) + P(B) − P(A ∩ B)
M.Badaoui UH1-ENSAK
12 Statistique et Probabilité
Exemple 2.3 Une urne contient 7 boules blanches et 5 boules noires, on tire 3
boules de l’urne simultanément et sans remise. Quelle est la probabilité d’avoir 3
boules blanches.
Soient E l’événement ”le numéro tiré est multiple de 3” et F l’événement ”le numéro
tiré est supérieur ou égal à 7”.
On a Ω l’esemble de toute les ventualités possibles, c’est l’ensemble {1, 2, . . . , 10},
3
son cardinal est 10. On a E = {3, 6, 9} donc Card(E) = 3 et P(E) = 10 .
4 1
On a F = {7, 8, 9, 10} donc P(F ) = 10 , comme E ∩ F = {9}, donc P(E ∩ F ) = 10 .
1
P(E∩F ) 1
Si on cherche la probabilité conditionnelle P(E | F ) = P(F )
= 10
4 = 4
10
M.Badaoui UH1-ENSAK
13 Statistique et Probabilité
Remarque 2.1
1. L’événement contraire de A | B est Ā | B.
2. Cas particulier si A ⊂ B alors P(A) ≤ P(B) et P(A ∩ B) = P(A) d’où
P(A ∩ B) P(A)
P(A | B) = = .
P(B) P(B)
P(A ∩ B)
P(A | B) = =⇒ P(A ∩ B) = P(A | B).P(B).
P(B)
De même :
P(A ∩ B)
P(B | A) = =⇒ P(A ∩ B) = P(B | A).P(A).
P(A)
P(A | Bk ) P(Bk )
P(Bk | A) = Pn .
i=1 P(A | Bi ) P(Bi )
M.Badaoui UH1-ENSAK
14 Statistique et Probabilité
Exemple 2.5 Chez une banque 20% des employés ont un diplôme en Finance ;
parmi ceux-si ; 70% ont des postes de cadre. Toute fois, parmi ceux qui n’ont pas
de diplôme en finance ; 15% occupent un poste de cadre. Si un cadre de cette banque
est séléctionné au hazard ; quelle est la probabilité qu’il soit un diplômé de finance ?
P(A | B1 )P(B1 )
P(B1 | A) =
P(A | B1 )P(B1 ) + P(A | B2 )P(B2 )
0.2 × 0.7
=
0.2 × 0.7 + 0.8 × 0.15
= 0.5384
M.Badaoui UH1-ENSAK
Chapitre 3
3.1 Généralités
3.1.1 Définition
Définition 3.1 Soit (Ω, P(Ω), P) un espace probabilisé fini.
On appelle variable aléatoire discrète (v.a.d) toute application
X : Ω → R ou C
ω → X(ω) = a
telle que :
1. Elle prend un nembre fini ou infini dénombrable de valeurs, c-à-d si l’image
X(Ω) de Ω est fini ou infini dénombrable. Autrement dit il existe une suite de
réelles (xi )i∈N distinctes telque X(Ω) = {xi , i ∈ N}
2. Pour tout xk ∈ S : X −1 ({xk }) ∈ P(Ω)
Remarque 3.1
1. Le plus souvent, on aura X : Ω → N ou X : Ω → Z.
X
2. Si on note, pour k ∈ N, pk = P(X = xk ) on doit avoir pk = 1.
k∈N
En effet :
[ [ [
S= {xk } ⇒ X −1 (S) = X −1 ({xk }) = (X = xk ) = Ω
k≥1 k≥1 k≥1
15
16 Statistique et Probabilité
donc [
X −1 (B) = X −1 {xk } ∈ P(Ω)
k: xk ∈B
et
!
[
P(X −1 (B)) = P X −1 ({xk })
k: xk ∈B
X
= P(X −1 ({xk }))
k: xk ∈B
X
= P(X = xk ).
k: xk ∈B
Exemple 3.1 On jet deux dés bien équilibrés simultanément. Soit X la v.a.d qui
vaut la somme des numéros obtenus.
Ω = {1, . . . , 6} × {1, . . . , 6} = {ω = (ω1 , ω2 ), ωi ∈ {1, . . . , 6}, i = 1, 2}.
X(ω) = ω1 + ω2 , ω ∈ Ω.
X(ω) = {2, 3, . . . , 12} = S et X −1 ({x}) ∈ P(Ω) si x ∈ S.
M.Badaoui UH1-ENSAK
17 Statistique et Probabilité
Exemple 3.2 On lance successivement 2 fois une pièce de monnaie. Soit la v.a.d
X représentant le nombre de faces obtenues après ces 2 lancements
1. Donner les valeurs de X.
2. Définir la loi de probabilité de X.
Solution : Ω = {(P ; P ); (P ; F ); (F ; P ); (F ; F )} événement équiprobable.
X : Ω −→ R et X(Ω) = {0; 1; 2}
Valeur de X 0 1 2
1 1 1
PX 4 2 4
! !! !
[ [ [
PX Bn =P X −1 Bn =P X −1 (Bn ) PX kkkkk
n≥1 n≥1 n≥1
X
PX kkkkkkkkkkkkkkkkk = P(X −1 (Bn ))
n≥1
X
PX kkkkkkkkkkkkk = PX (Bn ).
n≥1
Notation : on écrira :
PX (B) = P(X −1 (B)) = P(ω/X(ω) ∈ B) = P(X ∈ B)
M.Badaoui UH1-ENSAK
18 Statistique et Probabilité
Exemple 3.3 On lance successivement 2 fois une pièce de monnaie. Soit la v.a.d
X représentant le nombre de faces obtenues après ces 2 lancements.
– Déterminer la fonction de répartition de X.
Solution : d’aprés ce qui précède la loi de probabilité de X est
Valeur de X 0 1 2
1 1 1
PX 4 2 4
M.Badaoui UH1-ENSAK
19 Statistique et Probabilité
Définition 3.4 X : (Ω, P(Ω), P) −→ R est une v.a.d qui suit une loi de Bernoulli
de paramètre p (0 ≤ p ≤ 1) si :
1) X(Ω) = {0, 1}.
2) PX ({1}) = P(X = 1) = p, PX ({0}) = P(X = 0) = 1 − p.
On écrira : X ∼ B(p).
Exemple 3.4 On jette une fois une pièce de monaie dont la probabilité d’avoir pile
est p (0 ≤ p ≤ 1), on considère la v.a.d X définie par :
1, si la pièce fait pile ;
X(ω) =
0, sinon.
comme Ω = {π, F }, π : pile, F : f ace.
Si ω ∈ {π, F } alors
P(X = 1) = p, si ω = π ;
PX ({ω}) =
P(X = 0) = 1 − p, si ω = F .
M.Badaoui UH1-ENSAK
20 Statistique et Probabilité
Exemple 3.5 On jette un dé bien équilibré, on considère la v.a.d X définie par X
= le point marqué par le dé.
M.Badaoui UH1-ENSAK
21 Statistique et Probabilité
Or
[
(X = x) = Bn1 ,...,nk ,
n1 ,...,nk ⊂{1,...,n}
= Cnk pk (1 − p)n−k .
n! p k k k
Cnk pk (1 − p)n−k = (1 − p)n ( ) C p (1 − p)n−k kkkkkkk
(n − k)!k! 1−p n
λ λk n(n − 1) · · · (n − k + 1) λ −k −λ λ
k
kkkkkkkCnk pk (1 − p)n−k = (1− )n . . .(1− ) −→ e , (n → +∞)
n k! λk n k!
k
Donc si X ∼ B(n, p), np = λ ( n est grand et p est petit ), alors P(X = k) ' e−λ λk! ,
on obtient ainsi une nouvelle loi.
Définition 3.7 On dit qu’une v.a.d X définie sur (Ω, P(Ω), P) suit une loi de
Poisson de paramètre λ (λ > 0) si :
M.Badaoui UH1-ENSAK
22 Statistique et Probabilité
1) X(Ω) = N.
k
2) ∀k ∈ N, PX ({k}) = P(X = k) = e−λ λk! .
On note X ∼ P(λ).
X(Ω) = N∗ .
Si l ∈ N∗ , (X = l) = Ac1 ∩ . . . ∩ Acl−1 ∩ Al
où Aj = {pile apparaı̂t au jème jet} avec P(Aj ) = p.
(Aj )j≥1 sont indépendants.
Donc
P(X = l) = PX ({l})P(X = l)
P(X = l)kkkk = P(Ac1 ∩ . . . ∩ Acl−1 ∩ Al )
P(X = l)kkkk = P(Ac1 ) . . . P(Acl−1 )P(Al )
k = p(1 − p)l−1
M.Badaoui UH1-ENSAK
23 Statistique et Probabilité
Démonstration
M.Badaoui UH1-ENSAK
24 Statistique et Probabilité
M.Badaoui UH1-ENSAK
25 Statistique et Probabilité
n
X (n − 1)!
E(X) = np pk−1 (1 − p)n−k
k=1
(k − 1)!(n − k)!
n
X (n − 1)!
E(X)llllllllllllllll = np pk−1 (1 − p)n−1−(k−1)
k=1
(k − 1)!(n − 1 − (k − 1))!
on a écrit n − k = n − 1 − (k − 1) donc,
n−1
X (n − 1)!
kkkkkkkE(X) = np p` (1 − p)n−1−`
`=0
`!(n − 1 − `)!
= np(p + (1 − p))n−1
= npkkkkkkkkkkkkkk
4) X ∼ P(λ), λ > 0 alors E(X) = λ, car S = N et
∞ ∞ k ∞
X X
−λ λ −λ
X λk−1
k P(X = k) = ke =e λ < +∞.
k=0 k=0
k! k=1
(k − 1)!
En plus
∞ ∞
X λk−1 X λ`
= = eλ ,
k=1
(k − 1)! `=0
`!
Propriété 3.1
M.Badaoui UH1-ENSAK
26 Statistique et Probabilité
E(X) ≤ E(Y ).
3) S’il existe M > 0 tel que |X| ≤ M alors X possède une e.m et on a,
E(|X|) ≤ M.
Si X est une v.a.d et Y = φ(X) est une v.a.d fonction de X, alors nous allons
donner une proposition qui ramène le calcul de E(Y) en fonction de celui de E(X),
plus précisément :
alors, X
E(Y ) = E(φ(X)) = φ(x)P(X = x).
x∈S
en effet,
ω ∈ (Y = y) ⇔ Y (ω) ∈ {y} ⇔ X(ω) ∈ φ({y})
ω ∈ (Y = y) ⇔ X(ω) ∈ S et X(ω) ∈ φ−1 ({y})
ω ∈ (Y = y)llllllllll ⇔ ∃ x ∈ S/X(ω) = x et X(ω) ∈ φ−1 ({y})
ω ∈ (Y = y) ⇔ ∃ x ∈ S/X(ω) = x et φ(x) = y
M.Badaoui UH1-ENSAK
27 Statistique et Probabilité
[
ω⇔ω∈ (X = x),
x∈S
φ(x)=y
et montrons que X
|y|P(Y = y) < +∞,
y∈S 0
X X X
|y|P(Y = y) = |y|P(X = x)
y∈S 0 y∈S 0 x∈S
φ(x)=y
X XX
|y|P(Y = y)llllllll = |y|I{φ(x)} (y)P(X = x)
y∈S 0 y∈S 0 x∈S
or X
|y|I{φ(x)} (y) = |φ(x)|
y∈S 0
donc X X
|y|P(Y = y) = |φ(x)|P(X = x) < +∞.
y∈S 0 x∈S
En conséquences X
E(Y ) = φ(x)P(X = x).
x∈S
M.Badaoui UH1-ENSAK
28 Statistique et Probabilité
à condition que X
|x|p P(X = x) < +∞.
x∈S
Proposition 3.4 Soit X une v.a.d définie sur (Ω, P(Ω), P), X(Ω) = S,
p, q ∈ R, 1 ≤ p < q.
On suppose que E(|X|q ) < +∞ alors E(|X|p ) < +∞.
Propriété 3.2 Soit X une v.a.d telle que E(|X|2 ) < +∞.
1) V (X) ≥ 0
2) ∀a, b ∈ R ou C, V (aX + b) = a2 V (X).
3) V (X) = E(X 2 ) − (E(X))2 .
X−E(X)
4) On pose Y = σX
, on dit qu’on a centré et réduit X et on a :
E(Y ) = 0, V (Y ) = 1.
M.Badaoui UH1-ENSAK
29 Statistique et Probabilité
Démonstration
On propose la démonstration de la propiété 3), les autres sont laissés au lecteur.
X
V (X) = (x − E(X))2 P(X = x)V (X)kkkkkkkkkkkkkkkkk
x∈S
X
V (X) = [(x2 − 2xE(X) + (E(X))2 ]P(X = x)V (X)kkkkk
x∈S
X X X
V (X)kkkkkkkkkkkk = x2 P(X = x)−2E(X) xP(X = x)+(E(X))2 P(X = x).
x∈S x∈S x∈S
2
On a pu partager les sommes car E(X ) < +∞ et E(|X|) < +∞ car V(X)
existe.
Or X
x2 P(X = x) = E(X 2 ),
x∈S
X
xP(X = x) = E(X)
x∈S
et X
P(X = x) = PX (S) = P(X −1 (S)) = P(Ω) = 1.
x∈S
Donc
M.Badaoui UH1-ENSAK
30 Statistique et Probabilité
Définition 3.13 Soit X1 , . . . , Xn n v.a.d définies sur (Ω, P(Ω), P), X(Ω) = S,
elles sont indépendantes si et seulement si :
n
Y
∀xi ∈ Xi (Ω), i = 1, . . . , n, P(X1 = x1 , . . . , Xn = xn ) = P(Xi = xi ).
i=1
Montrons que !
n+1
X n+1
X
V Xi = V (Xi )
i=1 i=1
M.Badaoui UH1-ENSAK
31 Statistique et Probabilité
mais ! ! !
n+1
X n
X n
X
V Xi =V Xi + Xn+1 =V Xi + V (Xn+1 )
i=1 i=1 i=1
Pn
car i=1 Xi et Xn+1 sont indépendantes (proposition 3.5).
Pn Pn
HR ⇒ V ( i=1 Xi ) = i=1 V (Xi ).
Donc !
n+1
X n+1
X
V Xi = V (Xi ).
i=1 i=1
M.Badaoui UH1-ENSAK
Chapitre 4
Propriété 4.1
– ∀a ∈ R, P(X = a) = 0.
– ∀a, b ∈ R, P(a ≤ X ≤ b) = P(a < X ≤ b) = P(a ≤ X < b) = P(a < X < b).
Remarque 4.1 Soit (Ω, P(Ω), P) un espace probabilisé, X une variable aléatoire :
X : Ω −→ E
32
33 Statistique et Probabilité
Remarque 4.2
1. PX est une probabilité sur E.
2. Si E = R, le calcul de la loi d’une v.a.r X se ramène au calcul de
PX (] − ∞, x]), x ∈ R.
Remarque 4.3
car FX est %.
En effet si hn % h donc (x + hn ) % (x + h), (n → +∞), ∀x ∈ R.
[
An =] − ∞, (x + hn )], hn % 0, An ⊂ An+1 ⇒ An % An .
n≥1
Or [
An =] − ∞, x],
n≥1
M.Badaoui UH1-ENSAK
34 Statistique et Probabilité
d’où
PX (An ) % PX (] − ∞, x].
Si bien que FX (x + h) % FX (x− ) = P(X < x).
Proposition 4.1 Soit X et Y deux v.a.r définies sur (Ω, P(Ω), P), FX , FY leurs
f.d.r si ∀x ∈ R FX (x) = FY (y) alors PX = PY .
M.Badaoui UH1-ENSAK
35 Statistique et Probabilité
M.Badaoui UH1-ENSAK
36 Statistique et Probabilité
M.Badaoui UH1-ENSAK
37 Statistique et Probabilité
Remarque 4.4
|x|
Z
E(|X|) = dx = +∞,
R π(1 + x2 )
|x|
car la fonction h(x) = π(1+x2 )
est paire, et on a :
+∞ +∞
|x|
Z Z
x
dx = 2 dx
−∞ π(1 + x2 ) 0 π(1 + x2 )
x
mais 1+x2
∼ x1 (au voisinage de + ∞),
et Z +∞ Z +∞
dx xdx
= +∞ ⇒ = +∞ ⇒ E(|X|) = +∞.
1 x 0 π(1 + x2 )
2- X = c (c une constante) alors E(X) = c.
3- X, Y ∈ L1 (P), α, β ∈ R E(αX + βY ) = αE(X) + βE(Y ).
1. L1 (P) = {f /
R
Ω
|f (ω)|dP(ω)} < ∞
M.Badaoui UH1-ENSAK
38 Statistique et Probabilité
Z
n
E(X ) = xn f (x)dx.
R
Proposition 4.3 Soit X une v.a.r définie sur (Ω, P(Ω), P), n ≥ 1.
1- Si E(|X|n ) < +∞ alors ∀k : 1 ≤ k ≤ n E(|X|k ) < +∞.
2- E(X n ) existe si et seulement si E(X − a)n existe ∀ a ∈ R.
2
3- σX existe si et seulement si E(X 2 ) < +∞ et on a V (X) = σX
2
= E(X 2 ) −
2
(E(X)) .
2
4- σX = 0 si et seulement si X = c presque partout (c constante réelle).
Démonstration
1- On a |X|k = |X|k I{(|X|≥1)} + |X|k I{|X|<1} ≤ |X|n + 1,
donc E(|X|k ) ≤ 1 + E(|X|n ) < +∞.
2- On constate que (X − a)n = nk=0 Cnk (−a)n−k X k ,
P
comme E(|X|k ) < +∞, ∀k : 0 ≤ k ≤ n, on en déduit le résultat.
2
3- Si σX = V (X) existe donc E(X) existe et on a :
M.Badaoui UH1-ENSAK
39 Statistique et Probabilité
1- X ∼ U[a,b] , Z Z
1
E(X) = xf dλ(x) = xI[a,b] (x)dλ(x),
b−a
donc Z b
1 (a + b)
E(X) = xdx = ,
b−a a 2
de même
(b − a)2
V (X) = .
12
2- X ∼ N (m, σ 2 ), m ∈ R, σ 2 ≥ 0.
de même V (X) = σ 2 .
4.3.3.1 Médiane
On appelle valeur médiane de X tout réel λ tel que :
1
PX (] − ∞, λ]) = FX (λ) ≤
2
et
1
PX ([λ, +∞[) = P(X ≥ λ) ≤ ,
2
donc λ est une valeur médiane si et seulement si FX (λ− ) ≥ 12 ≥ FX (λ),
si FX est continue sur R donc FX (λ− ) = FX (λ), par conséquent λ est une valeur
médiane si et seulement si FX (λ) = 12 .
M.Badaoui UH1-ENSAK
40 Statistique et Probabilité
Soit λ ∈ R,
si λ > 1 alors PX ([λ, +∞[) = P(X ≥ λ) = 0,
si 0 < λ ≤ 1 alors PX ([λ, +∞[) = P(X ≥ λ) = 12 ,
si 0 ≥ λ alors PX ([λ, +∞[) = P(X ≥ λ) = 1.
En conclusion si λ est tel que 0 ≤ λ ≤ 1 alors
1 1
P(X ≥ λ) = et P(X ≤ λ) ≥ .
2 2
Si bien que toutes les valeurs de l’intervalle [0, 1] sont des valeurs médianes.
M.Badaoui UH1-ENSAK
41 Statistique et Probabilité
Démonstration
1- On a
Z Z Z
E(g(X)) = g(X)dP = g(X)dP + g(X)dP
(g(X)≥g(λ)) (g(X)<g(λ))
Z
≥ g(X)dP
(g(X)≥g(λ))
car Z
g(X)dP ≥ 0.
(g(X)<g(λ))
Or
Z Z
g(X)dP ≥ g(λ) dP = g(λ)P(g(X) ≥ g(λ)),
(g(X)≥g(λ)) (g(X)≥g(λ))
donc
(X ≥ λ) = (g(X) ≥ g(λ)),
par conséquent
E(g(X)) ≥ g(λ)P(X ≥ λ).
Si g ≡ id on obtient l’inégalité :
Définition 4.5 On dit que la suite (Xn ) converge en probabilité vers une constante
p
a, qu’on note Xn −→ a, si :
M.Badaoui UH1-ENSAK
42 Statistique et Probabilité
Ou encore :
∀ > 0, ∀η > 0, ∃n0 > 0 tel que n > n0 =⇒ P (|Xn − a| ≥ ) < η
On dit aussi que la suite (Xn ) converge en probabilité vers une variable aléatoire X,
qu’on note :
p
Xn −→ X,
si et seulement si la variable aléatoire Xn − X converge vers la constante 0 :
p p
Xn −→ X ⇔ Xn − X −→ 0.
M.Badaoui UH1-ENSAK
43 Statistique et Probabilité
Ce qui veut dire qu’une fois n est suffisamment grand (n > 30), on peut rapprocher
la distribution de la variable :
n
X
Zn = Xi par une loi normale N (E(Zn ), V (Zn ))
i=1
On signale que :
4.4.6 Approximation
Sur un plan plus général, les lois de probabilités mentionnées dans ce chapitre
satisfont à un ensemble de convergences, essentielles pour les applications en statis-
tique, et qui s’énoncent comme suit :
– La loi Hypergéométrique converge, pour N grand, vers la loi Binomiale B(n, p)
(condition le plus souvent satisfaite dès lors qu’on est amené à pratiquer un
sondage).
N
Pratiquement, cette convergence est satisfaite pour n
≥ 10.
M.Badaoui UH1-ENSAK
44 Statistique et Probabilité
de Bernoulli indépendantes.
– La loi Binomiale B(n, p) converge, pour n assez grand, et p faible (ou voisin
de 1) vers la loi de Poisson de paramètre λ = n.p.
– La loi de Student, T (n), converge, pour n assez grand, vers la loi normale
centrée réduite N (0, 1).
– La loi de Khi-deux, χ2 (n), converge, pour n assez grand, vers la loi normale
N (0, 1).
M.Badaoui UH1-ENSAK
45 Statistique et Probabilité
M.Badaoui UH1-ENSAK
Chapitre 5
Estimation
5.1 Échantillonnage
Une étude statistique portant sur tous les éléments d’une population étant, soit
impossible à réaliser (trop grand nombre d’individus à étudier), soit trop onéreuse, il
faut obtenir des résultats fiables sur les caractéristiques d’une population en se limi-
tant à l’étude des éléments ou unités d’un échantillon. Cet échantillon doit non seule-
ment donner des estimations non biaisées des paramètres mais permettre, de plus,
d’évaluer la marge d’erreurs dues aux fluctuations d’échantillonnage. L’échantillon
doit être représentatif de la population ; il en résulte, en particulier, que chaque
unité doit avoir une probabilité non nulle d’être tirée, un tel échantillon est qualifié
d’aléatoire.
5.1.1 Terminologie
• Population : ensemble des unités sur lesquelles porte l’étude (notons N la taille
de la population).
• Échantillon : sous-ensemble d’unités de population (notons n la taille de l’échantillon).
• Sondage : toute forme d’échantillonnage qui permet de constituer un échantillon
à partir de la population.
• Base de sondage : liste des unités de la population. Il existe de types de bases :
46
47 Statistique et Probabilité
M.Badaoui UH1-ENSAK
48 Statistique et Probabilité
sondage.
Pour constituer l’échantillon, on choisit au hasard un entier naturel d entre 1
et r (cet entier sera le point de départ). L’individu dont le numéro correspond
à d est le premier individu, pour sélectionner les autres, il suffit d’ajouter à d
la raison de sondage : les individus choisis seront alors ceux dont les numéros
correspondent à d + r, d + 2r, d + 3r, etc.
– Avantages : facile à sélectionner parce qu’un seul individu est choisi au
hasard, ainsi on peut obtenir une bonne précision parce que la méthode
permet de répartir l’échantillon dans l’ensemble de la liste.
– Désavantages : Les données peuvent être biaisées à cause de la périodicité.
• Sondage avec une probabilité proportionnelle à la taille : Si la base de sondage
renferme de l’information sur la taille de chaque unité (comme le nombre des
élèves d’une école) et si la taille des ces unité varie, on peut utiliser cette
information pour accroı̂tre l’efficacité de l’échantillonnage. Plus la taille de
l’unité est grande, plus sa chance d’être incluse dans l’échantillon est élevée.
• Sondage stratifié : lorsque la population est très hétérogène, cette procédure per-
met d’améliorer la précision des estimateurs retenus à partir d’un sondage
aléatoire. La stratification consiste à découper la population étudiée en groupes
homogènes, appelés strates, et à tirer indépendamment un échantillon aléatoire
dans chaque strate.
– Avantages : Il est peu probable de choisir un échantillon absurde puisqu’on
s’assure de la présence proportionnelle de tous les divers sous-groupes com-
posant la population.
– Désavantages : La méthode suppose l’existence d’une liste de la population.
Il faut aussi connaı̂tre comment cette population se répartit selon certaines
strates.
• Sondage en grappes : Dans certains cas, il est difficile d’obtenir un échantillon
d’individus indépendants les uns des autres. Il peut être plus facile d’enquêter
dans un lieu où ils sont rassemblés (exemple : les sujets d’un même foyer). Le
sous-groupe de la population définit une grappe. Ce sont les grappes qui sont
tirées au sort dans la population et l’ensemble des sujets d’une grappe tirée
au sort sera enquêté.
– Avantages : il n’est pas nécessaire de disposer d’une base de sondage des
individus, une liste des grappes suffit ce qui permet de réduire les coûts de
déplacement, de suivi et de supervision.
– Désavantages : le sondage est moins précis que le sondage aléatoire simple
et l’analyse doit prendre en compte l’effet grappe, ce qui est plus complexe.
• Sondage à plusieurs degrés : Les données de base sont collectées auprès d’un
échantillon d’unité de grande taille, ensuite pour un sous-échantillon de ces
M.Badaoui UH1-ENSAK
49 Statistique et Probabilité
unités, la collecte des données est plus détaillée. Le plus couramment on utilise
deux phase ou échantillonnage double
M.Badaoui UH1-ENSAK
50 Statistique et Probabilité
Remarque 5.1 Pour des raisons de commodité, nous avons supposé que les Xi
sont mutuellement indépendantes. Dans certains cas, l’indépendance deux à deux
sera suffisante.
Remarque 5.2
1. Une statistique peut être à valeurs dans R ou Rp . Dans le dernier cas, nous
parlerons de statistique vectorielle.
2. La difficulté de cette notion est la suivante : nous avons une double concep-
tion, qui est la base de la statistique mathématique. Les valeurs observées
(x1 , x2 , . . . , xn ) (noter que ce sont des minuscules) constituent n réalisations
indépendantes d’une variable aléatoire X ou encore, une réalisation unique du
vecteur aléatoire Xn = (X1 , X2 , . . . , Xn ) à n composantes où les Xi sont n
variables aléatoires indépendantes et de même loi.
M.Badaoui UH1-ENSAK
51 Statistique et Probabilité
n−1 n−1
(X − E (X))3
E (Sn2 ) = n
V (X) et Cov X n ; Sn2 = n2
E
Donc Cov X n ; Sn2 = 0 si la distribution de X est symétrique.
M.Badaoui UH1-ENSAK
52 Statistique et Probabilité
Remarques 5.1
– Pour tout t ∈ R, la variable aléatoire nFn (t) suit la loi Binomiale B(n, F (t)).
– Pour représenter la fonction Fn , on introduit la statistique d’ordre X(1) , X(2) , . . . , X(n)
associée
à l’échantillon (X 1 , X2 , . . . , Xn ) définie par
X(1) , X(2) , . . . , X(n) = {X1 , X2 , . . . , Xn } et X(1) ≤ X(2) ≤ . . . ≤ X(n)
On a alors : n
1X
∀t ∈ R; Fn (t) = I{X(i) ≤t}
n i=1
Remarque 5.3
1. priori l’estimateur θbn est à valeurs dans un ensemble Θ, contenant l’ensemble
des valeurs possibles du paramètre θ.
2. θbn est une v.a. de loi de probabilité qui dépend du paramètre θ.
3. θbn peut être univarié ou multivarié.
M.Badaoui UH1-ENSAK
53 Statistique et Probabilité
Estimation
Une fois l’échantillon prélevé, nous disposons de n valeurs observées x1 , . . . , xn , ce
qui nous fournit une valeur hn (x1 , . . . , xn ) qui est une réalisation de θbn et que nous
appelons estimation.
Remarque 5.4
1. Nous distinguons la variable aléatoire θbn de sa valeur observée, notée θbn (x1 , . . . , xn ).
2. Nous utiliserons les notations suivantes :
(i) (X1 , . . . , Xn ) désigne l’échantillon aléatoire de taille n et les n observations
ne sont pas encore à disposition.
(ii) (x1 , . . . , xn ) désigne une réalisation de l’échantillon aléatoire et les n ob-
servations sont à disposition
3. Il faut systématiquement se demander : suis-je entrain de manipuler une
variable aléatoire ou l’une de ses réalisations ?
M.Badaoui UH1-ENSAK
54 Statistique et Probabilité
Propriété 5.5 Pour un échantillon aléatoire dont la loi parente admet une
espérance notée µ, X n est un estimateur sans biais de la moyenne µ, c’est-
à-dire E(X n ) = µ. Lorsque la loi parente admet une variance, notée σ 2 , la
variance de lestimateur µbn est égale à V (X n ) = σ 2 /n et X n est un estimateur
convergent de la moyenne µ.
• Estimateur de la variance
L’estimateur Sn2 est égal à
n
1X
Sn2 = (Xi − X n )2
n i=1
Propriété 5.6 Pour un échantillon aléatoire dont la loi parente admet une
espérance notée µ et une variance notée σ 2 , Sn2 est un estimateur biaisé de la
variance σ 2 et le biais b(n, σ 2 ) est égal à −σ 2 /n.
M.Badaoui UH1-ENSAK
55 Statistique et Probabilité
En effet :
On a
n
1X
Sn2 = (Xi − X n )2
n i=1
n
1X 2 2
= (Xi − 2Xi X n + X n )
n i=1
n n n
1X 2 Xn X 1X 2
= X −2 Xi + X
n i=1 i n i=1 n i=1 n
n
1X 2 Xn 1 2
= Xi − 2 n X n + nX n
n i=1 n n
n
1X 2 2
= Xi − X n
n i=1
d’autre part
E(X 2 ) = V (X) + (E(X))2
donc
n
!
1 X 2
E(Sn2 ) = E X2 − Xn
n i=1 i
n
1X 2
E Xi2 − E X n
=
n i=1
n
1 X 2
2
= V (Xi ) + (E(Xi )) − V (X n ) + E(X n )
n i=1
2 1 2
= V (X) + (E(X)) − V (X) + (E(X))
n
1 1
= V (X) − V (X) = σ 2 − σ 2
n n
• Estimateur corrigé de la variance
2
L’estimateur corrigé de la variance Snc est égal à
n
2 n Sn2 1 X
Snc = = (Xi − X n )2
n−1 n − 1 i=1
M.Badaoui UH1-ENSAK
56 Statistique et Probabilité
Propriété 5.7 Pour un échantillon aléatoire dont la loi parente admet une
espérance notée µ et une variance notée σ 2 , Sn,c
2
est un estimateur sans biais
2
de la variance σ .
En effet
1 2
E(Sn2 ) = σ 2 − σ
n
n
E(Sn2 ) = σ 2
n
− 1
n 2
E S = σ2
n−1 n
2
= σ2
E Snc
Remarque 5.6 Les expressions des vraisemblances ci-dessus ne sont valables que
parce que les variables aléatoires X1 , . . . , Xn sont indépendantes par définition d’un
échantillon aléatoire.
En fait, vu la forme des densités des lois usuelles de probabilité, il est aussi aisé
d’utiliser le logarithme de la vraisemblance, log L(x1 , . . . , xn |θ), si f (x, θ) > 0, pour
tout x ∈ Rn , pour tout θ ∈ Θ :
n
!
Y
log L(x1 , . . . , xn |θ) = log f (xi , θ)
i=1
n
X
= log (f (xi , θ))
i=1
M.Badaoui UH1-ENSAK
57 Statistique et Probabilité
Exemple 5.1 Soit X une variable aléatoire de loi exponentielle de paramètre 1/θ
avec θ > 0, de densité pour x > 0 :
1 −x/θ
f (x, θ) = e
θ
la vraisemblance admet ici pour expression :
n n
!
Y 1 1X
L(x1 , . . . , xn |θ) = f (xi , θ) = n exp − xi
i=1
θ θ i=1
M.Badaoui UH1-ENSAK
58 Statistique et Probabilité
La variance d’un estimateur sans biais est minorée par une quantité indépendante
de cet estimateur, elle ne peut donc pas être inférieure à une certaine borne.
Remarque 5.7 Si on estime g(θ) au lieu de θ, ou g est une fonction supposé
connue est dérivable, et si la statistique T est l’estimateur de g(θ), alors l’inégalité
précédente de FDCR devient :
2
0 ∂b(n,θ)
g (θ) + ∂θ
E (T − g(θ))2 ≥
In (θ)
2
(g0 (θ)+ ∂b(n,θ)
∂θ )
et BF (θ) = In (θ)
M.Badaoui UH1-ENSAK
59 Statistique et Probabilité
Définition 5.3 (Estimateur efficace) Un estimateur sans biais θbn est dit efficace
si sa variance est égale à la borne inférieure de FDCR :
1
V (θbn ) =
In (θ)
Remarques 5.2
1. L(x|θ) n’a aucune raison d’être différentiable en θ.
M.Badaoui UH1-ENSAK
60 Statistique et Probabilité
2. L(x|θ) étant une densité de probabilité, cette méthode revient à supposer que
l’événement qui s’est produit était le plus probable.
3. Il n’y a aucune raison pour qu’un EMV soit sans biais.
4. Un EMV n’a aucune raison d’être unique.
Remarque 5.8 Le principe de vraisemblance, à la base de la procédure d’estima-
tion du maximum de vraisemblance, revient à rechercher la valeur de θ, fonction des
observations (x1 , . . . , xn ), qui assure la plus grande probabilité d’obtenir ces obser-
vations.
La recherche d’un maximum de la vraisemblance n’est pas forcément réduite à un
simple calcul des zéros de la dérivée de L.
Cependant, ce cas étant le plus fréquent, il est logique de poser l’hypothèse suivante :
n
♣ ∀x ∈ DX , ∀θ ∈ Θ, L est deux fois continûment dérivable par rapport à θ.
Alors θbn , EMV, est solution du système d’équations en θ suivant :
∂L
(x|θ) = 0 (1)
∂θ
2
∂ L (x|θ) < 0 (2)
∂θ2
Ainsi, on préfère souvant travailler avec la fonction Logarithme qui est rappelons
le strictement croissante, par conséquent notre système d’équations devient
∂ log L
(1) ⇔ (x|θ) = 0
∂θ
et
∂ 2 log L
(2) ⇔ (x|θ) < 0
∂θ2
Exemple 5.3 Soit X une variable aléatoire de loi exponentielle de paramètre 1/θ
avec θ > 0, de densité pour x > 0 :
1 −x/θ
f (x, θ) = e
θ
la vraisemblance admet ici pour expression :
n n
!
Y 1 1X
L(x1 , . . . , xn |θ) = f (xi , θ) = n exp − xi
i=1
θ θ i=1
M.Badaoui UH1-ENSAK
61 Statistique et Probabilité
n
∂ 2 log L n 2 X n
2
= 2− 3 xi = 3 (θ − 2xn )
∂θ θ θ i=1 θ
soit pour θ = xn :
∂ 2 log L
n
= − <0
∂θ2 θ=xn x2n
Propriété 5.8
– propriété d’invariance fonctionnelle : Si θbn est l’estimateur de θ par la méthode
du maximum de vraisemblance, f (θbn ) est l’estimateur de f (θ) par la méthode
du maximum de vraisemblance.
– Si un estimateur θbn de θ est efficace et sans biais alors nécessairement il est
donné par la méthode du maximum de vraisemblance.
– propriété asymptotique de l’EMV : Si θbn est l’estimateur de θ par la méthode
p
du maximum de vraisemblance, La variable aléatoire θn − θ b In (θ) suit la
loi normal centrée et réduite N (0, 1), quand n tend vers l’infini.
M.Badaoui UH1-ENSAK
62 Statistique et Probabilité
Exemple 5.4 Si X suit une loi exponentielle de paramètre θ, on sait que E(X) =
1/θ et l’équation à résoudre s’écrit X n = 1/θ, de solution immédiate θ = 1/X n qui
correspond à l’estimateur obtenu par la méthode des moments :
1
θbn =
Xn
Bien entendu, on pourrait utiliser cette méthode avec des moments d’ordres plus
élevés et obtenir ainsi d’autres estimateurs. En utisant par exemple la variance
V (X) = 1/θ2 on obtient le nouvel estimateur θbn = 1/Sn .
Cette méthode intuitive se justifie par les propriétés de convergence des moments
empiriques vers les moments théoriques correspondants au chapitre précédent (les
deux théorèmes fondamentaux de la statistique asymptotique : la loi des grands
nombres et le central limite).
D’une manière générale, pour construire des estimateurs θb = (θb1 , θb2 , . . . , θbK ) relatifs
aux paramètres θ = (θ1 , θ2 , . . . , θK ) en utilisant la méthode des moments, on est
amené à résoudre un système à K équations et K inconnus :
n
1X
1. m1 = E(X) = Xi = m1n
n i=1
n
1X 2
2. m2 = E(X 2 ) = X = m2n
n i=1 i
3. . . . . . .
n
1X K
K
K. mK = E(X ) = X = mKn
n i=1 i
Ainsi, à partir de ces K équations et K inconnus θ1 , θ2 , . . . , θK on trouve les solutions
θb1 , θb2 , . . . , θbK qui forment les estimateurs, suivant la méthode des moments, des
paramètres θ1 , θ2 , . . . , θK .
Exemple 5.5 Soit (X1 , . . . , Xn ) un échantillon d’une v.a. X de loi gamma γ(p, θ).
On sait que :
p p
E(X) = et V (X) = 2
θ θ
On voit clairement qu’aucun des paramètres p et θ ne représente un moment de
la variable X, cependant les deux paramètres apparaissent dans la moyenne et la
M.Badaoui UH1-ENSAK
63 Statistique et Probabilité
variance de cette variable. Ainsi, la méthode des moments nous donne le systèm
suivant :
p
1. = X n
θ
p
2. 2 = Sn2
θ
se qui donne facilement la solution :
(X n )2 Xn
pb = et θb = 2
Sn2 Sn
M.Badaoui UH1-ENSAK
64 Statistique et Probabilité
1 − α = P (X n − a < m < X n + b)
Il n’y a donc qu’une seule condition pour déterminer ces deux valeurs ; cependant, la
loi de la v.a. X n − m qui sert à construire cet intervalle étant symétrique, on choisit
b = a et on utilise la variable centrée et réduite pour déterminer la valeur de a qui
vérifie la condition :
a Xn − m a
1−α = P − √ < √ < √
σ/ n σ/ n σ/ n
Si F est la fonction de répartition de la loi N (0, 1), alors a est solution de :
√ √ √
1 − α = F (a n/σ) − F (−a n/σ) = 2F (a n/σ) − 1
√ √
ou 1 − α/2 = F (a n/σ), soit a n/σ = F −1 (1 − α/2). Pour un niveau de confiance
de 0.95, soit α = 0.05, et pour une taille d’échantillon n = 100, le fractille d’ordre
0.975 de la loi N (0, 1) a pour valeur 1.96 et on en déduit a = 0.004, d’ou l’intervalle :
M.Badaoui UH1-ENSAK
65 Statistique et Probabilité
a) Variance σ 2 connue :
La moyenne empirique X n est le meilleur estimateur de m et on sait que√X n suit
pour tout n exactement la loi normale N (m, √σn ). Donc la statistique T = n X nσ−m
suit la loi normale centrée et réduite N (0, 1). Dés lors pour α donnée on peut trouver
u telle :
√ X n − m
P n
<u
= 1−α
σ
qui est équivalente à :
σ σ
P Xn − √ u < m < Xn + √ u = 1−α
n n
Par conséquent, l’intervalle de confiance cherché est le suivant :
σ σ
X n − √ u, X n + √ u
n n
b) Variance σ 2 inconnue :
√
La statistique T = n X nσ−m utilisée dans la situatuion précédente, et dont la loi
était connue, était la variable centrée et réduite. Elle ne peut convenir ici puisque
le paramètre σ est inconnu et va donc devoir être remplacé par un estimateur, basé
sur la variance empirique modifiée qui est un estimateur sans biais de la variance
théorique σ 2 .
n
2 1 X
Snc = (Xi − X n )2
n − 1 i=1
M.Badaoui UH1-ENSAK
66 Statistique et Probabilité
que :
√ Xn − m
P −t < n <t = 1−α
Snc
L’intervalle a bien sûr été choisi symétrique puisque la loi utilisée est symétrique.
Par inversion de cet intervalle, on obtient :
Snc Snc
P Xn − t√ < m < Xn + t√ = 1−α
n n
Remarque 5.9 Pour n > 30, et grâce au théorème central-limite, les deux procédures
précédentes restent encore valables même si l’échantillon n’est pas nécessairement
extrait d’une loi normale.
M.Badaoui UH1-ENSAK
67 Statistique et Probabilité
M.Badaoui UH1-ENSAK
68 Statistique et Probabilité
b) La moyenne m inconnue :
bn2 , ainsi
On a m est inconnue donc on va la remplacer par son estimateur X n dans σ
l’estimateur sans biais et convergent de qu’il faut retenir est :
n
2 1 X
Snc = (Xi − X n )2
n − 1 i=1
M.Badaoui UH1-ENSAK
69 Statistique et Probabilité
M.Badaoui UH1-ENSAK
70 Statistique et Probabilité
M.Badaoui UH1-ENSAK
Chapitre 6
Les Tests
6.1 Introduction
La théorie de tests d’hypothèses a un intérêt primordial en pratique. En fait elle
consiste à partir d’un échantillon de prendre une décision concernant la population
tout entière. Cette décision est sous forme d’une réponse à une question par oui
ou non. Puisque la réponse sera due uniquement aux informations données par un
échantillon de la population, alors on accepte évidemment un risque d’erreur, fixé
d’avance, concernant notre réponse. Ces décisions peuvent concerner différents do-
maines d’applications.
Si la loi de probabilité PX de la population d’où il est extrait l’échantillon est sup-
posée appartenir à une famille connue de lois de probabilités mais dépendre d’un
paramètre θ, on parle alors des tests paramétriques. Par contre si cette loi appar-
tient plutôt à une large classe de lois de probabilités qui ne met pas en évidence
des paramétriques, on parle alors des tests non paramétriques. Ces derniers test ne
mettent aucun hypothèses sur l’origine de provenance de l’échantillon, en plus ils
restent en général valables même si la taille de celui-ci est petit.
71
72 Statistique et Probabilité
H1 : θ ∈ Θ1
Définition 6.1 Une hypothèse Hi (i=0 ou 1) est dite simple si Θi contient qu’un
seul élément, et elle est dite composite sinon.
Exemple 6.1 Deux tests d’hypothèses sont intéressants en pratique, il s’agit des
tests suivants :
– Test d’une hypothèse simple contre une hypothèse simple :
H0 : θ = θ0
H1 : θ = θ1
H0 : θ = θ0
H1 : θ 6= θ0 (ou bien H1 : θ > θ0 )
Donc, l’ensemble des valeurs observées pour lesquelles l’hypothèse nulle est admis-
sible forme la région d’acceptation ou de non-rejet et les autres valeurs constituent
la région de rejet ou domaine de rejet ou région critique.
Dans ce cas la statistique T s’appelle aussi le test T . En autre, suite à un test on
doit choisir une seule décision à savoir : accepeter H0 ou bien H1 . par suite, on peut
distinguer quatre possibilités suivantes :
M.Badaoui UH1-ENSAK
73 Statistique et Probabilité
α = P (T ∈ I1 /H0 vraie)
β = P (T ∈ I0 /H1 vraie)
Remarques 6.1
i. Le choix de l’hypothèse nulle est fait de façons à pouvoir déterminer la loi du
critère T.
ii. Ne pas rejeter l’hypothèse nulle ne signifie pas qu’on doit automatiquement l’ac-
cepter et la considérer comme vraie ! Cela signifie simplement qu’au vue des
informations disponibles, on n’a pas de raison de la considérer comme fausse.
iii. Lorsque le critère de test appartient à la zone de rejet, il se peut que
– l’hypothèse H0 soit fausse.
– H0 soit vraie mais que l’échantillon corresponde à l’un des cas rares obser-
valbes sous cette hypothèse,
– l’échantillon n’ait pas été tiré au hazard.
M.Badaoui UH1-ENSAK
74 Statistique et Probabilité
M.Badaoui UH1-ENSAK
75 Statistique et Probabilité
M.Badaoui UH1-ENSAK
76 Statistique et Probabilité
a) σ connu :
La moyenne empirique X n est le meilleur estimateur de m et sous l’hypothèse nulle
H0 il suit pour tout n exactement la loi normale N (m, √σn ). Donc la statistique
√
T = n X nσ−m suit la loi normale centrée et réduite N (0, 1). Dés lors pour un niveau
de signification α donnée on peut trouver la région critique par :
√ Xn − m
α = P T ∈ I1 H0 vraie = P n > uα
σ
ce qui veut dire qu’on rejette l’hypothèse nulle si la valeur de X n pour notre
échantillion est supérieure à m0 + √σn uα .
Exemple 6.3 En supposant que la variable X suit une loi normale N (m, 1), on
désire tester si la moyenne m = 2 contre l’hypothèse unilatéral m > 2. Pour le faire,
on dispose l’échantillion suivant :
2.099 2.771 2.306 2.011 1.236 1.591 1.362 1.868 3.018 2.181
2.513 2.74 1.984 2.279 2.162 2.428 1.525 1.304 5.048 1.714
M.Badaoui UH1-ENSAK
77 Statistique et Probabilité
√ X n − m
α = P T ∈ I1 H0 vraie = P n > uα
σ 2
Donc la région critique sera définie cette fois-ci par la réunion de deux parties :
X n > m0 + √σ u α et X n < m0 − √σ u α
n 2 n 2
b) σ inconnu :
Puisque σ est inconnu, on utilise alors la statistique :
√ X n − m0
Tn−1 = n
Snc
qui suit la loi de Student à n − 1 degrés de liberté. Dés lors pour α donnée on peut
déterminer la valeur de tα , telle que :
√ Xn − m
P n > tα = α
Snc
Donc la région critique est définie par :
√ X n − m0
Tn−1 = n > k = tα
Snc
Exemple 6.4 On reprend l’exemple précédent. On a n = 20, donc au niveau
α = 0.05 si on regarde la table de la loi de Student de n − 1 = 19 de degrés de
libertés on trouve k = tα = 1.729. En autre, nous avons
√
X n = 2.205 et Snc = √20 0.838.
19
Donc :
√ X n − m0
Tn−1 = n = 1.068 < k = 1.729
Snc
donc on accepte l’hypothèse nulle H0 m0 = 2.
Remarque 6.2 pour n > 30, et grâce au théorème central limite, les deux pràcédures
précedentes restent encore valables même si l’échantillion n’est pas extrait d’une loi
normale.
M.Badaoui UH1-ENSAK
78 Statistique et Probabilité
l’hypothèse nulle H0 : σ = σ0
est de loi connue χ2n à n degrés de liberté. Dès lors pour un niveau α donnée on peut
déterminer la valeurs de aα telle que :
D
P n 2 > aα = α
σ0
avec a α2 et b1− α2 les quantiles d’ordre α2 et 1 − α2 de la loi χ2n . Donc la région de rejet
est
[0; a α2 [∪]b1− α2 ; +∞[
b) m est inconnue :
On a m est inconnue donc on va la remplacer par son estimateur X n dans D, ainsi
nous obtenons l’estimateur :
n
1X
Sn2 = (Xi − X n )2
n i=1
M.Badaoui UH1-ENSAK
79 Statistique et Probabilité
l’hypothèse nulle H0 : σ = 1
Sous l’hypothèse nulle H0 , notre échantillion est issu d’une loi normale N (m, 1).
On a n = 20, donc au niveau α = 0.05 si on regarde la table de la loi de χ2n−1 de
n − 1 = 19 de degrés de libertés on trouve aα = 30.1 ce qui done k = n1 σ02 aα = 1.505.
Or :
Sn2 = 0.701 < k
Donc on accepte l’hypothèse nulle H0 .
M.Badaoui UH1-ENSAK
80 Statistique et Probabilité
α
avec q1− α2 le quantile d’ordre 1 − 2
de la loi N (0; 1).
Exemple 6.6 Sur un échantillon de 730 poussins d’une entreprise productrice des
poulets, 570 arrivent à survivre. Les responsables de l’usine proposent de tester au
niveau α = 0.05 l’hypothèse nulle H0 : p = 0.75 contre l’hypothèse H1 : p 6= 0.75
(test bilatéral). q q
570 p0 (1−p0 ) 0.75(1−0.75)
On a f = 730
= 0.767 et q1− α2 n
= 1.96 730
= 0.031 et comme
f = 0.767 ∈
/ [−∞; 0.75 − 0.031[ ∪ ]0.75 + 0.031; +∞[
M.Badaoui UH1-ENSAK
81 Statistique et Probabilité
On considère
n1 n2
1 X 1 X
Sn21 = (Xi − X n1 )2 et Sn22 = (Xi − Y n2 )2
n1 i=1 n2 i=1
2
Sn
et on sait que n1 σ12
1
suit une distribution de χ2n−1 à n − 1 degrés de liberté et la
S2
même chose pour la statistique n2 σn22 .
2
Donc, sous l’hypothèse H0 : σ12 = σ22 la statistique
2
n1 Sn 1
(n1 −1)σ12 n1 (n2 − 1)Sn21
F = 2 =
n2 Sn 2 n2 (n1 − 1)Sn22
(n2 −1)σ22
– Premier échantillon :
0.521; 2.332; 1.158; −0.656; 2.356; 1.287; 1.514; 1.223; 1.727; 0.866; 0.094
M.Badaoui UH1-ENSAK
82 Statistique et Probabilité
– Deuxième échantillon :
1.915; 2.557; 2.563; 0.918; 1.118; 0.528; 1.538; 2.421;
1.563; 2.940; 3.124; 2.336; 1.475; 2.261; 3.583
On a :
Sn21 = 0.862 et Sn22 = 0.743
Donc
n1 (n2 − 1)Sn21
F = = 1.078,
n2 (n1 − 1)Sn22
pour α = 0.05 on trouve t1 = 0.282 et t2 = 3.147 puisque F14;10 (0.282) = 0.025 et
F14;10 (3.147) = 0.975.
Ainsi, on a t1 < F < t2 donc on accepte l’hypothèse nulle H0 : σ12 = σ22
Remarque 6.4
– Lorsque m1 et m2 sont connues on utilise sous l’hypothèse H0 : σ12 = σ22
σ
bn2 /σ 2 σ
bn2
1
la fonction discriminante F = 1
bn2 /σ22
σ 2 = σ
bn2
1
qui suit une loi de Fisher-Snedecor
2
à (n1 , n2 ) degrés de liberté, où les statistiques σ bn2 1 et σ
bn2 2 sont définies par
n1 n2
1 X 1 X
σbn2 1 = (Xi − m1 )2 et σ bn2 2 = (Xi − m2 )2
n1 i=1 n2 i=1
– Il existe d’autres statistiques que celle de Fisher-Snédecor pour comparer deux
variances, notamment le test de Hartley qui impose l’égalité de la taille des
échantillons comparés n1 = n2 mais que nous ne développerons pas dans ce
cours.
M.Badaoui UH1-ENSAK
83 Statistique et Probabilité
X n1 − Y n2 √
Z=r
n1 + n2 − 2 = −2.653
1 1
(n1 − 1)Sn21 c + (n2 − 1)Sn22 c n1
+ n2
M.Badaoui UH1-ENSAK
84 Statistique et Probabilité
X n − Y n2
Z=p 2 1 ,
Sn1 c /n1 + Sn22 c /n2
qui suit une loi de Student à n degrés de liberté, où n est l’entier le plus proche
de 2
Sn21 c /n1 + Sn22 c /n2
(n1 − 1)Sn41 c /n41 + (n2 − 1)Sn42 c /n42
– Lorsque n1 et n2 sont supérieurs à 30, on utilise, sous l’hypothèse H0 : m1 =
m2 , la fonction de décision
X n − Y n2
Z=p 2 1 ,
Sn1 c /n1 + Sn22 c /n2
qui peut être approximé par une loi normale centrée réduite.
Exemple 6.9 Dans un échantillon de 328 étudiants (118 qui n’ont pas assisté aux
cours et 210 qui y ont assisté), on observe que 71 parmi ceux qui n’ont pas assisté
aux cours échouent contre 45 seulement parmi ceux qui y ont assisté.On propose
de tester l’hypothèse nulle selon laquelle le taux de réussite est le même dans la
population des étudiants qui n’assistent pas (P1 ) aux cours que dans la population
des étudiants qui y assistent (P2 ).
M.Badaoui UH1-ENSAK
85 Statistique et Probabilité
Par conséquent, on rejète l’hypothèse nulle pour laquelle le taux de réussite est le
même pour les deux populations.
√ Z
Tn−1 = n−1
Snc
M.Badaoui UH1-ENSAK
86 Statistique et Probabilité
avec v
u n
u 1 X
Snc =t (Zi − Z)2
n − 1 i=1
Exemple 6.10 Un éleveur de bovins désire tester un nouveau régime pour ces
bétails. Ainsi, il sole 10 boeufs adultes pour leur proposer le régime pondant une
période de deux mois. Les données avant et après le régime sont les suivants :
Boeuf num. 1 2 3 4 5 6 7 8 9 10
Avant xi 173 166 150 158 160 160 183 165 142 155
Après yi 182 177 155 165 169 171 185 162 143 153
zi = yi − xi 9 11 5 7 9 11 2 -3 1 -2
Si on admet que les variables X et Y suivent des lois normales. Il est intéressant de
tester : Hypothèses :
H0 : m1 = m2
H1 : m1 < m2
Pour Z = Y − X, on teste
Hypothèses :
H0 : E(Z) = 0
H1 : E(Z) > 0
En plus, il est intéressant de minimiser le risque de premier espèce, on a donc choisie
le niveau α = 0.01. Comme :
√ Z
T9 = n−1 = 3.024 > k = 2.821,
Snc
ce qui signifie qu’il y a bien une amélioration très significative pour le nouveau régime
sur l’ancien.
M.Badaoui UH1-ENSAK
87 Statistique et Probabilité
s2R est la moyenne des variance estimées s2i affectées des coefficients (ni − 1).
Elle caractérise la dispersion des valeurs à l’interieur des échantillons.
– Sous l’hypothèse H0 , on dispose d’une deuxième estimation de σ 2 appelée
variance factorielle (ou variance intergroupe) et définie par :
k
1 X
s2F = ni (xi − x)2 .
k − 1 i=1
s2F caractérise la dispersion des valeurs d’un échantillon à l’autre, c’est à dire
la variation due à l’influence du facteur étudié.
M.Badaoui UH1-ENSAK
88 Statistique et Probabilité
s2 est donc une moyenne pondérée de s2R et s2F . Ce théorème permet d’obtenir s2F
après avoir calculé s2R et s2 , ce qui est plus rapide qu’avec la définition.
s2
– Sous H0 , la statistique F = sF2 suit la loi de Snédécor à (k − 1, n − k) degrés
R
de liberté.
– Soit α le risuqe de première espèce choisi.
On lit dans le tableau de Snédécor la valeur fα telle que :
s2
P sF2 ≥ fα = α.
R
s2F
Si s2R
< fα on peut pas écarter H0 .
s2F
Si ≥ fα , on rejette H0 au risue α, c’est à dire que l’on attribue une influence
s2R
significative au facteur étudié.
Exemple 6.11 On étudie l’activité d’un enzyme serique (PDE). On admettra l’hy-
pothèse de normalité et d’égalité des variances des population parentes.
Femmes non enceintes Femmes enceintes
1.5 4.2
1.6 5.5
1.4 4.6
2.9 5.4
2.2 3.9
1.8 5.4
2.7 2.7
1.9 3.9
2.2 4.1
2.8 4.1
2.1 4.6
1.8 3.9
3.7 3.5
1.8
2.1
M.Badaoui UH1-ENSAK
89 Statistique et Probabilité
– Femmes enceintes :
n2 = 13 x2 = 4.29 s22 = 0.651
– Total :
n = 28 x = 3.15 s2 = 1.655
La variance residuelle vaut :
1
s2R = 14s21 + 12s22 ' 0.51
26
La variance factorielle peut se calculer :
– Soit avec sa définition :
1
s2F = 15(x1 − x)2 + 13(x2 − x)2 ' 31.47
1
– Soit par le Théorème de l’analyse de variance :
M.Badaoui UH1-ENSAK
90 Statistique et Probabilité
Sa loi asymptotique,
Ps sous H0 , est la
Ploi du Khi-deux à (r −1)(s−1) degrés de liberté.
r
On a noté ni. = j=1 nij et n.j = i=1 nij les effectifs marginaux. La région critique
de ce test est de la forme :
Dn ≥ C
Pour un risque de première espèce α = P (Dn ≥ C | H0 ), la valeur de C est approxi-
mativement la fractile d’ordre 1 − α de la loi χ2(r−1)(s−1) .
Exemple 6.12 Pour comparer l’éfficacité de deux médicamnents comparables, mais
de prix très différents, la sécurité sociale a effectué une enquête sur les guérisons
obtenus avec ces deux traitements. Les résulltats sont présentés dans le tableau sui-
vant :
Y Médicament cher Médicament bon marché
X
Guérisons 156 44 200
Non-guérisons 44 6 50
200 50 250
M.Badaoui UH1-ENSAK
91 Statistique et Probabilité
Donc, tα > T on accepte, au niveau 5%, l’hypothèse nulle pour laquelle le dé est
équilibré.
M.Badaoui UH1-ENSAK
92 Statistique et Probabilité
Exemple 6.14 Test d’adéquation à une loi donnée. Soit un échantillon de taille
n = 300 présenté dans le tableau suivant :
classes ≤1 ]1,3] ]3,5] ]5,7] ]7,9] >9
xi 11 38 117 89 41 4
On propose de tester si cet échantillon est issu d’une variable suivant une loi N (5, 2)
Réponse : on a : A1 =] − ∞, 1], A2 =]1, 3], A3 =]3, 5], A4 =]5, 7], A5 =]7, 9],
A6 =]9, +∞[ et n = 300.
Or pour X ∼ N (5, 2), on trouve :
p1 = PX (A1 ) = 0.0228 ; p2 = PX (A2 ) = 0.1359 ; p3 = PX (A3 ) = 0.3413 ;
p4 = PX (A4 ) = 0.1359 ; p5 = PX (A5 ) = 0.0228 ; p6 = PX (A6 ) = 0.0228
k
X (xi − npi )2
T = = 2.55 + 0.19 + 2.08 + 1.75 + 0.001 + 1.17 = 7.75
i=1
npi
Donc,tα > T on accepte, au niveau 5%, l’hypothèse nulle pour laquelle l’échantillon
est issu d’une variable suivant une loi N (5, 2).
En effet, si X est une variable aléatoire qui suit la loi normale N (m, σ), la va-
riable U = X−mσ
suit la loi normale centrée réduite N (0,
1).
x−m
Ainsi, pour tout x, on a P (X < x) = P U < t = σ = F (t), F (t) étant la fonc-
tion de répartition de la variable U dont la table des valeurs bien connue.
M.Badaoui UH1-ENSAK
93 Statistique et Probabilité
U =0 F (0) = 0.5
U =1 F (1) = 0.8417 U = −1 F (−1) = 0.1583
U =2 F (2) = 0.9772 U = −2 F (−2) = 0.0228
M.Badaoui UH1-ENSAK
94 Statistique et Probabilité
Nous allons d’abord calculer les fréquences cumulées et tracer le graphique sur le
papier gausso-arithmétique page suivante :
l’effectif total N = 500
borne de la classe fréquence cumulée croissante
moins 0
20 0.05
40 0.10
60 0.19
80 0.31
100 0.46
120 0.63
140 0.78
160 0.88
200 0,97
plus 1
M.Badaoui UH1-ENSAK
95 Statistique et Probabilité
Papier gausso-arithmétique
M.Badaoui UH1-ENSAK
96 Statistique et Probabilité
Le graphique nous indique que les points d’abscisse les dépenses et d’ordonnées
(axe de droite) les fréquences cumulées correspondantes sont pratiquement alignés.
L’ajustement de ces points donne la droite de Henry.
Sur notre graphique à la hauteur F = 0.50 sur l’échelle verticale de gauche (ou
U = 0 sur l’échelle de droite), on peut lire environ m = 103 et Pour obtenir une
approximation de l’écart type, on lit à la hauteur F = 0.8415 sur l’échelle verticale
de gauche (ou U = 1 sur l’échelle de droite) la valeur xi = 151, et comme xi −m = σ
on trouve σ = 148.
Autre méthode :
Nous pourrions aussi utiliser la méthode des moindres carrés pour déterminer
l’équation de cette droite mais le graphique nous montre que deux points (40; 0.10)
et (160; 0.88) doivent être situés sur cette droite de Henry.
Nous allons donc plus vite en résolvant le système suivant
0.10 → t = −1.282 et x = 40
0.88 → t = 1.175 et x = 40
M.Badaoui UH1-ENSAK