Chapitre12 Probainfini

Télécharger au format pdf ou txt
Télécharger au format pdf ou txt
Vous êtes sur la page 1sur 8

Cours de mathématiques ECO1 LMA 2016/17

Chapitre 12 : probabilités sur un univers infini

I. Introduction
Ce chapitre complète et généralise les résultats établis au chapitre 8, dans lequel on se cantonnait aux univers
finis. Les principales notions sont reprises dans ce nouveau cadre. Certaines changent peu, voire pas du tout,
mais dans certains cas, les énoncés doivent être adaptés et des précautions prises. Par exemple, les sommes qui
intervenaient dans le chapitre 9 (somme des probabilités ou espérance) sont alors remplacées par des séries dont
la convergence n’est a priori pas assurée.

II. Cadre généralisé des probabilités

1. Exemples fondamentaux

Exemple 1 (Univers infinis). 1. On jette un pièce et on note le premier rang pour lequel on tombe sur Pile.
Alors Ω = N∗ est infini et dénombrable.
N
2. On jette indéfiniment un dé à six faces et on note la suite des résultats obtenus. Ω = J1 ; 6K est l’ensemble
des suites d’éléments de J1 ; 6K, donc infini et dénombrable.
3. On note le temps d’attente d’un bus, qui est un nombre aléatoire dans l’intervalle [0 ; 10]. Cette univers
est infini et non dénombrable ( c’est à dire beaucoup plus grand que N).

Exemple 2 (Intersections/réunions infinies d’événements). ♥ ✎ On considère la seconde expérience modélisée


dans l’exemple précédent et on note, pour tout entier naturel non nul i, Ai : « le résultat du ième lancer est 1 ».
Exprimer les événements suivants à l’aide des événements Ai :
1. Bi : « Le premier 1 apparaît au i-ème lancer »
2. C : « Au moins un des résultats est un 1 »
3. D : « Aucun lancer ne donne un 1 »

2. Espace probabilisable

Définition. Soit Ω un ensemble et A ⊂ P(Ω). A est une tribu de parties de Ω si :


1. Ω ∈ A
2. ∀A ∈ A, on a Ā ∈ A
+∞
[
3. Si pour tout n ∈ N, An ∈ A, alors An ∈ A. Le couple (Ω, A) est appelé espace probabilisable et les
n=0
éléments de A sont appelés les événements.

Remarque . P(Ω) est évidemment une tribu. C’est la seule qu’on utilise lorsque Ω est un ensemble fini. Lorsque
Ω est infini, P devient énorme et il est alors souvent commode de considérer des tribus plus petites qui suffisent
pour appliquer notre modèle. De plus, on peut montrer qu’il est impossible de construire une probabilité sur
(R, P(R)), ce qui nous oblige à considérer des tribus plus petites qui permettent les calculs de probabilités.

Exemple 3. ✎ Soit Ω = {1; 2; 3; 4}. Donner une tribu à deux éléments et une tribu à quatre éléments.

page 1
Cours de mathématiques ECO1 LMA 2016/17

Proposition 1.

Avec les notations de la définition précédente, on a :


1. ∅ ∈ A.
2. Les intersections et réunions d’éléments de A sont des éléments de A.
+∞
\
3. Si pour tout n ∈ N, An ∈ A, alors An ∈ A
n=0
+∞
[ +∞
\ +∞
\ +∞
[
4. An = An et An = An
n=0 n=0 n=0 n=0

La définition suivante a été vue au chapitre 9. A présent, l’union peut concerner une infinité d’ensembles.

Définition. Soit (Ω, A) un espace probabilisable, et soit (Ai )i∈I une famille d’événements de A. Cette famille
est un système complet d’événements (SCE) si :
1. Les Ai sont 2 à 2 incompatibles :
∀i, j ∈ I, Ai ∩ Aj = ∅
[
2. Leur réunion est Ω : Ai = Ω
i∈I

Exemple 4. ✎ Les familles (Ai )i∈N et (Bi )i∈N∗ de l’exemple 2 sont-elles des systèmes complets d’événements ?

3. Espace probabilisé

Une fois les espaces probabilisables définis, on a un cadre théorique qui permet potentiellement de mesurer les
chances que les différents événements se produisent. Mais il y a de nombreuses manières de le faire. Par exemple,
si on considère une pièce équilibrée ou non dans l’exemple 1.1, les événements resteront les mêmes mais le calcul
des probabilités sera différent. La définition suivante généralise ce qu’est une probabilité au cas des univers
infini.

Définition. Soit (Ω, A) un espace probabilisable. On appelle probabilité sur (Ω, A) toute application P de
A dans [0 ; 1] vérifiant :
1. P (Ω) = 1.
X +∞
[
2. Si (An )n∈n∈N est une famille d’événements 2 à 2 incompatibles, alors P (An ) converge et : P ( An ) =
n=0
+∞
X
P (An ). On appelle alors (Ω, A, P ) un espace probabilisé.
n=0

Proposition 2.
X
(Ω, A, P ) un espace probabilisé, (Ai )i∈I un SCE. Alors la série P (Ai ) converge et sa somme vaut 1.
i∈I

Définition. Soit (Ω, A, P ) un espace probabilisé.


E est dit négligeable si P (E) = 0 et presque sûr (ou vrai presque sûrement) si P (E) = 1.

Remarque . BDans le cas fini, les notions d’événements impossibles et d’événements négligeables se confondent.
De même pour les notions d’événements certains et presque sûrs. Mais dans ce nouveau cadre, ce n’est plus
le cas. Il faut être particulièrement attentif à cette différence lorsqu’on considère des SCE et la formule des
probabilités totales.

Exemple 5. ✎ Dans le cadre de l’exemple 2 avec un dé équilibré, que dire intuitivement des événements C et
D?

page 2
Cours de mathématiques ECO1 LMA 2016/17

Les théorèmes suivants, valables dans tout espace probabilisé (Ω, A, P ), permettent de démontrer ce genre de
résultats.

Théorème 3.« Théorème de la limite monotone »


+∞
[
1. Si (An )n∈N est une suite croissante d’événements (ie ∀n ∈ N, An ⊂ An+1 ), alors P ( An ) =
n=0
lim P (An ).
n→+∞
+∞
\
2. Si (An )n∈N est une suite décroissante d’événements (ie ∀n ∈ N, An+1 ⊂ An ), alors P ( An ) =
n=0
lim P (An ).
n→+∞

Théorème 4.« Corollaire du théorème de la limite monotone »


+∞
[ n
[
1. Si (An )n∈N est une suite quelconque d’événements, alors P ( An ) = lim P ( Ai ).
n→+∞
n=0 i=0
+∞
\ n
\
2. Si (An )n∈N est une suite quelconque d’événements, alors P ( An ) = lim P ( Ai ).
n→+∞
n=0 i=0

Démonstration.
[n
Poser Bn = Ai , et appliquer le théorème de la limite monotone. On procède de même pour l’intersection.
i=0

Exemple 6. ♥ ✎ On reprend le cadre de l’exemple 2 avec un dé équilibré et les lancers mutuellement indé-
pendants. On note de plus Cn : « au moins un des résultats est un 1 lors des n premiers lancers ».
1. (a) Exprimer Cn à l’aide des Ai .
(b) Déduire que P (Cn ) = 1 − P (A1 ∩ · · · ∩ An )
(c) Calculer alors P (Cn ).
(d) Justifier que (Cn )n∈N∗ est une suite croissante d’événements.
(e) Montrer que C est presque sûr et D négligeable.
(f) Exprimer C à l’aide des Ai . La suite (An )n∈N∗ est-elle une suite monotone d’événements ?
(g) Appliquer la variante du théorème de la limite monotone pour retrouver que C est presque sûr.
2. (a) Exprimer D en fonction des Ai , puis en fonction des Bi .
(b) Redémontrer que D est négligeable de deux manières.

4. Généralisation des propriétés des probabilités

Presque tout ce qui a été vu dans le cas fini fonctionne à l’identique dans le cas infini : définition de la probabilité
conditionnelle, indépendance d’événements, formule de Bayes, formule des probabilités composées.
Il faut simplement généraliser l’indépendance mutuelle d’événements et la formule des probabilités totales.
Définition. Les événements\ d’une famille
Y infinie (An )n∈N sont mutuellement indépendants si, pour toute
partie finie I de N, on a : P ( An ) = P (An )
n∈I n∈I

Théorème 5.
X +∞
X
Soit (An )n∈N un SCE alors pour tout événement B, la série P (B ∩An ) converge et P (B) = P (B ∩An )
n=0
+∞
X
Si de plus, pour tout n ∈ N, on a P (An ) 6= 0, on a P (B) = PAn (B)P (An )
n=0

page 3
Cours de mathématiques ECO1 LMA 2016/17

RemarqueX. Si seulement un nombre fini d’événements sont non négligeables, on peut quand même écrire
P (B) = PAn (B)P (An ), pour I l’ensemble des indices d’événements non négligeables. De sorte que les
n∈I
événements négligeables participent à la construction du SCE mais n’interviennent plus dans la formule finale
(mais il ne faut pas les oublier !).

Exemple 7. ✎ On se place dans le cadre de l’exemple 2.


+∞
X
1. Exprimer Bn en fonction des Ai . Déduire P (Bn ). Vérifier que l’on a bien P (Bk ) = 1
k=1
2. Calculer la probabilité de l’événement E : « La première fois qu’un 1 est sorti, il est suivi d’un autre 1 ».
3. On joue au jeu : jeter un dé jusqu’à obtenir un 1. On appelle alors n le nombre de lancers nécessaires
pour obtenir ce 1. On jette alors une pièce équilibrée n fois. On gagne si lors de ces n lancers de pièce, au
moins un Pile est sorti. Soit F : « gagner à ce jeu ». Déterminer P (F ).

III. Généralités sur les variables aléatoires

1. Définition généralisée. Système complet d’événements associé à une variable aléatoire

Dans le chapitre 9, on avait défini une variable aléatoire comme une application qui, à un événement élémentaire,
associe un nombre réel. Dans le cas infini, l’idée est la même mais il faut modifier la définition pour des raisons
théoriques.

Définition.

Soit (Ω, A) un espace probabilisable. X est une variable aléatoire réelle définie sur (Ω, A) si X est une
application de Ω dans R telle que, pour tout élément x de R, l’ensemble [X 6 x] = {ω ∈ Ω, X(ω) 6 x} est
dans A. On note encore X(Ω) l’univers image. X est une variable aléatoire discrète si X(Ω) = {xi , i ∈ I}, où
I est un sous-ensemble de N ou de Z, éventuellement infini. X est une variable aléatoire finie si X(Ω) est un
ensemble fini.

Remarque . 1. Le fait de ne plus centrer la définition sur les événements élémentaires vient du fait que
dans le cas infini et notamment non dénombrable, tous ces événements peuvent être de probabilité nulle,
ce qui ne donnerait finalement aucune information sur la loi de X.
2. La condition théorique qui est ajoutée dans cette définition sert à garantir qu’on puisse bien calculer la
probabilité que X 6 x puisque la probabilité P est définie sur A. Tout ceci était automatiquement vérifié
dans le cas dans le cas fini car la tribu choisi est P (Ω).
3. Le fait de choisir [X 6 x] dans la définition plutôt que [X < x], [X > x], [X > x] n’est pas important.
Le même choix sera fait plus tard pour la fonction de répartition de X.
4. On ne vous demandera pas : « démontrer que X est une variable aléatoire ».

Définition. Le système complet d’événements associé à une variable aléatoire X est la famille d’événement
([X = x])x∈X(Ω) (qui peut être infinie et même non dénombrable).

2. Fonction de répartition d’une variable aléatoire

On se place dans un espace probabilisé (Ω, A, P ) quelconque et X une variable aléatoire réelle sur cet espace.

Définition. On appelle fonction de répartition de X la fonction définie sur R par : ∀x ∈ R, FX (x) = P (X 6 x)

page 4
Cours de mathématiques ECO1 LMA 2016/17

Théorème 6.« Propriétés de FX »

1. ∀x ∈ R, 0 6 FX (x) 6 1.
2. FX est croissante sur R.
3. lim FX (x) = 0 et lim FX (t) = 1.
x→−∞ x→+∞
4. FX est continue à droite en tout point x de R c’est à dire lim+ FX (t) = FX (x).
t→x
5. FX admet un limite à gauche en tout point x de R et lim− FX (t) = FX (x) − P ([X = x]).
t→x
6. Soient a 6 b deux réels. P ([a < X 6 b]) = FX (b) − FX (a).

Exemple 8. ✎ On lance une pièce de monnaie bien équilibrée trois fois de suite. Soit X la variable aléatoire
1 si deux côtés identiques apparaissent successivement
donnant le nombre de Face obtenues et soit Y =
0 sinon
Dessiner FX et FY .

Remarque . Contrairement à X, qui ne dépend que de Ω et de A, FX dépend aussi de la probabilité P.

Proposition 7.« continuité de FX »

FX est continue sur R si et seulement si, pour tout réel x, on a P ([X = x]) = 0.

Remarque . Ce point établit la différence entre une variable aléatoire discrète, dont la fonction de répartition
possède toujours des discontinuités (éventuellement une infinité dénombrable) et une variable aléatoire continue,
dont la fonction de répartition est continue sur R.

3. Loi d’une variable aléatoire

On se place dans un espace probabilisé (Ω, A, P ) quelconque et X et Y deux variables aléatoires réelles sur
cet espace.

Définition. On appelle loi de X la donnée de toutes les probabilités P (X ∈ A), où A est une réunion au
plus dénombrable d’intervalles de R.

Remarque . Cette définition, très théorique, ne vous servira pas dans la pratique. On en a déjà vu un cas
particulier simple dans le cas fini que nous allons généraliser dans la prochaine partie aux variables aléatoires
discrètes.

Proposition 8.« la fonction de répartition caractérise la loi »


FX = FY ⇔ X et Y ont la même loi.

IV. Variables aléatoires discrètes


On se place dans un espace probabilisé (Ω, A, P ) quelconque et X une variable aléatoire discrète sur cette
espace, ce qui signifie que X(Ω) = {xi , i ∈ I}, où I est inclus dans N ou Z.

1. Lois et fonctions de répartition dans le cas discret

Définition. La loi d’une variable aléatoire discrète X est la donnée de toutes les probabilités P ([X = xi ]), i ∈
I, ce qui revient à donner les probabilités de chacun des événements du système complet d’événements associé
à X.
page 5
Cours de mathématiques ECO1 LMA 2016/17

Remarque . 1. Dans le cas fini, c’est la définition donnée au chapitre 9, qui conduit à une présentation
sous forme de tableau, du moins lorsque X(Ω) est assez petit.
2. Dans le cas infini, la représentation sous forme de tableau est évidemment beaucoup moins pratique ! Mais
on peut continuer à penser la loi comme un tableau infini.
3. Cette définition ne s’adapte pas aux variables aléatoires continues. En effet, dans ce cas, toutes les proba-
bilités du SCE associées à X sont nulles (voir la proposition 7).

Comme dans le cas fini, la somme des probabilités doit être égale à 1, mais dans le cas infini cela nécessite
l’emploi de séries.

Proposition 9.

X +∞
X
P ([X = xi ]) converge et sa somme vaut 1. Par exemple, si X(Ω) = N, on a P (X = k) = 1
i∈I k=0

Les propriétés suivantes de la fonction de répartition sont valables uniquement dans le cas discret.

Proposition 10.« Propriétés supplémentaires de FX dans le cas discret


X
1. Pour tout réel x, on a FX (x) = P ([X = xi ]).
xi 6x, i∈I

2. Pour tout i ∈ I, on a P ([X = xi ]) = FX (xi ) − FX (xi − 1).


3. En particulier, si X(Ω) = N ou Z, alors, pour tout entier k, on a P ([X = k]) = FX (k) − FX (k − 1).

2. Transformation d’une variable aléatoire discrète

Définition. Soit g une fonction définie sur X(Ω) à valeur dans R. Alors,
X on définit la variable aléatoire
Y = g(X) de la manière suivante : ∀y ∈ g(X(Ω)), on a P ([Y = y]) = P ([X = x]). Cette variable
x∈X(Ω),g(x)=y
aléatoire est également discrète et a pour univers image Y (Ω) = g(X(Ω)) = g(xi ), i ∈ I.

Exemple 9. ✎
1 1
1. Soit X une v.a.r telle que, P ([X = 0]) = P ([X = 10]) = et P ([X = 20]) = . Donner les lois de
4 2
X − 10 2
Y = et Z = Y .
10
2. Soit Y = eX , où X v.a.r discrète. Soit y ∈ R. Donner P ([Y = y]) en fonction d’une probabilité portant
sur X.

3. Espérance d’une variable aléatoire discrète

La définition d’espérance doit être adaptée au cas infini à l’aide des séries.
X
Définition. Une variable aléatoire X admet une espérance si la série xi P (X = xi ) converge absolument
i∈I
et dans ce cas, l’espérance est la somme de la série, notée E(X). Par exemple, si X(Ω) = N, on a E(X) =
+∞
X
kP (X = k)
k=0

Exemple 10. ✎

1. Soit X le rang d’obtention du premier 1 avec un dé équilibré. Montrer que X admet une espérance et la
calculer.

page 6
Cours de mathématiques ECO1 LMA 2016/17

2. Une urne contient initialement deux boules, l’une noire et l’autre blanche. On tire une à une des boules
dans cette urne en suivant le protocole suivant :
* Si la boule tirée est noire, on la remet simplement dans l’urne avant le tirage suivant.
* Si la boule tirée est blanche, on la remet dans l’urne et l’on y rajoute une boule blanche avant le
tirage suivant.
On note X le rang du premier tirage d’une boule noire. On pourra utiliser les événements : Bi :« la ième
boule tirée est blanche »et Ni : « la ième
X boule tirée est noire »
(a) Déterminer X(Ω). (b) Calculer P (X = k) et interpréter. (c) Calculer, si possible E(X).
k∈X(Ω)

Proposition 11.« Propriétés de l’espérance »


Si X et Y admettent une espérance, et si a, b sont des réels :
1. Linéarité :E(aX + b) = aE(X) + b et E(X + Y ) = E(X) + E(Y ).
2. Localisation : si X(Ω) ⊂ [x ; y] alors x 6 E(X) 6 y.
3. Positivité : si toutes les valeurs de X sont positives (X(Ω) ⊂ R+ ) alors E(X) > 0

On se place dans le cadre des opérations sur les variables aléatoires.

Théorème 12.« Théorème de transfert. Cas particulier de la fonction carrée »


X
E(g(X)) existe ssi la série g(xi )P (X = xi ) converge absolument et est alors égale à la somme de cette
i∈I
+∞
X
série. Par exemple, avec la fonction carré et X(Ω) = N, en cas de convergence : E(X 2 ) = k 2 P (X = k)
k=0

4. Moments d’ordre r d’une variable aléatoire discrète

Définition. Pour un entier r, lorsque X r admet une espérance, on dit que X admet un moment d’ordre r et
on note mr (X) = E(X r )
On montre l’existence des moments et on calcule leurs valeurs à l’aide de la formule de transfert.

Exemple 11. ✎
1. Justifier que toute variable aléatoire admet un moment d’ordre 0 et le calculer. Donner l’autre nom du
moment d’ordre 1.
2. Que dire des moments des variables aléatoires finies ?

Proposition 13.« Lien entre les différents moments d’une variable aléatoire discrète »
Si X admet un moment d’ordre r, alors X admet un moment d’ordre i pour tout i inférieur à r.

5. Variance d’une variable aléatoire discrète

Définition. On dit que X admet une variance si (X − E(X))2 admet une espérance. La variance est alors
V (X) = E(X − (E(X))2 . On dit que X admet un écart-type si elle admet une variance, et alors : σ(X) =
p
V (X)

Voici un théorème donnant une technique de calcul de la variance qui peut s’avérer plus simple que la définition.

Théorème 14.
|« Koenig-Huygens »] X admet une variance si et seulement si elle admet un moment d’ordre 2, et V (X) =
m2 (X) − (m1 (X))2 = E(X 2 ) − (E(X))2

page 7
Cours de mathématiques ECO1 LMA 2016/17

Exemple 12. ✎ Soit X le rang d’obtention du premier 1 avec un dé équilibré. Montrer que V (X) existe et la
calculer.

Remarque . Une variable aléatoire peut donc admettre une espérance sans admettre de variance, mais pas le
contraire, en vertu de la proposition sur les moments d’ordre r.

Proposition 15.« Propriétés de la variance »

1. Pour des réels a, b et X admettant une variance : V (aX + b) = a2 V (X).


2. V (X) > 0.
3. V (X) = 0 si et seulement si X est constante (certaine).

page 8

Vous aimerez peut-être aussi

pFad - Phonifier reborn

Pfad - The Proxy pFad of © 2024 Garber Painting. All rights reserved.

Note: This service is not intended for secure transactions such as banking, social media, email, or purchasing. Use at your own risk. We assume no liability whatsoever for broken pages.


Alternative Proxies:

Alternative Proxy

pFad Proxy

pFad v3 Proxy

pFad v4 Proxy