Suivez votre progression
Connectez-vous pour enregistrer votre progression et vos tentatives de quiz.
Cours — Loi des grands nombres
Sommes de variables aléatoires • échantillons indépendants de même loi • inégalité de Bienaymé-Tchebychev • inégalité de concentration • loi faible des grands nombres.
1) Objectifs du chapitre
Ce qu’il faut savoir faire
  • Calculer l’espérance, la variance et l’écart-type d’une variable aléatoire.
  • Comprendre une somme de variables aléatoires : \[ S_n=X_1+X_2+\cdots+X_n. \]
  • Comprendre une moyenne d’échantillon : \[ M_n=\frac{S_n}{n} = \frac{X_1+X_2+\cdots+X_n}{n}. \]
  • Utiliser l’inégalité de Bienaymé-Tchebychev.
  • Démontrer et appliquer l’inégalité de concentration.
  • Interpréter la loi faible des grands nombres.
Idée essentielle
Lorsqu’on répète un grand nombre de fois une même expérience aléatoire, la moyenne observée devient de plus en plus proche de la valeur moyenne théorique.
Par exemple, si une pièce est équilibrée, la fréquence de pile peut varier au début, mais sur un très grand nombre de lancers elle devient généralement proche de \[ \frac12. \]
Attention : la loi des grands nombres ne signifie pas qu’un événement rare devient impossible. Elle dit que la moyenne ou la fréquence se stabilise lorsque le nombre d’essais devient grand.
2) Rappels sur l’espérance, la variance et l’écart-type
Espérance
Soit \(X\) une variable aléatoire discrète prenant les valeurs \[ x_1,x_2,\dots,x_p \] avec \[ P(X=x_i)=p_i. \] Son espérance est : \[ E(X)=\sum_{i=1}^{p} p_i x_i. \] L’espérance représente la moyenne théorique de \(X\).
Variance et écart-type
La variance est : \[ V(X)=\sum_{i=1}^{p}p_i\bigl(x_i-E(X)\bigr)^2. \] Une autre formule très utile est : \[ V(X)=E(X^2)-\bigl(E(X)\bigr)^2. \] L’écart-type est : \[ \sigma(X)=\sqrt{V(X)}. \]
Formules de transformation affine
\[ E(aX+b)=aE(X)+b \] \[ V(aX+b)=a^2V(X) \] \[ \sigma(aX+b)=|a|\sigma(X) \]
Exemple détaillé — Gain à un jeu
On lance un dé équilibré. Si on obtient \(6\), on gagne \(5\) euros. Sinon, on perd \(1\) euro. La variable aléatoire \(X\) prend donc les valeurs : \[ X=5 \quad\text{avec probabilité}\quad \frac16, \] et \[ X=-1 \quad\text{avec probabilité}\quad \frac56. \] Alors : \[ E(X)=5\times\frac16+(-1)\times\frac56 = \frac56-\frac56 = 0. \] Le jeu est donc équitable en moyenne.
3) Sommes de variables aléatoires
Définition
Si \(X\) et \(Y\) sont deux variables aléatoires définies sur le même univers, on définit la variable aléatoire \(X+Y\) par : \[ (X+Y)(\omega)=X(\omega)+Y(\omega). \] Plus généralement : \[ S_n=X_1+X_2+\cdots+X_n = \sum_{i=1}^{n}X_i. \]
Espérance d’une somme
Pour toutes variables aléatoires \(X\) et \(Y\), \[ E(X+Y)=E(X)+E(Y). \] Cette formule ne demande pas l’indépendance.
Variance d’une somme
Si \(X\) et \(Y\) sont indépendantes, alors : \[ V(X+Y)=V(X)+V(Y). \]
Piège classique : \[ E(X+Y)=E(X)+E(Y) \] est toujours vraie, mais \[ V(X+Y)=V(X)+V(Y) \] demande l’indépendance.
4) Échantillons indépendants de même loi
Définition
Un échantillon de taille \(n\) associé à une variable aléatoire \(X\) est une famille \[ (X_1,X_2,\dots,X_n) \] de variables aléatoires :
  • indépendantes ;
  • ayant toutes la même loi que \(X\).
On dit aussi que les variables \(X_1,\dots,X_n\) sont indépendantes et identiquement distribuées.
Somme de l’échantillon
\[ S_n=\sum_{i=1}^{n}X_i = X_1+X_2+\cdots+X_n. \]
Moyenne de l’échantillon
\[ M_n=\frac{S_n}{n} = \frac1n\sum_{i=1}^{n}X_i. \]
Espérance
Comme les \(X_i\) ont la même loi que \(X\), elles ont toutes la même espérance \(E(X)\). Donc : \[ E(S_n)=nE(X). \] Puis : \[ E(M_n) = E\left(\frac{S_n}{n}\right) = \frac1nE(S_n) = E(X). \]
Variance
Comme les \(X_i\) sont indépendantes : \[ V(S_n)=nV(X). \] Puis : \[ V(M_n) = V\left(\frac{S_n}{n}\right) = \frac1{n^2}V(S_n) = \frac{V(X)}{n}. \] Donc : \[ \sigma(M_n)=\frac{\sigma(X)}{\sqrt n}. \]
Idée importante : plus \(n\) est grand, plus \[ V(M_n)=\frac{V(X)}{n} \] est petite. Donc la moyenne \(M_n\) devient de plus en plus stable.
5) Inégalité de Bienaymé-Tchebychev
Énoncé
Pour toute variable aléatoire \(X\) admettant une espérance \(E(X)\) et une variance \(V(X)\), et pour tout réel strictement positif \(a\), \[ P\bigl(|X-E(X)|\ge a\bigr) \le \frac{V(X)}{a^2}. \]
Interprétation
Cette inégalité donne une borne supérieure de la probabilité que \(X\) s’éloigne de son espérance d’au moins \(a\). Elle est très puissante car elle ne nécessite pas de connaître toute la loi de \(X\). Il suffit de connaître \(E(X)\) et \(V(X)\).
Forme complémentaire
En passant à l’événement contraire, on obtient : \[ P\bigl(|X-E(X)|
Phrase copie Bac : L’inégalité de Bienaymé-Tchebychev permet de contrôler la probabilité qu’une variable aléatoire s’éloigne de son espérance, même si l’on ne connaît que son espérance et sa variance.
Exemple — Application directe de Bienaymé-Tchebychev
Soit \(X\) une variable aléatoire telle que : \[ E(X)=50 \qquad\text{et}\qquad V(X)=16. \] On veut majorer : \[ P(|X-50|\ge 8). \] D’après Bienaymé-Tchebychev : \[ P(|X-50|\ge 8) \le \frac{16}{8^2} = \frac{16}{64} = \frac14. \] Donc : \[ P(|X-50|\ge 8)\le 0{,}25. \] Ainsi : \[ P(|X-50|<8)\ge 1-0{,}25=0{,}75. \]
6) Inégalité de concentration
Énoncé
Soit \(X\) une variable aléatoire d’espérance \(E(X)\) et de variance \(V(X)\). Soit \[ (X_1,X_2,\dots,X_n) \] un échantillon de taille \(n\) de \(X\), et \[ M_n=\frac1n\sum_{i=1}^{n}X_i. \] Alors, pour tout réel strictement positif \(a\), \[ P\bigl(|M_n-E(X)|\ge a\bigr) \le \frac{V(X)}{na^2}. \]
Démonstration guidée
On sait que : \[ E(M_n)=E(X) \] et \[ V(M_n)=\frac{V(X)}{n}. \] On applique l’inégalité de Bienaymé-Tchebychev à la variable \(M_n\) : \[ P\bigl(|M_n-E(M_n)|\ge a\bigr) \le \frac{V(M_n)}{a^2}. \] En remplaçant : \[ P\bigl(|M_n-E(X)|\ge a\bigr) \le \frac{\frac{V(X)}{n}}{a^2} = \frac{V(X)}{na^2}. \]
Forme complémentaire
On peut aussi écrire : \[ P\bigl(|M_n-E(X)|
Exemple solide — Pièce équilibrée
On lance une pièce équilibrée \(n\) fois. On note : \[ X_i= \begin{cases} 1 & \text{si le } i\text{-ième lancer donne pile},\\ 0 & \text{sinon}. \end{cases} \] Alors : \[ E(X_i)=\frac12 \] et \[ V(X_i)=\frac12\left(1-\frac12\right)=\frac14. \] La fréquence de pile est : \[ M_n=\frac{X_1+\cdots+X_n}{n}. \] Pour \(n=100\,000\) et \(a=0{,}01\), on obtient : \[ P\left(\left|M_n-\frac12\right|\ge 0{,}01\right) \le \frac{\frac14}{100\,000\times 0{,}01^2}. \] Or : \[ 100\,000\times 0{,}01^2 = 100\,000\times 0{,}0001 = 10. \] Donc : \[ P\left(\left|M_n-\frac12\right|\ge 0{,}01\right) \le \frac{1}{40} = 0{,}025. \] Ainsi : \[ P\left(\left|M_n-\frac12\right|<0{,}01\right) \ge 0{,}975. \] Interprétation : avec \(100\,000\) lancers, la fréquence de pile a une forte probabilité d’être comprise entre \[ 0{,}49 \quad\text{et}\quad 0{,}51. \]
7) Loi faible des grands nombres
Énoncé
Soit \(X\) une variable aléatoire d’espérance \(E(X)\) et de variance \(V(X)\). Soit \[ (X_1,X_2,\dots,X_n) \] un échantillon de \(X\), et \[ M_n=\frac1n\sum_{i=1}^{n}X_i. \] Alors, pour tout réel strictement positif \(a\), \[ \lim_{n\to+\infty} P\bigl(|M_n-E(X)|\ge a\bigr) = 0. \]
Pourquoi ?
D’après l’inégalité de concentration : \[ P\bigl(|M_n-E(X)|\ge a\bigr) \le \frac{V(X)}{na^2}. \] Or, lorsque \(n\to+\infty\), \[ \frac{V(X)}{na^2}\to 0. \] Donc : \[ P\bigl(|M_n-E(X)|\ge a\bigr)\to 0. \]
Interprétation : la moyenne observée \(M_n\) se rapproche de l’espérance \(E(X)\) avec une probabilité de plus en plus grande lorsque la taille de l’échantillon augmente.
Attention : la loi des grands nombres ne dit pas que \(M_n=E(X)\). Elle dit que la probabilité d’un écart important entre \(M_n\) et \(E(X)\) devient très petite quand \(n\) devient très grand.
8) Méthodes Bac à maîtriser
Méthode 1 — Étudier une moyenne \(M_n\)
  1. Identifier la variable aléatoire de base \(X\).
  2. Calculer : \[ E(X) \qquad\text{et}\qquad V(X). \]
  3. Définir : \[ M_n=\frac1n\sum_{i=1}^{n}X_i. \]
  4. Écrire : \[ E(M_n)=E(X) \] et \[ V(M_n)=\frac{V(X)}{n}. \]
  5. Conclure sur la stabilité de \(M_n\) lorsque \(n\) augmente.
Méthode 2 — Utiliser l’inégalité de concentration
  1. Repérer l’écart demandé \(a\).
  2. Écrire : \[ P(|M_n-E(X)|\ge a) \le \frac{V(X)}{na^2}. \]
  3. Calculer la borne.
  4. Si besoin, passer au complément : \[ P(|M_n-E(X)|
  5. Interpréter dans le contexte de l’exercice.
Méthode 3 — Trouver une taille minimale \(n\)
Si l’on veut garantir : \[ P(|M_n-E(X)|\ge a)\le \varepsilon, \] il suffit de chercher \(n\) tel que : \[ \frac{V(X)}{na^2}\le \varepsilon. \] On résout : \[ n\ge \frac{V(X)}{\varepsilon a^2}. \] Comme \(n\) est un entier, on prend l’entier supérieur.
9) Formulaire final
Échantillon
\[ S_n=X_1+\cdots+X_n \] \[ M_n=\frac{S_n}{n} \] \[ E(S_n)=nE(X) \] \[ E(M_n)=E(X) \] \[ V(S_n)=nV(X) \] \[ V(M_n)=\frac{V(X)}{n} \]
Bienaymé-Tchebychev
\[ P\bigl(|X-E(X)|\ge a\bigr) \le \frac{V(X)}{a^2} \] \[ P\bigl(|X-E(X)|
Concentration
\[ P\bigl(|M_n-E(X)|\ge a\bigr) \le \frac{V(X)}{na^2} \] \[ P\bigl(|M_n-E(X)|
Loi faible des grands nombres
\[ \lim_{n\to+\infty} P\bigl(|M_n-E(X)|\ge a\bigr) = 0 \]
Checklist finale
  • Je sais calculer \(E(X)\), \(V(X)\) et \(\sigma(X)\).
  • Je sais reconnaître un échantillon indépendant de même loi.
  • Je sais calculer \(E(S_n)\), \(V(S_n)\), \(E(M_n)\) et \(V(M_n)\).
  • Je sais appliquer Bienaymé-Tchebychev.
  • Je sais utiliser la forme complémentaire.
  • Je sais appliquer l’inégalité de concentration.
  • Je sais expliquer la loi faible des grands nombres avec des phrases claires.
  • Je sais trouver une taille minimale \(n\) à partir d’une contrainte de probabilité.