Suivez votre progression
Connectez-vous pour enregistrer votre progression et vos tentatives de quiz.
Fiche de révision — Loi des grands nombres
Échantillons • somme \(S_n\) • moyenne \(M_n\) • Bienaymé-Tchebychev • concentration • loi faible des grands nombres • fréquence et probabilité.
1) Essentiel à retenir
Idée du chapitre
Quand on répète un grand nombre de fois une même expérience aléatoire indépendante, la moyenne observée devient généralement proche de la moyenne théorique.
Autrement dit, plus \(n\) est grand, plus la moyenne \[ M_n=\frac{X_1+\cdots+X_n}{n} \] est stable autour de \(E(X)\).
Phrase parfaite
Sur un grand nombre d’essais indépendants réalisés dans les mêmes conditions, la fréquence observée d’un événement se rapproche de sa probabilité théorique.
Cette phrase ne signifie pas que l’égalité est exacte : elle parle d’une probabilité d’écart qui devient très petite.
2) Définitions rapides
Échantillon
Un échantillon de taille \(n\) d’une variable aléatoire \(X\) est une famille \[ (X_1,X_2,\dots,X_n) \] de variables aléatoires :
  • indépendantes ;
  • ayant toutes la même loi que \(X\).
Somme et moyenne
\[ S_n=X_1+X_2+\cdots+X_n \] \[ M_n=\frac{S_n}{n} = \frac{X_1+\cdots+X_n}{n} \]
Si \(X_i=1\) quand un événement \(A\) se produit et \(X_i=0\) sinon, alors \(M_n\) est la fréquence de réalisation de \(A\) sur \(n\) essais.
3) Formules indispensables
Somme \(S_n\)
\[ E(S_n)=nE(X) \] \[ V(S_n)=nV(X) \]
La formule de variance demande l’indépendance des variables.
Moyenne \(M_n\)
\[ E(M_n)=E(X) \] \[ V(M_n)=\frac{V(X)}{n} \] \[ \sigma(M_n)=\frac{\sigma(X)}{\sqrt n} \]
À retenir : l’espérance de la moyenne reste \(E(X)\), mais sa variance est divisée par \(n\). Donc la moyenne devient plus stable lorsque \(n\) augmente.
4) Inégalité de Bienaymé-Tchebychev
Énoncé
Pour toute variable aléatoire \(X\) admettant une espérance \(E(X)\) et une variance \(V(X)\), et pour tout réel \(a>0\), \[ P\bigl(|X-E(X)|\ge a\bigr) \le \frac{V(X)}{a^2}. \]
Forme complémentaire
\[ P\bigl(|X-E(X)|
À utiliser quand on demande une minoration de la probabilité de rester proche de l’espérance.
Phrase copie Bac : l’inégalité de Bienaymé-Tchebychev permet de contrôler la probabilité qu’une variable aléatoire s’éloigne de son espérance, même si l’on ne connaît que son espérance et sa variance.
5) Inégalité de concentration
Énoncé
Si \(M_n\) est la moyenne d’un échantillon de taille \(n\) d’une variable aléatoire \(X\), alors pour tout réel \(a>0\), \[ P\bigl(|M_n-E(X)|\ge a\bigr) \le \frac{V(X)}{na^2}. \]
Forme complémentaire
\[ P\bigl(|M_n-E(X)|
Plus \(n\) augmente, plus le majorant \(\frac{V(X)}{na^2}\) diminue.
Pourquoi cette formule ?
On applique Bienaymé-Tchebychev à \(M_n\), puis on utilise : \[ E(M_n)=E(X) \qquad\text{et}\qquad V(M_n)=\frac{V(X)}{n}. \] Donc : \[ P\bigl(|M_n-E(X)|\ge a\bigr) \le \frac{V(M_n)}{a^2} = \frac{V(X)}{na^2}. \]
6) Loi faible des grands nombres
Énoncé
Si \((X_1,\dots,X_n)\) est un échantillon d’une variable aléatoire \(X\), et si \[ M_n=\frac1n\sum_{i=1}^{n}X_i, \] alors, pour tout réel \(a>0\), \[ \lim_{n\to+\infty} P\bigl(|M_n-E(X)|\ge a\bigr) = 0. \]
Interprétation simple
Quand \(n\) devient très grand, la probabilité que \(M_n\) soit loin de \(E(X)\) devient très petite.
Cas des fréquences
Si \(X_i\) vaut \(1\) en cas de succès et \(0\) sinon, alors \(M_n\) est une fréquence. La loi faible des grands nombres dit que cette fréquence se rapproche de la probabilité théorique du succès.
Attention : la loi des grands nombres ne dit pas que \(M_n=E(X)\). Elle dit que la probabilité d’un écart important devient très petite quand \(n\) grandit.
7) Méthodes Bac
Méthode 1 — Calculer \(E(M_n)\) et \(V(M_n)\)
  1. Identifier la variable de base \(X\).
  2. Calculer \(E(X)\) et \(V(X)\).
  3. Définir l’échantillon \((X_1,\dots,X_n)\).
  4. Écrire : \[ M_n=\frac1n\sum_{i=1}^{n}X_i. \]
  5. Conclure : \[ E(M_n)=E(X), \qquad V(M_n)=\frac{V(X)}{n}. \]
Méthode 2 — Utiliser concentration
  1. Repérer l’écart demandé \(a\).
  2. Écrire : \[ P(|M_n-E(X)|\ge a)\le \frac{V(X)}{na^2}. \]
  3. Calculer le majorant.
  4. Si l’on veut une probabilité de proximité, passer au complément : \[ P(|M_n-E(X)|
  5. Interpréter dans le contexte.
Méthode 3 — Trouver une taille minimale \(n\)
Pour garantir \[ P(|M_n-E(X)|\ge a)\le \varepsilon, \] il suffit d’imposer : \[ \frac{V(X)}{na^2}\le \varepsilon. \] Donc : \[ n\ge \frac{V(X)}{\varepsilon a^2}. \] Comme \(n\) est un entier, on prend l’entier supérieur.
8) Exemples flash
Bienaymé direct
Si \[ E(X)=50,\qquad V(X)=16, \] alors : \[ P(|X-50|\ge 8) \le \frac{16}{8^2} = \frac14. \] Donc : \[ P(|X-50|<8)\ge \frac34. \]
Pièce équilibrée
Pour une pièce équilibrée : \[ E(X)=\frac12,\qquad V(X)=\frac14. \] Avec \(n=100\,000\) et \(a=0{,}01\) : \[ P\left(\left|M_n-\frac12\right|\ge 0{,}01\right) \le \frac{\frac14}{100\,000\times 0{,}01^2} = \frac1{40}. \]
Taille minimale
Si \(V(X)=0{,}25\), \(a=0{,}02\) et \(\varepsilon=0{,}05\), alors : \[ n\ge \frac{0{,}25}{0{,}05\times 0{,}02^2} = 12\,500. \] Il faut donc au moins \(12\,500\) essais.
9) Pièges classiques
Piège 1 — Oublier l’indépendance
Pour écrire \[ V(S_n)=nV(X), \] il faut que les variables \(X_1,\dots,X_n\) soient indépendantes.
Piège 2 — Confondre \(X\) et \(M_n\)
Bienaymé-Tchebychev s’applique à \(X\), tandis que l’inégalité de concentration s’applique à la moyenne \(M_n\).
Piège 3 — Mauvais complément
Le complément de \[ |X-E(X)|\ge a \] est \[ |X-E(X)|
Piège 4 — Mauvaise conclusion
La loi des grands nombres ne dit pas que la moyenne est toujours égale à l’espérance. Elle affirme que les grands écarts deviennent de moins en moins probables.
Checklist avant contrôle
  • Je sais définir un échantillon \((X_1,\dots,X_n)\).
  • Je sais écrire \(S_n=X_1+\cdots+X_n\).
  • Je sais écrire \(M_n=\frac{S_n}{n}\).
  • Je connais \(E(S_n)\), \(V(S_n)\), \(E(M_n)\), \(V(M_n)\).
  • Je sais appliquer Bienaymé-Tchebychev.
  • Je connais les formes complémentaires.
  • Je sais appliquer l’inégalité de concentration.
  • Je sais trouver une taille minimale \(n\).
  • Je sais expliquer la loi faible des grands nombres avec une phrase claire.
Résumé final : plus le nombre d’essais est grand, plus la moyenne observée est stable, donc plus elle est proche de la valeur théorique attendue.