Loi forte des grands nombres

Une loi forte des grands nombres est une loi mathématique selon laquelle la moyenne des n premiers termes d'une suite de variables aléatoires converge presque sûrement vers une constante (non aléatoire), lorsque n tend vers l'infini. Lorsque ces variables ont même espérance, par exemple lorsqu'elles ont toutes la même loi, cette limite constante est l'espérance commune à toutes les variables aléatoires de cette suite. La loi forte est vérifiée sous diverses conditions de dépendance et d'intégrabilité portant sur les variables aléatoires de la suite.

Les exemples les plus célèbres concernent la proportion de résultats pile ou face lors des n premiers lancers d'une série potentiellement infinie de lancers (cette proportion converge presque sûrement vers 0,5), ou la proportion de chiffres 0, 1, 2, ..., 8 ou 9 dans le développement décimal d'un nombre réel tiré au hasard. La première version de la loi forte des grands nombres est due à Émile Borel, qui démontre ainsi, en 1909[1], le théorème des nombres normaux.

Énoncé général

Le principe de la loi forte des grands nombres est que sous certaines conditions (sur la dépendance, sur l'homogénéité et sur les moments) la moyenne d'une suite de variables aléatoires { X n } {\displaystyle \{X_{n}\}} converge presque sûrement vers la même limite (constante) que l'espérance de la moyenne. En particulier, l'adjectif « fort » fait référence à la nature de la convergence établie par ce théorème : il est réservée à un résultat de convergence presque sûre. Par opposition, la loi faible des grands nombres, établie par Bernoulli, est un résultat de convergence en probabilité, seulement. Soit :

Principe général —  ( X ¯ n μ ¯ n ) p . s .   0  avec  X ¯ n 1 n i = 1 n X i  et  μ ¯ n E [ X ¯ n ] {\displaystyle \qquad ({\overline {X}}_{n}-{\overline {\mu }}_{n}){\xrightarrow {p.s.}}\ 0\qquad \qquad {\text{ avec }}{\overline {X}}_{n}\equiv {\frac {1}{n}}\sum _{i=1}^{n}X_{i}{\text{ et }}{\overline {\mu }}_{n}\equiv \operatorname {E} \left[{\overline {X}}_{n}\right]}

Il existe différents théorèmes selon le type d'hypothèses faites sur la suite { X n } {\displaystyle \{X_{n}\}} [2] :

  • observations indépendantes et identiquement distribuées,
  • observations indépendantes et non identiquement distribuées,
  • observations dépendantes et identiquement distribuées.

Observations indépendantes et identiquement distribuées

Loi forte des grands nombres (Kolmogorov, 1929) — Si ( X n ) n > 0 {\displaystyle {(X_{n})}_{n>0}} est une suite de variables aléatoires indépendantes identiquement distribuées, on a équivalence entre :

(i)   E ( | X 1 | ) < + , {\displaystyle \ \mathbb {E} \left(\left|X_{1}\right|\right)<+\infty ,}
(ii) la suite X 1 + + X n n {\displaystyle \textstyle {\frac {X_{1}+\cdots +X_{n}}{n}}} converge presque sûrement.
De plus, si l'une de ces deux conditions équivalentes est remplie, alors la suite X 1 + + X n n {\displaystyle \textstyle {\frac {X_{1}+\cdots +X_{n}}{n}}} converge presque sûrement vers la constante E ( X 1 ) . {\displaystyle \mathbb {E} (X_{1}).}

C'est la première loi forte à avoir été démontrée avec des hypothèses optimales. Pour la démontrer, il fallait définir rigoureusement le concept de convergence presque sûre, ce qui a amené Kolmogorov à considérer les probabilités comme une branche de la théorie de la mesure, un saut conceptuel dont Kolmogorov prouvait ainsi l'efficacité. La théorie moderne des probabilités s'est construite à partir du travail fondateur de Kolmogorov sur la loi forte des grands nombres. La loi forte des grands nombres est aussi un ingrédient important dans la démonstration d'autres lois fortes des grands nombres, comme le théorème de Glivenko-Cantelli, la LFGN pour les processus de renouvellement, ou la LFGN pour les chaînes de Markov. C'est bien du théorème dû à Kolmogorov que l'on parle lorsqu'on dit « la loi forte des grands nombres », les autres théorèmes n'étant que des lois fortes des grands nombres. Ce théorème est aussi intéressant parce qu'il aboutit à une conclusion plus forte : il établit l'équivalence entre l'intégrabilité de la suite et sa convergence, alors que les autres théorèmes fournissent seulement des implications, sans leurs réciproques. Dans le cas où les termes de la somme sont des variables de Bernoulli, la loi forte des grands nombres a été établie par Émile Borel en 1909. D'autres versions de la loi forte des grands nombres ont succédé à la version due à Borel, jusqu'à la version définitive de Kolmogorov.

Observations indépendantes et non-identiquement distribuées

Théorème de Markov — Soit { X n } {\displaystyle \{X_{n}\}} une suite de variables aléatoires indépendantes d'espérance finie E ( X n ) μ n {\displaystyle \mathbb {E} (X_{n})\equiv \mu _{n}} . S'il existe δ ] 0 , 1 ] {\displaystyle \delta \in ]0,1]} tel que

n = 1 E ( | X n μ n | 1 + δ ) n 1 + δ < {\displaystyle \sum _{n=1}^{\infty }{\frac {\mathbb {E} \left(|X_{n}-\mu _{n}|^{1+\delta }\right)}{n^{1+\delta }}}<\infty }

alors

X ¯ n μ ¯ n p . s . 0. {\displaystyle {\overline {X}}_{n}-{\overline {\mu }}_{n}{\xrightarrow {p.s.}}0.}

Pour pouvoir relâcher l'hypothèse d'équidistribution, on est amené à faire une hypothèse plus forte sur l'intégrabilité.

Observations dépendantes et identiquement distribuées

Théorème ergodique — Soit { X t } {\displaystyle \{X_{t}\}} une suite de variables aléatoires stationnaire ergodique avec E ( | X t | ) < {\displaystyle \mathbb {E} (|X_{t}|)<\infty } et d'espérance identique finie E ( X t ) μ {\displaystyle \mathbb {E} (X_{t})\equiv \mu } . Alors

X ¯ t p . s . μ . {\displaystyle {\overline {X}}_{t}{\xrightarrow {p.s.}}\mu .}

Loi forte des grands nombres de Kolmogorov

La moyenne empirique d’une suite de variables aléatoires indépendantes, identiquement distribuées, et intégrables, converge presque sûrement vers leur moyenne mathématique (ou espérance).

Autres formulations

On note souvent :

S n = X 1 + X 2 + + X n . {\displaystyle S_{n}=X_{1}+X_{2}+\cdots +X_{n}.}

Ainsi l'énoncé devient

Théorème — Pour une suite ( X n ) n > 0 {\displaystyle {(X_{n})}_{n>0}} de variables aléatoires indépendantes et identiquement distribuées, le fait que S n ( ω ) n {\displaystyle \textstyle {\frac {S_{n}(\omega )}{n}}} soit une suite convergente presque-sûrement est équivalent au fait que E [ | X 1 | ] < + {\displaystyle \mathbb {E} \left[\left|X_{1}\right|\right]<+\infty } . De plus, si l'une de ces deux conditions équivalentes est remplie, on a :

P ( ω Ω   |   lim n S n ( ω ) n = E [ X 1 ] ) = 1. {\displaystyle \mathbb {P} \left(\omega \in \Omega \ \left|\ \lim _{n}{\tfrac {S_{n}(\omega )}{n}}=\mathbb {E} \left[X_{1}\right]\right.\right)=1.}

Énoncé usuel de la loi forte

L'énoncé ci-dessous est la forme habituelle de la loi forte des grands nombres, et est une conséquence directe (une forme affaiblie) du théorème donné plus haut :

Théorème — Soit une suite ( X n ) n 1 {\displaystyle (X_{n})_{n\geq 1}} de variables aléatoires indépendantes et de même loi, intégrables. Alors

P ( ω Ω   |   lim n S n ( ω ) n = E [ X 1 ] ) = 1. {\displaystyle \mathbb {P} \left(\omega \in \Omega \ \left|\ \lim _{n}{\tfrac {S_{n}(\omega )}{n}}=\mathbb {E} \left[X_{1}\right]\right.\right)=1.}

Remarques

  • En statistiques, X 1 + + X n n {\displaystyle \textstyle {\frac {X_{1}+\cdots +X_{n}}{n}}} ou bien S n n {\displaystyle \textstyle {\frac {S_{n}}{n}}} est appelée moyenne empirique des X i {\displaystyle X_{i}} , et est souvent notée X ¯ {\displaystyle {\overline {X}}} .
  • On peut formuler l'hypothèse { n 1 ,   X n  est integrable } {\displaystyle \left\{\forall n\geq 1,\ X_{n}{\text{ est integrable}}\right\}} sous différentes formes :
    • { n 1 ,   E [ | X n | ] < + } {\displaystyle \left\{\forall n\geq 1,\ \mathbb {E} \left[\left|X_{n}\right|\right]<+\infty \right\}} ,
    • { n 1 ,   X n L 1 ( Ω , A , P ) } {\displaystyle \left\{\forall n\geq 1,\ X_{n}\in {\mathcal {L}}^{1}(\Omega ,{\mathcal {A}},\mathbb {P} )\right\}} ,
  • ou bien encore, puisque les X i {\displaystyle X_{i}} ont toutes même loi,
    • { X 1  est integrable } {\displaystyle \left\{X_{1}{\text{ est integrable}}\right\}} ,
    • { E [ | X 1 | ] < + } {\displaystyle \left\{\mathbb {E} \left[\left|X_{1}\right|\right]<+\infty \right\}} ,
    • { X 1 L 1 ( Ω , A , P ) } {\displaystyle \left\{X_{1}\in {\mathcal {L}}^{1}(\Omega ,{\mathcal {A}},\mathbb {P} )\right\}} .

Démonstration de la loi forte de Kolmogorov

1re étape de la démonstration : troncature

On suppose tout d'abord que les variables X n {\displaystyle X_{n}} sont centrées. On n'abandonnera cette hypothèse qu'à la toute dernière étape de la démonstration. On pose

X n = X n 1 | X n | n , {\displaystyle X_{n}^{\prime }=X_{n}\,1_{\left|X_{n}\right|\leq n},}

et

S n = X 1 + X 2 + + X n . {\displaystyle S_{n}^{\prime }=X_{1}^{\prime }+X_{2}^{\prime }+\cdots +X_{n}^{\prime }.}

Dans cette section on démontre que

Proposition 1. — Soit une suite ( X n ) n 1 {\displaystyle \left(X_{n}\right)_{n\geq 1}} de variables aléatoires indépendantes et de même loi, intégrables. Alors (la loi forte des grands nombres)

P ( ω Ω   |   lim n S n ( ω ) n = 0 ) = 1. {\displaystyle \mathbb {P} \left(\omega \in \Omega \ \left|\ \lim _{n}{\tfrac {S_{n}(\omega )}{n}}=0\right.\right)=1.}
est équivalente à
P ( ω Ω   |   lim n S n ( ω ) n = 0 ) = 1. {\displaystyle \mathbb {P} \left(\omega \in \Omega \ \left|\ \lim _{n}{\tfrac {S_{n}^{\prime }(\omega )}{n}}=0\right.\right)=1.}
Démonstration

Posons

A n = { ω Ω | X n ( ω ) X n ( ω ) } {\displaystyle A_{n}=\left\{\omega \in \Omega \,\left|\,X_{n}(\omega )\neq X_{n}^{\prime }(\omega )\right.\right\}}

Alors

n 1 P ( A n ) = n 1 P ( X n X n ) = n 1 P ( | X n | > n ) = n 1 P ( | X 1 | > n ) = n 1 E [ 1 | X 1 | > n ] = E [ n 1 1 | X 1 | > n ] , {\displaystyle {\begin{aligned}\sum _{n\geq 1}\,\mathbb {P} \left(A_{n}\right)&=\sum _{n\geq 1}\,\mathbb {P} \left(X_{n}\neq X_{n}^{\prime }\right)\\&=\sum _{n\geq 1}\,\mathbb {P} \left(\left|X_{n}\right|>n\right)\\&=\sum _{n\geq 1}\,\mathbb {P} \left(\left|X_{1}\right|>n\right)\\&=\sum _{n\geq 1}\,\mathbb {E} \left[1_{\left|X_{1}\right|>n}\right]\\&=\mathbb {E} \left[\sum _{n\geq 1}\,1_{\left|X_{1}\right|>n}\right],\end{aligned}}}

la 3e égalité car X 1 {\displaystyle X_{1}} et X n {\displaystyle X_{n}} ont même loi, la dernière égalité en vertu du Théorème de convergence monotone pour les séries à termes positifs. Notons que la fonction ϕ {\displaystyle \phi } définie pour x 0 {\displaystyle x\geq 0} par

ϕ ( x ) = n 1 1 x > n {\displaystyle \phi (x)=\sum _{n\geq 1}\,1_{x>n}}

satisfait, pour x 0 {\displaystyle x\geq 0} ,

ϕ ( x ) = x 1 x . {\displaystyle \phi (x)=\lceil x\rceil -1\leq x.}

Ainsi

n 1 P ( A n ) = E [ n 1 1 | X 1 | > n ] = E [ ϕ ( | X 1 | ) ] E [ | X 1 | ] < + . {\displaystyle {\begin{aligned}\sum _{n\geq 1}\,\mathbb {P} \left(A_{n}\right)&=\mathbb {E} \left[\sum _{n\geq 1}\,1_{\left|X_{1}\right|>n}\right]\\&=\mathbb {E} \left[\phi \left(\left|X_{1}\right|\right)\right]\\&\leq \mathbb {E} \left[\left|X_{1}\right|\right]<+\infty .\end{aligned}}}

En vertu du lemme de Borel-Cantelli, il suit que

1 = P ( ( lim sup A n ) c ) . {\displaystyle 1=\mathbb {P} \left(\left(\limsup A_{n}\right)^{c}\right).}

On note

Ω ^ = ( lim sup A n ) c = { ω Ω | { n 1 | X n ( ω ) X n ( ω ) }  est un ensemble fini } , Ω ~ = { ω Ω | lim n   n 1 ( S n ( ω ) S n ( ω ) )   = 0 } Ω 1 = { ω Ω | lim n   n 1 S n ( ω )   = 0 } Ω 2 = { ω Ω | lim n   n 1 S n ( ω )   = 0 } {\displaystyle {\begin{aligned}{\hat {\Omega }}&=\left(\limsup A_{n}\right)^{c}\\&=\left\{\omega \in \Omega \,|\,\left\{n\geq 1\,|\,X_{n}(\omega )\neq X_{n}^{\prime }(\omega )\right\}{\text{ est un ensemble fini}}\right\},\\{\tilde {\Omega }}&=\left\{\omega \in \Omega \,|\,\lim _{n}\ n^{-1}\,\left(S_{n}(\omega )-S_{n}^{\prime }(\omega )\right)\ =0\right\}\\\Omega _{1}&=\left\{\omega \in \Omega \,|\,\lim _{n}\ n^{-1}\,S_{n}(\omega )\ =0\right\}\\\Omega _{2}&=\left\{\omega \in \Omega \,|\,\lim _{n}\ n^{-1}\,S_{n}^{\prime }(\omega )\ =0\right\}\end{aligned}}}

et on remarque que si ω Ω ^ {\displaystyle \omega \in {\hat {\Omega }}} , la série

k 1 ( X k ( ω ) X k ( ω ) ) {\displaystyle \sum _{k\geq 1}\left(X_{k}(\omega )-X_{k}^{\prime }(\omega )\right)}

est une série convergente, puisque, en dehors d'un nombre fini d'entre eux, tous ses termes sont nuls. Ainsi la suite des sommes partielles,

k = 1 n ( X k ( ω ) X k ( ω ) ) = S n ( ω ) S n ( ω ) , {\displaystyle \sum _{k=1}^{n}\left(X_{k}(\omega )-X_{k}^{\prime }(\omega )\right)=S_{n}(\omega )-S_{n}^{\prime }(\omega ),}

est une suite convergente, donc bornée, ce qui entraîne que

lim n   S n ( ω ) S n ( ω ) n   = 0. {\displaystyle \lim _{n}\ {\frac {S_{n}(\omega )-S_{n}^{\prime }(\omega )}{n}}\ =0.}

Autrement dit, en vertu du lemme de Borel-Cantelli, dont les hypothèses ont été vérifiées lors de la première partie de cette démonstration,

  P ( Ω ^ ) = 1. {\displaystyle \ \mathbb {P} \left({\hat {\Omega }}\right)=1.}

De plus, les quelques lignes qui précèdent montrent que

  Ω ^ Ω ~ , {\displaystyle \ {\hat {\Omega }}\subset {\tilde {\Omega }},}

et il suit donc que

  P ( Ω ~ ) = 1. {\displaystyle \ \mathbb {P} \left({\tilde {\Omega }}\right)=1.}

Par ailleurs, il est clair que

Ω ~ Ω 1 Ω 2  et  Ω ~ Ω 2 Ω 1   . {\displaystyle {\tilde {\Omega }}\cap \Omega _{1}\subset \Omega _{2}{\text{ et }}{\tilde {\Omega }}\cap \Omega _{2}\subset \Omega _{1}\ .}

On a donc bien

{ P ( Ω 1 ) = 1 } { P ( Ω 2 ) = 1 } , {\displaystyle \left\{\mathbb {P} \left(\Omega _{1}\right)=1\right\}\Leftrightarrow \left\{\mathbb {P} \left(\Omega _{2}\right)=1\right\},}

puisque, par exemple,

{ P ( Ω ~ ) = 1   et   P ( Ω 1 ) = 1 } { P ( Ω ~ Ω 1 ) = 1 } . {\displaystyle \left\{\mathbb {P} \left({\tilde {\Omega }}\right)=1\ {\textrm {et}}\ \mathbb {P} \left(\Omega _{1}\right)=1\right\}\Rightarrow \left\{\mathbb {P} \left({\tilde {\Omega }}\cap \Omega _{1}\right)=1\right\}.}

Dans les sections suivantes on va donc démontrer que

P ( ω Ω   |   lim n S n ( ω ) n = 0 ) = 1. {\displaystyle \mathbb {P} \left(\omega \in \Omega \ \left|\ \lim _{n}{\tfrac {S_{n}^{\prime }(\omega )}{n}}=0\right.\right)=1.}

L'idée est que plus les variables concernées sont intégrables, i.e. plus la queue de distribution P ( | X 1 E ( X 1 ) | x ) {\displaystyle \mathbb {P} \left(\left|X_{1}-\mathbb {E} (X_{1})\right|\geq x\right)} décroît rapidement, plus il est facile de démontrer la loi forte des grands nombres à l'aide du lemme de Borel-Cantelli. Ainsi il est facile de démontrer une forme affaiblie de la loi forte des grands nombres, par exemple sous l'hypothèse que les variables X n {\displaystyle X_{n}} sont indépendantes, identiquement distribuées et bornées, auquel cas P ( | X 1 E ( X 1 ) | x ) {\displaystyle \mathbb {P} \left(\left|X_{1}-\mathbb {E} (X_{1})\right|\geq x\right)} est nulle pour x {\displaystyle x} assez grand, ou bien sous l'hypothèse, moins brutale, que les variables X n {\displaystyle X_{n}} sont indépendantes et identiquement distribuées et possèdent un moment d'ordre 4, auquel cas

P ( | X 1 E ( X 1 ) | x ) = O ( x 4 ) {\displaystyle \mathbb {P} \left(\left|X_{1}-\mathbb {E} (X_{1})\right|\geq x\right)={\mathcal {O}}\left(x^{-4}\right)} .

Ici, en tronquant les X n {\displaystyle X_{n}} , Kolmogorov s'est ramené à des variables X n {\displaystyle X_{n}^{\prime }} bornées et indépendantes, mais qui n'ont pas même loi.

2e étape de la démonstration : recentrage

Les X k {\displaystyle X_{k}} ont beau être centrées, cela n'entraîne pas que les X k {\displaystyle X_{k}^{\prime }} soient centrées, sauf si on suppose, par exemple, que les X k {\displaystyle X_{k}} sont symétriques, c'est-à-dire sauf si X k {\displaystyle X_{k}} a même loi que X k {\displaystyle -X_{k}} . Par exemple, si f X 1 ( x ) = e x 1 1 [ 1 , + [ ( x ) {\displaystyle f_{X_{1}}(x)=e^{-x-1}1_{[-1,+\infty [}(x)} , alors, dès que n 1 , {\displaystyle n\geq 1,} X k {\displaystyle X_{k}^{\prime }} n'est pas centrée. Il est commode, pour la suite, de centrer les X k {\displaystyle X_{k}^{\prime }}  : on pose

Z k = X k E [ X k ] , {\displaystyle Z_{k}=X_{k}^{\prime }-\mathbb {E} \left[X_{k}^{\prime }\right],}

et

C n = Z 1 + Z 2 + + Z n . {\displaystyle C_{n}=Z_{1}+Z_{2}+\cdots +Z_{n}.}

Alors

Proposition 2. — Soit une suite ( X n ) n 1 {\displaystyle \left(X_{n}\right)_{n\geq 1}} de variables aléatoires indépendantes et de même loi, intégrables. Alors

P ( ω Ω   |   lim n S n ( ω ) n = 0 ) = 1 {\displaystyle \mathbb {P} \left(\omega \in \Omega \ \left|\ \lim _{n}{\tfrac {S_{n}^{\prime }(\omega )}{n}}=0\right.\right)=1}
est équivalent à
P ( ω Ω   |   lim n C n ( ω ) n = 0 ) = 1. {\displaystyle \mathbb {P} \left(\omega \in \Omega \ \left|\ \lim _{n}{\tfrac {C_{n}(\omega )}{n}}=0\right.\right)=1.}
Démonstration

Un calcul simple donne que

S n ( ω ) n C n ( ω ) n = E [ X 1 ] + E [ X 2 ] + + E [ X n ] n , {\displaystyle {\begin{aligned}{\frac {S_{n}^{\prime }(\omega )}{n}}-{\frac {C_{n}(\omega )}{n}}&={\frac {\mathbb {E} \left[X_{1}^{\prime }\right]+\mathbb {E} \left[X_{2}^{\prime }\right]+\dots +\mathbb {E} \left[X_{n}^{\prime }\right]}{n}},\end{aligned}}}

la différence ne dépendant pas de ω {\displaystyle \omega } (n'étant pas aléatoire). Par ailleurs

lim n E [ X n ] = lim n E [ X n 1 | X n | n ] = lim n E [ X 1 1 | X 1 | n ] = 0. {\displaystyle \lim _{n}\mathbb {E} \left[X_{n}^{\prime }\right]=\lim _{n}\mathbb {E} \left[X_{n}1_{\left|X_{n}\right|\leq n}\right]=\lim _{n}\mathbb {E} \left[X_{1}1_{\left|X_{1}\right|\leq n}\right]=0.}

En effet X 1 {\displaystyle X_{1}} et X n {\displaystyle X_{n}} ont même loi, et, d'autre part, pour tout ω Ω {\displaystyle \omega \in \Omega } ,

lim n X 1 ( ω ) 1 | X 1 ( ω ) | n = X 1 ( ω ) , | X 1 ( ω ) 1 | X 1 ( ω ) | n | | X 1 ( ω ) | . {\displaystyle {\begin{aligned}\lim _{n}X_{1}(\omega )1_{\left|X_{1}(\omega )\right|\leq n}&=X_{1}(\omega ),\\\left|X_{1}(\omega )1_{\left|X_{1}(\omega )\right|\leq n}\right|&\leq \left|X_{1}(\omega )\right|.\end{aligned}}}

On peut donc appliquer le Théorème de convergence dominée de Lebesgue, et obtenir

lim n E [ X n ] = lim n E [ X 1 1 | X 1 | n ] = E [ lim n X 1 1 | X 1 | n ] = E [ X 1 ] = 0. {\displaystyle \lim _{n}\mathbb {E} \left[X_{n}^{\prime }\right]=\lim _{n}\mathbb {E} \left[X_{1}1_{\left|X_{1}\right|\leq n}\right]=\mathbb {E} \left[\lim _{n}\,X_{1}1_{\left|X_{1}\right|\leq n}\right]=\mathbb {E} \left[X_{1}\right]=0.}

Finalement, on sait, en vertu du lemme de Cesàro, que la convergence d'une suite ( u n {\displaystyle u_{n}\rightarrow \ell } ) entraîne sa convergence en moyenne de Cesàro ( u 1 + u 2 + + u n n {\displaystyle {\frac {u_{1}+u_{2}+\dots +u_{n}}{n}}\rightarrow \ell } ), donc, pour tout ω Ω {\displaystyle \omega \in \Omega } ,

lim n S n ( ω ) n C n ( ω ) n = 0. {\displaystyle {\begin{aligned}\lim _{n}{\frac {S_{n}^{\prime }(\omega )}{n}}-{\frac {C_{n}(\omega )}{n}}&=0.\end{aligned}}}

La Proposition 2 est donc démontrée.

3e étape : Inégalité de Kolmogorov

C'est l'étape où Kolmogorov utilise l'hypothèse d'indépendance (et, sans le dire, la notion de temps d'arrêt). Par contre, l'Inégalité de Kolmogorov ne requiert pas des variables de même loi.

Inégalité de Kolmogorov. — Soit une suite ( Y n ) n 1 {\displaystyle \left(Y_{n}\right)_{n\geq 1}} de v.a.r. indépendantes et centrées. Posons

W n = Y 1 + Y 2 + + Y n . {\displaystyle W_{n}=Y_{1}+Y_{2}+\cdots +Y_{n}.}

Alors, pour tout x > 0 {\displaystyle x>0} ,

P ( sup { | W n | | n 1 } > x ) n 1 Var ( Y n ) x 2 . {\displaystyle \mathbb {P} \left(\sup \left\{\left|W_{n}\right|\,|\,n\geq 1\right\}>x\right)\leq {\frac {\sum _{n\geq 1}{\text{Var}}\left(Y_{n}\right)}{x^{2}}}.}
Démonstration

Si n 1 Var ( Y n ) = + {\displaystyle \textstyle \sum _{n\geq 1}{\text{Var}}\left(Y_{n}\right)=+\infty } , l'inégalité est vérifiée. Dans la suite, on suppose que

n 1 Var ( Y n ) < + . {\displaystyle \sum _{n\geq 1}{\text{Var}}\left(Y_{n}\right)<+\infty .}

On pose

σ = { +     si  { k 1   |   | W k | > x } = , inf { k 1   |   | W k | > x }     sinon. {\displaystyle \sigma =\left\{{\begin{array}{lll}+\infty &\ \ &{\text{si }}\left\{k\geq 1\ |\ \left|W_{k}\right|>x\right\}=\emptyset ,\\&&\\\inf \left\{k\geq 1\ |\ \left|W_{k}\right|>x\right\}&\ \ &{\text{sinon.}}\end{array}}\right.}

On remarque alors que, pour k n {\displaystyle k\leq n} ,

W k 1 σ = k     W n W k . {\displaystyle W_{k}1_{\sigma =k}\ \bot \ W_{n}-W_{k}.}

En effet W n W k = Y k + 1 + Y k + 2 + + Y n {\displaystyle W_{n}-W_{k}=Y_{k+1}+Y_{k+2}+\dots +Y_{n}} , alors que

{ σ = k } = { | W 1 | x , | W 2 | x , , | W k 1 | x  et  | W k | > x } = { | Y 1 | x ,   | Y 1 + Y 2 | x ,   ,   | Y 1 + + Y k 1 | x  et  | Y 1 + + Y k | > x } . {\displaystyle {\begin{aligned}\left\{\sigma =k\right\}&=\left\{\left|W_{1}\right|\leq x,\left|W_{2}\right|\leq x,\dots ,\left|W_{k-1}\right|\leq x{\text{ et }}\left|W_{k}\right|>x\right\}\\&=\left\{\left|Y_{1}\right|\leq x,\ \left|Y_{1}+Y_{2}\right|\leq x,\ \dots ,\ \left|Y_{1}+\dots +Y_{k-1}\right|\leq x{\text{ et }}\left|Y_{1}+\dots +Y_{k}\right|>x\right\}.\end{aligned}}}

Ainsi pour deux boréliens quelconques A {\displaystyle A} et B {\displaystyle B} , les deux évènements

{ W k 1 σ = k A }  et  { W n W k B } {\displaystyle \left\{W_{k}1_{\sigma =k}\in A\right\}{\text{ et }}\left\{W_{n}-W_{k}\in B\right\}}

appartiennent aux tribus σ ( Y 1 , Y 2 , , Y k ) {\displaystyle \sigma \left(Y_{1},Y_{2},\dots ,Y_{k}\right)} et σ ( Y k + 1 , Y k + 2 , , Y n ) {\displaystyle \sigma \left(Y_{k+1},Y_{k+2},\dots ,Y_{n}\right)} , respectivement. Ils sont donc indépendants en vertu du lemme de regroupement, ce qui implique bien W k 1 σ = k     W n W k {\displaystyle W_{k}1_{\sigma =k}\ \bot \ W_{n}-W_{k}} . On a

k = 1 n Var ( Y k ) = Var ( W n )   =   E [ W n 2 ] E [ W n 2 1 σ < + ] = k 1   E [ W n 2   1 σ = k ] k = 1 n   E [ W n 2 1 σ = k ] = k = 1 n   E [ ( W n W k + W k ) 2 1 σ = k ] k = 1 n   E [ W k 2 1 σ = k ] + 2 E [ W n W k ] E [ W k 1 σ = k ] = k = 1 n   E [ W k 2 1 σ = k ] k = 1 n   E [ x 2 1 σ = k ] = x 2 P ( σ n ) , {\displaystyle {\begin{aligned}\sum _{k=1}^{n}\,{\text{Var}}\left(Y_{k}\right)&={\text{Var}}\left(W_{n}\right)\ =\ \mathbb {E} \left[W_{n}^{2}\right]\\&\geq \mathbb {E} \left[W_{n}^{2}1_{\sigma <+\infty }\right]\\&=\sum _{k\geq 1}\ \mathbb {E} \left[W_{n}^{2}\ 1_{\sigma =k}\right]\\&\geq \sum _{k=1}^{n}\ \mathbb {E} \left[W_{n}^{2}1_{\sigma =k}\right]\\&=\sum _{k=1}^{n}\ \mathbb {E} \left[\left(W_{n}-W_{k}+W_{k}\right)^{2}1_{\sigma =k}\right]\\&\geq \sum _{k=1}^{n}\ \mathbb {E} \left[W_{k}^{2}1_{\sigma =k}\right]+2\mathbb {E} \left[W_{n}-W_{k}\right]\mathbb {E} \left[W_{k}1_{\sigma =k}\right]\\&=\sum _{k=1}^{n}\ \mathbb {E} \left[W_{k}^{2}1_{\sigma =k}\right]\\&\geq \sum _{k=1}^{n}\ \mathbb {E} \left[x^{2}1_{\sigma =k}\right]\\&=x^{2}\mathbb {P} \left(\sigma \leq n\right),\end{aligned}}}

où la troisième inégalité s'obtient en développant le carré en deux termes carrés (dont l'un est supprimé pour minorer l'expression précédente) et un double produit (de deux variables indépendantes, en vertu de W k 1 σ = k     W n W k {\displaystyle W_{k}1_{\sigma =k}\ \bot \ W_{n}-W_{k}} ). L'égalité suivante tient à ce que W n W k {\displaystyle W_{n}-W_{k}} est centrée (comme somme de v.a. centrées), et la dernière inégalité découle de la définition du temps d'arrêt σ {\displaystyle \sigma }  : par définition, au temps σ {\displaystyle \sigma } , on a W σ > x {\displaystyle W_{\sigma }>x} . En faisant tendre n {\displaystyle n} vers l'infini on obtient

k 1 Var ( Y k ) x 2   P ( σ < + ) , = x 2   P ( { k 1   |   | W k | > x } ) , = x 2   P ( sup { | W n | | n 1 } > x ) , {\displaystyle {\begin{aligned}\sum _{k\geq 1}\,{\text{Var}}\left(Y_{k}\right)&\geq x^{2}\ \mathbb {P} \left(\sigma <+\infty \right),\\&=x^{2}\ \mathbb {P} \left(\left\{k\geq 1\ |\ \left|W_{k}\right|>x\right\}\neq \emptyset \right),\\&=x^{2}\ \mathbb {P} \left(\sup \left\{\left|W_{n}\right|\,|\,n\geq 1\right\}>x\right),\end{aligned}}}

C.Q.F.D.

4e étape : Convergence de séries de variables aléatoires

L'inégalité de Kolmogorov est, avec le lemme de Borel-Cantelli, l'ingrédient essentiel de la preuve de la proposition suivante :

Proposition 3. — Soit une suite ( U n ) n 1 {\displaystyle \left(U_{n}\right)_{n\geq 1}} de variables aléatoires indépendantes et centrées. Si

n 1 Var ( U n ) < + , {\displaystyle \sum _{n\geq 1}{\text{Var}}\left(U_{n}\right)<+\infty ,}

alors la suite T n = U 1 + U 2 + + U n {\displaystyle T_{n}=U_{1}+U_{2}+\cdots +U_{n}} est presque sûrement convergente, ou bien, de manière équivalente, la série n 1   U n {\displaystyle \textstyle \sum _{n\geq 1}\ U_{n}} est presque sûrement convergente.

Démonstration

On pose

r M = k > M Var ( U k ) . {\displaystyle r_{M}=\sum _{k>M}{\text{Var}}\left(U_{k}\right).}

En vertu de la convergence de la série de terme général Var ( U k ) {\displaystyle {\text{Var}}\left(U_{k}\right)} , la suite ( r M ) M 1 {\displaystyle (r_{M})_{M\geq 1}} converge vers 0. On applique l'inégalité de Kolmogorov à la suite

Y n = U M + n . {\displaystyle Y_{n}=U_{M+n}.}

Avec les notations de l'inégalité de Kolmogorov, on a

W n = T M + n T M , k 1 Var ( Y k ) = r M . {\displaystyle {\begin{aligned}W_{n}&=T_{M+n}-T_{M},\\\sum _{k\geq 1}{\text{Var}}\left(Y_{k}\right)&=r_{M}.\end{aligned}}}

Donc l'inégalité de Kolmogorov nous donne, pour tout x > 0 {\displaystyle x>0} et M 1 {\displaystyle M\geq 1} ,

P ( sup n 1 | T M + n T M | > x ) r M x 2 . {\displaystyle \mathbb {P} \left(\sup _{n\geq 1}\left|T_{M+n}-T_{M}\right|>x\right)\leq {\frac {r_{M}}{x^{2}}}.}

Notons que la suite de variables aléatoires ( V M ) M 0 {\displaystyle (V_{M})_{M\geq 0}} , définie par

V M = sup n , m 1 | T M + n T M + m | = sup k , > M | T k T | , {\displaystyle {\begin{aligned}V_{M}&=\sup _{n,m\geq 1}\left|T_{M+n}-T_{M+m}\right|\\&=\sup _{k,\ell >M}\left|T_{k}-T_{\ell }\right|,\end{aligned}}}

est décroissante, puisque la suite d'ensembles ( C M ) M 0 {\displaystyle (C_{M})_{M\geq 0}} , définie par

C M = { | T k T |   |   k , > M } , {\displaystyle C_{M}=\{\left|T_{k}-T_{\ell }\right|\ |\ k,\ell >M\},}

est décroissante. De plus V M {\displaystyle V_{M}} satisfait à

V M sup n , m 1 ( | T M + n T M | + | T M T M + m | ) = 2 sup n 1 | T M + n T M | . {\displaystyle {\begin{aligned}V_{M}&\leq \sup _{n,m\geq 1}\left(\left|T_{M+n}-T_{M}\right|+\left|T_{M}-T_{M+m}\right|\right)\\&=2\sup _{n\geq 1}\left|T_{M+n}-T_{M}\right|.\end{aligned}}}

On en déduit que, pour tout k , M 1 {\displaystyle k,M\geq 1} ,

P ( V M > 1 k ) P ( sup n 1 | T M + n T M | > 1 2 k ) 4 k 2 r M . {\displaystyle {\begin{aligned}\mathbb {P} \left(V_{M}>{\tfrac {1}{k}}\right)&\leq \mathbb {P} \left(\sup _{n\geq 1}\left|T_{M+n}-T_{M}\right|>{\tfrac {1}{2k}}\right)\\&\leq 4k^{2}r_{M}.\end{aligned}}}

La suite ( r M ) M 1 {\displaystyle (r_{M})_{M\geq 1}} convergeant vers 0, il suit que, pour tout k 1 {\displaystyle k\geq 1} , on peut choisir M ( k ) > M ( k 1 ) {\displaystyle M(k)>M(k-1)} tel que

P ( V M ( k ) > 1 k ) 2 k . {\displaystyle \mathbb {P} \left(V_{M(k)}>{\tfrac {1}{k}}\right)\leq 2^{-k}.}

Ainsi

k P ( V M ( k ) > 1 k ) < + , {\displaystyle \sum _{k}\mathbb {P} \left(V_{M(k)}>{\tfrac {1}{k}}\right)<+\infty ,}

et le lemme de Borel-Cantelli entraîne que, presque sûrement, à partir d'un certain rang, V M ( k ) {\displaystyle V_{M(k)}} est majorée par 1 k , {\displaystyle {\tfrac {1}{k}},} et donc que V M ( k ) {\displaystyle V_{M(k)}} converge presque sûrement vers 0. Par ailleurs, on a vu plus haut que pour tout ω {\displaystyle \omega } , V M ( ω ) {\displaystyle V_{M}(\omega )} est une suite décroissante en M . {\displaystyle M.} Une suite décroissante possédant une sous-suite convergente est elle-même convergente, donc V M {\displaystyle V_{M}} converge presque sûrement vers 0. Or

{ lim M V M ( ω ) = 0 }   def.   { T n ( ω )  est une suite de Cauchy }   { T n ( ω )  est une suite convergente }   { n U n ( ω )   e s t   u n e   s e ´ r i e   c o n v e r g e n t e } {\displaystyle {\begin{aligned}\left\{\lim _{M}V_{M}(\omega )=0\right\}\ &{\stackrel {\scriptstyle {\text{def.}}}{\Leftrightarrow }}\ \left\{T_{n}(\omega ){\text{ est une suite de Cauchy}}\right\}\\&\Leftrightarrow \ \left\{T_{n}(\omega ){\text{ est une suite convergente}}\right\}\\&\Leftrightarrow \ \left\{\sum _{n}U_{n}(\omega )\ \mathrm {est~une~s{\acute {e}}rie~convergente} \right\}\end{aligned}}}

C.Q.F.D.

5e étape : Lemme de Kronecker

Lemme de Kronecker. — Soit une suite ( a n ) n 1 {\displaystyle \left(a_{n}\right)_{n\geq 1}} de nombres strictement positifs, décroissante vers 0. Si n a n u n {\displaystyle \textstyle \sum _{n}a_{n}u_{n}} est une série convergente, alors

lim n a n ( u 1 + u 2 + + u n ) = 0. {\displaystyle \lim _{n}a_{n}\left(u_{1}+u_{2}+\cdots +u_{n}\right)=0.}
Démonstration

La démonstration ci-dessous vaut seulement pour a n = n β {\displaystyle a_{n}=n^{-\beta }} , β > 0 {\displaystyle \beta >0} , mais la démonstration de la loi forte utilise le lemme de Kronecker pour a n = n 1 {\displaystyle a_{n}=n^{-1}} , β = 1 {\displaystyle \beta =1} . On peut trouver une démonstration générale du Lemme de Kronecker ici. Posons

b n = a n u n = n β u n    et    b = n 1 b n . {\displaystyle b_{n}=a_{n}u_{n}=n^{-\beta }u_{n}\ {\text{ et }}\ b=\sum _{n\geq 1}b_{n}.}

Alors

a n ( u 1 + u 2 + + u n ) + k = 1 n a k u k = n β k = 1 n u k + k = 1 n b k = k = 1 n ( k n ) β b k + k = 1 n b k = k = 1 n     b k k n 1 β x β 1 d x = k = 1 n     b k 0 1 β x β 1 1 k n x d x = 0 1 β x β 1 ( 1 k n x   b k ) d x {\displaystyle {\begin{aligned}-a_{n}\left(u_{1}+u_{2}+\cdots +u_{n}\right)+\sum _{k=1}^{n}a_{k}u_{k}&=-n^{-\beta }\sum _{k=1}^{n}u_{k}+\sum _{k=1}^{n}b_{k}\\&=-\sum _{k=1}^{n}\left({\tfrac {k}{n}}\right)^{\beta }b_{k}+\sum _{k=1}^{n}b_{k}\\&=\sum _{k=1}^{n}\ \ b_{k}\int _{\tfrac {k}{n}}^{1}\,\beta x^{\beta -1}\,dx\\&=\sum _{k=1}^{n}\ \ b_{k}\int _{0}^{1}\,\beta x^{\beta -1}1_{k\leq nx}\,dx\\&=\int _{0}^{1}\,\beta x^{\beta -1}\left(\sum _{1\leq k\leq nx}\ b_{k}\right)\,dx\end{aligned}}}

Comme la suite ( 1 k n   b k ) n {\displaystyle \left(\sum _{1\leq k\leq n}\ b_{k}\right)_{n}} est convergente, il existe un réel M {\displaystyle M} tel que

n 1 ,   | 1 k n   b k | M . {\displaystyle \forall n\geq 1,\ \left|\sum _{1\leq k\leq n}\ b_{k}\right|\leq M.}

Donc la suite de fonctions ( ϕ n ) n {\displaystyle (\phi _{n})_{n}} définies sur [ 0 , 1 ] {\displaystyle [0,1]} par

ϕ n ( x ) = 1 k n x   b k {\displaystyle \phi _{n}(x)=\sum _{1\leq k\leq nx}\ b_{k}}

est une suite de fonctions uniformément bornées par M {\displaystyle M} (en valeur absolue). De plus, pour tout x [ 0 , 1 ] {\displaystyle x\in [0,1]} ,

lim n ϕ n ( x ) = b   1 x > 0 . {\displaystyle \lim _{n}\phi _{n}(x)=b\ 1_{x>0}.}

Ainsi le théorème de convergence dominée de Lebesgue donne

lim n 0 1 β x β 1 ( 1 k n x   b k ) d x = b   0 1 β x β 1 1 x > 0 d x = b . {\displaystyle {\begin{aligned}\lim _{n}\int _{0}^{1}\,\beta x^{\beta -1}\left(\sum _{1\leq k\leq nx}\ b_{k}\right)\,dx&=b\ \int _{0}^{1}\,\beta x^{\beta -1}1_{x>0}\,dx\\&=b.\end{aligned}}}

Comme on a lim n k = 1 n b k = b {\displaystyle \lim _{n}\sum _{k=1}^{n}b_{k}=b} , en observant le second terme de l'identité

a n ( u 1 + u 2 + + u n ) + k = 1 n b k = 0 1 β x β 1 ( 1 k n x   b k ) d x , {\displaystyle -a_{n}\left(u_{1}+u_{2}+\cdots +u_{n}\right)+\sum _{k=1}^{n}b_{k}=\int _{0}^{1}\,\beta x^{\beta -1}\left(\sum _{1\leq k\leq nx}\ b_{k}\right)\,dx,}

démontrée plus haut, on en déduit que

lim n a n ( u 1 + u 2 + + u n ) = 0. {\displaystyle \lim _{n}a_{n}\left(u_{1}+u_{2}+\cdots +u_{n}\right)=0.}

C.Q.F.D.

Cette démonstration est empruntée à Sydney Resnik, A probability path.

Pour conclure sa démonstration, Kolmogorov utilise le lemme de Kronecker avec a n = 1 n {\displaystyle a_{n}={\tfrac {1}{n}}} , voir section suivante.

6e étape : Conclusion dans le cas de variables centrées

Lemme 1. — Avec les notations de l'étape « recentrage », on a

k 1   Var ( Z k k ) < + . {\displaystyle \sum _{k\geq 1}\ {\text{Var}}\left({\frac {Z_{k}}{k}}\right)<+\infty .}
Démonstration

Les calculs s'arrangent mieux si on remplace k {\displaystyle k} par k + 1 {\displaystyle k+1} au dénominateur. Pour k 2 {\displaystyle k\geq 2} on a

Var ( Z k k + 1 )   =   E [ X k 2 ] ( k + 1 ) 2     E [ X k ] 2 ( k + 1 ) 2 . {\displaystyle {\text{Var}}\left({\frac {Z_{k}}{k+1}}\right)\ =\ {\frac {\mathbb {E} \left[X_{k}^{\prime 2}\right]}{(k+1)^{2}}}\ -\ {\frac {\mathbb {E} \left[X_{k}^{\prime }\right]^{2}}{(k+1)^{2}}}.}

Comme lim n E [ X n ] = 0 {\displaystyle \lim _{n}\mathbb {E} \left[X_{n}^{\prime }\right]=0} ,

E [ X k ] 2 ( k + 1 ) 2 = o ( 1 k 2 ) , {\displaystyle {\frac {\mathbb {E} \left[X_{k}^{\prime }\right]^{2}}{(k+1)^{2}}}=o\left({\frac {1}{k^{2}}}\right),}

et la convergence de la série

k   Var ( Z k k + 1 ) {\displaystyle \sum _{k}\ {\text{Var}}\left({\frac {Z_{k}}{k+1}}\right)}

est équivalente à la convergence de la série

k   E [ X k 2 ] ( k + 1 ) 2 . {\displaystyle \sum _{k}\ {\frac {\mathbb {E} \left[X_{k}^{\prime 2}\right]}{(k+1)^{2}}}.}

Or

k 1   E [ X k 2 ] ( k + 1 ) 2 = k 1   ( k + 1 ) 2   E [ X 1 2 1 0 < | X 1 | k ] k 1   k k + 1 x 2   E [ X 1 2 1 0 < | X 1 | x ]   d x = 1 + x 2   E [ X 1 2 1 0 < | X 1 | x ]   d x = E [ X 1 2 1 0 < | X 1 |   1 + x 2   1 | X 1 | x   d x ] E [ X 1 2 1 0 < | X 1 |   | X 1 | +   x 2   d x ] = E [ X 1 2 1 0 < | X 1 | | X 1 | 1 ] = E [ | X 1 | ]   <   + , {\displaystyle {\begin{aligned}\sum _{k\geq 1}\ {\frac {\mathbb {E} \left[X_{k}^{\prime 2}\right]}{(k+1)^{2}}}&=\sum _{k\geq 1}\ (k+1)^{-2}\ \mathbb {E} \left[X_{1}^{2}\,1_{0<\left|X_{1}\right|\leq k}\right]\\&\leq \sum _{k\geq 1}\ \int _{k}^{k+1}x^{-2}\ \mathbb {E} \left[X_{1}^{2}\,1_{0<\left|X_{1}\right|\leq x}\right]\ dx\\&=\int _{1}^{+\infty }x^{-2}\ \mathbb {E} \left[X_{1}^{2}\,1_{0<\left|X_{1}\right|\leq x}\right]\ dx\\&=\mathbb {E} \left[X_{1}^{2}\,1_{0<\left|X_{1}\right|}\ \int _{1}^{+\infty }x^{-2}\ 1_{\left|X_{1}\right|\leq x}\ dx\right]\\&\leq \mathbb {E} \left[X_{1}^{2}\,1_{0<\left|X_{1}\right|}\ \int _{\left|X_{1}\right|}^{+\infty }\ x^{-2}\ dx\right]\\&=\mathbb {E} \left[X_{1}^{2}\,1_{0<\left|X_{1}\right|}\left|X_{1}\right|^{-1}\right]\\&=\mathbb {E} \left[\left|X_{1}\right|\right]\ <\ +\infty ,\end{aligned}}}

par hypothèse.

Du lemme 1 et de la Proposition 3, on déduit que, presque sûrement,

la série  k 1 Z k ( ω ) k  est convergente, {\displaystyle {\text{la série }}\sum _{k\geq 1}\,{\frac {Z_{k}(\omega )}{k}}{\text{ est convergente,}}}

puis, grâce au lemme de Kronecker, on déduit que, presque sûrement,

lim n   C n ( ω ) n   =   0 , {\displaystyle \lim _{n}\ {\frac {C_{n}(\omega )}{n}}\ =\ 0,}

ce qui est équivalent à la loi forte des grands nombres (pour des variables centrées), comme on l'a vu aux étapes « troncature » et « recentrage ».

7e étape : décentrage

Si on ne suppose plus les X n {\displaystyle X_{n}} centrées, mais seulement indépendantes, identiquement distribuées et intégrables, on pose

X ^ k = X k E [ X k ] ,     S ^ n = X ^ 1 + X ^ 2 + + X ^ n , {\displaystyle {\hat {X}}_{k}=X_{k}-\mathbb {E} \left[X_{k}\right],\ \ {\hat {S}}_{n}={\hat {X}}_{1}+{\hat {X}}_{2}+\cdots +{\hat {X}}_{n},}

et, les X ^ n {\displaystyle {\hat {X}}_{n}} étant centrées, indépendantes, identiquement distribuées et intégrables, la conclusion des étapes précédentes est que

P ( ω Ω   |   lim n S ^ n ( ω ) n = 0 ) = 1. {\displaystyle \mathbb {P} \left(\omega \in \Omega \ \left|\ \lim _{n}{\frac {{\hat {S}}_{n}(\omega )}{n}}=0\right.\right)=1.}

Mais

S ^ n ( ω ) n = S n ( ω ) n E [ X 1 ] n = S n ( ω ) n     E [ X 1 ] . {\displaystyle {\begin{aligned}{\frac {{\hat {S}}_{n}(\omega )}{n}}&={\frac {S_{n}(\omega )-n\mathbb {E} \left[X_{1}\right]}{n}}\\&={\frac {S_{n}(\omega )}{n}}\ -\ \mathbb {E} \left[X_{1}\right].\end{aligned}}}

Donc

P ( ω Ω   |   lim n S ^ n ( ω ) n = 0 ) = P ( ω Ω   |   lim n S n ( ω ) n = E [ X 1 ] ) . {\displaystyle \mathbb {P} \left(\omega \in \Omega \ \left|\ \lim _{n}{\frac {{\hat {S}}_{n}(\omega )}{n}}=0\right.\right)=\mathbb {P} \left(\omega \in \Omega \ \left|\ \lim _{n}{\frac {S_{n}(\omega )}{n}}=\mathbb {E} \left[X_{1}\right]\right.\right).}

C.Q.F.D.

Réciproque

Supposons que l'ensemble Ωc défini par

Ω c = { ω Ω   |   S n ( ω ) n  est une suite convergente  } {\displaystyle \Omega _{c}=\left\{\omega \in \Omega \ \left|\ {\frac {S_{n}(\omega )}{n}}{\text{ est une suite convergente }}\right.\right\}}

est de probabilité 1. Notons ( ω ) {\displaystyle \ell (\omega )} la limite de la suite ci-dessus, lorsqu'elle est définie, i.e. lorsqu'ω appartient à Ωc. L'ensemble Ωc est inclus dans l'ensemble suivant

Ω 0 = { ω Ω   |   lim n | X n ( ω ) | n = 0 } {\displaystyle \Omega _{0}=\left\{\omega \in \Omega \ \left|\ \lim _{n}{\frac {|X_{n}(\omega )|}{n}}=0\right.\right\}}

puisque, lorsque ω appartient à Ωc, on a

X n ( ω ) n   =   S n ( ω ) n     n 1 n S n 1 ( ω ) n 1     ( ω ) ( 1 × ( ω ) ) = 0. {\displaystyle {\frac {X_{n}(\omega )}{n}}\ =\ {\frac {S_{n}(\omega )}{n}}\ -\ {\frac {n-1}{n}}\,{\frac {S_{n-1}(\omega )}{n-1}}\ \rightarrow \ \ell (\omega )-\left(1\times \ell (\omega )\right)=0.}

Ainsi, l'ensemble Ω0 lui aussi est de probabilité 1. Posons

A n = { ω Ω   |   | X n ( ω ) | > n } {\displaystyle A_{n}=\left\{\omega \in \Omega \ \left|\ |X_{n}(\omega )|>n\right.\right\}} .

La limite supérieure des An est disjointe de l'ensemble Ω0 , donc elle est de probabilité nulle. En vertu de la loi du zéro-un de Borel, on en déduit, puisque les événements An sont indépendants, que

+ > n 1 P ( | X n | > n ) . {\displaystyle +\infty >\sum _{n\geq 1}\mathbb {P} \left(|X_{n}|>n\right).}

Par ailleurs, en toute généralité, comme on l'a vu lors de la première étape,

n 1 P ( | X n | > n )   =   n 1 P ( | X 1 | > n )   =   E [ | X 1 | 1 ]     1 + E [ | X 1 | ] . {\displaystyle \sum _{n\geq 1}\mathbb {P} \left(|X_{n}|>n\right)\ =\ \sum _{n\geq 1}\mathbb {P} \left(|X_{1}|>n\right)\ =\ \mathbb {E} \left[\left\lceil |X_{1}|\right\rceil -1\right]\ \geq \ -1+\mathbb {E} \left[|X_{1}|\right].}

Notes et références

  1. Émile Borel, « Les probabilités dénombrables et leurs applications arithmétiques », Rendiconti del Circolo Matematico di Palermo, Circolo Matematico di Palermo, vol. 27, no 1,‎ , p. 247-271 (ISSN 0009-725X et 1973-4409, DOI 10.1007/BF03019651, lire en ligne).
  2. Classification et notation reprise de White (1984).

Voir aussi

Articles connexes

Références

  • (en) Halbert White, Asymptotic Theory for Econometricians, Orlando, Academic Press, , 228 p. (ISBN 978-0-12-746650-7, LCCN 83010010), p. 228
  • Sidney I. Resnick, A Probability Path [détail des éditions]

Liens externes

  • Le site officiel en l'honneur d'Andreï Kolmogorov
  • Un site sur son livre fondateur de la théorie moderne des probabilités, Grundbegriffe der Wahrscheinlichkeitsrechnung, 1933
  • La page de ce livre où apparait sa démonstration de la loi forte des grands nombres
  • Expériences numérique interactive en javascript, experiences.math.cnrs.fr
  • icône décorative Portail des probabilités et de la statistique