Méthode de Stein

La méthode de Stein est une méthode générale en théorie des probabilités dont le but est de déterminer des bornes sur des distances entre deux lois selon une certaine divergence. Elle fut introduite par Charles Stein, qui la publia pour la première fois en 1972[1], dans le cas particulier de la distance uniforme entre la loi d'une somme de m {\displaystyle m} variables aléatoires dépendantes et la loi normale prouvant ainsi un théorème central limite et donnant une borne sur la vitesse de convergence.

Histoire

À la fin des années 1960, insatisfait des preuves alors connues d'un théorème central limite spécifique, Charles Stein développa une nouvelle manière de démontrer ce théorème dans le cadre de ses cours de statistiques[2]. Son article original[1] fut présenté en 1970 à la sixième édition du Symposium de Berkeley et publié dans les actes de cette conférence.

Plus tard, son doctorant Louis Chen Hsiao Yun (en) modifia la méthode afin d'obtenir des résultats sur les approximations par la loi de Poisson[3], et par conséquent, la méthode de Stein appliquée au problème de l'approximation par cette loi est souvent appelée la «méthode de Chen-Stein».

De très importantes contributions à cette méthode sont probablement la monographie de Stein (1986)[4] où il présente sa vision de celle-ci et le concept de «randomisation auxiliaire», en particulier en utilisant les «paires échangeables (en)», ainsi que les articles de Barbour (1988)[5] et Götze (1991) [6], qui introduisirent l'interprétation dite «generator interpretation», ce qui rendit possible une facile adaptation de la méthode à biens d'autres lois de probabilité. Une autre contribution notoire est également l'article de Bolthausen (1984)[7] sur le théorème central limite appelé «combinatorial central limit theorem»[8].

Dans les années 1990, la méthode fut adaptée à diverses lois, telles que les processus gaussiens par Barbour (1990)[9], la loi binomiale par Ehm (1991) [10], les processus de Poisson par Barbour et Brown (1992)[11], la loi Gamma par Luk (1994) [12], et bien d'autres encore.

L'approche de base

Distances probabilistes

La Méthode de Stein est une manière de borner la distance entre deux lois de probabilités pour une certaine distance probabiliste (encore appelée « distance en probabilité », notion différant parfois de celle de distance au sens usuel des espaces métriques). Dans ce qui suit, le terme « distance » se référera à la notion de « distance statistique », sauf mention contraire où l'on parlera de « distance usuelle ».

Soit une distance de la forme ( 1.1 ) d ( P , Q ) = sup h H | h d P h d Q | = sup h H | E h ( W ) E h ( Z ) | {\displaystyle (1.1)\quad d(P,Q)=\sup _{h\in {\mathcal {H}}}\left|\int hdP-\int hdQ\right|=\sup _{h\in {\mathcal {H}}}\left|Eh(W)-Eh(Z)\right|}

P {\displaystyle P} et Q {\displaystyle Q} désignent des mesures de probabilité sur un même espace mesurable X {\displaystyle {\mathcal {X}}} , W {\displaystyle W} et Z {\displaystyle Z} sont des variables aléatoires respectivement de lois P {\displaystyle P} et Q {\displaystyle Q} , E {\displaystyle E} est l'espérance et H {\displaystyle {\mathcal {H}}} est un ensemble de fonctions de X {\displaystyle {\mathcal {X}}} à valeurs dans R {\displaystyle \mathbb {R} } . L'ensemble H {\displaystyle {\mathcal {H}}} doit être suffisamment grand pour que la définition précédente induise effectivement une distance.

Des exemples importants sont la distance en variation totale où H = { I ( A ) | A X mesurable } {\displaystyle {\mathcal {H}}=\left\{\mathbb {I} (A)|A\subset {\mathcal {X}}\,\,{\text{mesurable}}\right\}} ( I {\displaystyle \mathbb {I} } est la fonction indicatrice), la distance de Kolmogorov où H { I ( w 0 ) | w R } {\displaystyle {\mathcal {H}}\left\{\mathbb {I} (w\leq 0)|w\in \mathbb {R} \right\}} lorsque les mesures de probabilités sont prises sur R {\displaystyle \mathbb {R} } , et la distance de Wasserstein où l'espace mesurable est lui-même un espace métrique (au sens usuel) et H {\displaystyle {\mathcal {H}}} est l'ensemble des applications lipschitziennes de constante de Lipschitz 1. Il est cependant important de noter que toute distance ne peut être représentée sous la forme de ( 1.1 ) {\displaystyle (1.1)} .

Dans ce qui suit, P {\displaystyle P} désignera la loi que l'on cherche à approximer (par exemple, la loi d'une somme de variables aléatoires dépendantes) par Q {\displaystyle Q} , une loi connue et bien définie (par exemple, la loi normale).

L'opérateur de Stein

Nous considérons à présent que Q {\displaystyle Q} est de loi fixée; dans ce qui suit, nous considérons en particulier que Q {\displaystyle Q} est la loi normale centrée réduite, i.e. Z N ( 0 , 1 ) {\displaystyle Z\sim {\mathcal {N}}(0,1)} , ce qui constitue un exemple d'introduction classique.

Tout d'abord, nous requérons un opérateur A {\displaystyle {\mathcal {A}}} qui agit sur un ensemble de fonctions F A := { f : X R } {\displaystyle {\mathcal {F}}_{\mathcal {A}}:=\left\{f:{\mathcal {X}}\to \mathbb {R} \right\}} et qui caractérise la loi Q {\displaystyle Q} , dans le sens que l'équivalence suivante soit vraie:

( 2.1 ) E ( A f ) ( Z ) = 0  pour tout  f F Z N ( 0 , 1 ) . {\displaystyle (2.1)\quad E({\mathcal {A}}f)(Z)=0{\text{ pour tout }}f\in {\mathcal {F}}\quad \iff \quad Z\sim {\mathcal {N}}(0,1).}

Un tel opérateur est appelé «Opérateur de Stein» et une telle caractérisation une «caractérisation de Stein»[13].

Pour la loi normale centrée réduite, le Lemme de Stein (en) induit un tel opérateur:

( 2.2 ) E ( f ( Z ) Z f ( Z ) ) = 0  pour tout  f C b 1 Z N ( 0 , 1 ) {\displaystyle (2.2)\quad E\left(f'(Z)-Zf(Z)\right)=0{\text{ pour tout }}f\in C_{b}^{1}\quad \iff \quad Z\sim {\mathcal {N}}(0,1)}

C b 1 {\displaystyle C_{b}^{1}} désigne les fonctions absolument continues et d'espérance bornée. Donc nous pouvons ici prendre

( 2.3 ) ( A f ) ( x ) = f ( x ) x f ( x ) . {\displaystyle (2.3)\quad ({\mathcal {A}}f)(x)=f'(x)-xf(x).}

Il y a, en général, une infinité de tels opérateurs et lequel choisir reste une question ouverte. Cependant, il semblerait, pour bon nombre de lois, qu'il y en ait un «particulièrement efficace», comme ( 2.3 ) {\displaystyle (2.3)} pour la loi normale centrée réduite. Il existe différentes manières de construire des opérateurs de Stein (cf. Novak[14], ch. 12).

L'équation de Stein

P {\displaystyle P} est proche de Q {\displaystyle Q} pour la distance considérée si l'expression ( 1.1 ) {\displaystyle (1.1)} est proche de 0 {\displaystyle 0} . Le principe de la méthode de Stein repose sur le désir que l'opérateur de Stein montre un comportement similaire: si P = Q {\displaystyle P=Q} , alors E A f ( W ) = 0 {\displaystyle E{\mathcal {A}}f(W)=0} et, comme désiré, si P Q {\displaystyle P\approx Q} , nous avons E A f ( W ) 0. {\displaystyle E{\mathcal {A}}f(W)\approx 0.}

Il est généralement possible de trouver une fonction f = f h {\displaystyle f=f_{h}} solution de l'équation

( 3.1 ) ( A f ) ( x ) = h ( x ) E [ h ( Z ) ]  pour tout  x . {\displaystyle (3.1)\quad ({\mathcal {A}}f)(x)=h(x)-E[h(Z)]\qquad {\text{ pour tout }}x.}

On appelle ( 3.1 ) {\displaystyle (3.1)} «l'équation de Stein». Remplacer x {\displaystyle x} par W {\displaystyle W} et passer aux espérances (si cela est permis) en regard de W {\displaystyle W} , on obtient

( 3.2 ) E ( A f ) ( W ) = E [ h ( W ) ] E [ h ( Z ) ] . {\displaystyle (3.2)\quad E({\mathcal {A}}f)(W)=E[h(W)]-E[h(Z)].}

Tout le travail n'a d'intérêt que si le membre de gauche de l'équation ( 3.2 ) {\displaystyle (3.2)} est plus facile à borner que le membre de droite (qui n'est autre que l'argument du supremum de ( 1.1 ) {\displaystyle (1.1)} ).

Si Q {\displaystyle Q} est la loi normale centrée réduite et si nous utilisons ( 2.3 ) {\displaystyle (2.3)} , alors l'équation de Stein correspondante est

( 3.3 ) f ( x ) x f ( x ) = h ( x ) E [ h ( Z ) ] pour tout  x . {\displaystyle (3.3)\quad f'(x)-xf(x)=h(x)-E[h(Z)]\qquad {\text{pour tout }}x.}

Si la loi Q {\displaystyle Q} est de densité q {\displaystyle q} (par rapport à la mesure de Lebesgue) alors (Novak (2011), ch. 12)

( 3.4 ) ( A f ) ( x ) = f ( x ) + f ( x ) q ( x ) / q ( x ) . {\displaystyle (3.4)\quad ({\mathcal {A}}f)(x)=f'(x)+f(x)q'(x)/q(x).}

Résoudre l'équation de Stein

Méthodes analytiques. L'équation ( 3.3 ) {\displaystyle (3.3)} peut être résolue explicitement (cf. Chen, Goldstein & Shao[13], ch. 2, p. 14)

( 4.1 ) f ( x ) = e x 2 / 2 x [ h ( s ) E h ( Z ) ] e s 2 / 2 d s . {\displaystyle (4.1)\quad f(x)=e^{x^{2}/2}\int _{-\infty }^{x}[h(s)-Eh(Z)]e^{-s^{2}/2}ds.}

Méthodes des générateurs. Si A {\displaystyle {\mathcal {A}}} est le générateur d'un processus de Markov ( W t ) t 0 {\displaystyle (W_{t})_{t\geq 0}} (cf. Barbour (1988)[5], Götze (1991)[6]), alors la solution à ( 3.2 ) {\displaystyle (3.2)} est

( 4.2 ) f ( x ) = 0 [ E x h ( W t ) E h ( Z ) ] d t , {\displaystyle (4.2)\quad f(x)=-\int _{0}^{\infty }[E^{x}h(W_{t})-Eh(Z)]dt,}

E x {\displaystyle E^{x}} est l'espérance en regard du processus W {\displaystyle W} commençant en x {\displaystyle x} . Cependant, il faut prouver que la solution ( 4.2 ) {\displaystyle (4.2)} existe pour toutes les fonctions h H {\displaystyle h\in {\mathcal {H}}} désirées.

Propriétés de la solution de l'équation de Stein

Habituellement, on essaie de fournir des bornes pour la solution f {\displaystyle f} de l'équation de Stein, ainsi que pour ses dérivées (ou différences) en termes de h {\displaystyle h} et de ses dérivées (ou différences), c'est-à-dire des inégalités de la forme

( 5.1 ) | | D k f | | C k , l | | D l h | | , {\displaystyle (5.1)\quad ||D^{k}f||\leq C_{k,l}||D^{l}h||,}

pour certains k , l = 0 , 1 , 2 , {\displaystyle k,l=0,1,2,\dots } (typiquement, k l {\displaystyle k\geq l} ou k l 1 {\displaystyle k\geq l-1} , en fonction de la forme de l'opérateur de Stein), où {\displaystyle \Vert \cdot \Vert } est la norme supremum (en). Ici, D k {\displaystyle D^{k}} dénote l'opérateur différentiel, mais dans les configurations discrètes, cela renvoie généralement à l'opérateur de différence. Les constantes C k , l {\displaystyle C_{k,l}} peuvent contenir des paramètres de la loi Q {\displaystyle Q} . S'il y en a, ils sont souvent appelés «facteurs de Stein».

Dans le cas de ( 4.1 ) {\displaystyle (4.1)} , on peut montrer[13] pour la norme supremum que

( 5.2 ) | | f | | min { π / 2 | | h | | , 2 | | h | | } , | | f | | min { 2 | | h | | , 4 | | h | | } , | | f | | 2 | | h | | , {\displaystyle (5.2)\quad ||f||_{\infty }\leq \min\{{\sqrt {\pi /2}}||h||_{\infty },2||h'||_{\infty }\},\quad ||f'||_{\infty }\leq \min\{2||h||_{\infty },4||h'||_{\infty }\},\quad ||f''||_{\infty }\leq 2||h'||_{\infty },}

où la dernière borne est évidemment applicable uniquement si h {\displaystyle h} est différentiable (ou, au moins, lipschitzienne, ce qui, par exemple, n'est pas le cas pour la distance en variation totale ou la distance de Kolmogorov). Comme la loi normale centrée réduite n'a pas de paramètres particuliers, dans ce cas spécifique, les constantes n'en contiennent pas.

Si l'on parvient à obtenir des bornes de la forme générale ( 5.1 ) {\displaystyle (5.1)} , il est souvent possible de traiter de nombreuses distances probabilistes de manière générale.

Notes et références

  1. a et b C. Stein, « A bound for the error in the normal approximation to the distribution of a sum of dependent random variables », Proceedings of the Sixth Berkeley Symposium on Mathematical Statistics and Probability,‎ , p. 583–602 (MR 402873, zbMATH 0278.60026, lire en ligne)
  2. Charles Stein: The Invariant, the Direct and the "Pretentious" Entretien donné en 2003 à Singapour
  3. L.H.Y. Chen, « Poisson approximation for dependent trials », Annals of Probability, vol. 3, no 3,‎ , p. 534–545 (DOI 10.1214/aop/1176996359, JSTOR 2959474, MR 428387, zbMATH 0335.60016)
  4. Stein, C., Approximate computation of expectations, Hayward, Calif., Institute of Mathematical Statistics, coll. « Institute of Mathematical Statistics Lecture Notes, Monograph Series, 7 », (ISBN 0-940600-08-0)
  5. a et b Barbour A. D., « Stein's method and Poisson process convergence », J. Appl. Probab., Applied Probability Trust, vol. 25A,‎ , p. 175–184 (DOI 10.2307/3214155, JSTOR 3214155)
  6. a et b Götze F., « On the rate of convergence in the multivariate CLT », Annals of Probability, vol. 19, no 2,‎ , p. 724–739 (DOI 10.1214/aop/1176990448)
  7. Bolthausen E., « An estimate of the remainder in a combinatorial central limit theorem », Z. Wahrsch. Verw. Gebiete, vol. 66, no 3,‎ , p. 379–386 (DOI 10.1007/BF00533704)
  8. Hoeffding, W., « A Combinatorial Central Limit Theorem », Ann. Math. Statist., vol. 22, no 4,‎ , p. 558-566 (DOI 10.1214/aoms/1177729545, JSTOR 2236924)
  9. Barbour A. D., « Stein's method for diffusion approximations », Probab. Theory Related Fields, vol. 84, no 3,‎ , p. 297–322 (DOI 10.1007/BF01197887)
  10. Ehm, W., « Binomial approximation to the Poisson binomial distribution », Statistics & Probability Letters, vol. 11, no 1,‎ , p. 7–16 (DOI 10.1016/0167-7152(91)90170-V)
  11. Barbour, A. D. and Brown, T. C., « Stein's method and point process approximation », Stochastic Process. Appl., vol. 43, no 1,‎ , p. 9–31 (DOI 10.1016/0304-4149(92)90073-Y)
  12. Luk H. M., Stein's method for the gamma distribution and related statistical applications, Dissertation,
  13. a b et c Chen, L.H.Y., Goldstein, L., and Shao, Q.M, Normal approximation by Stein's method, www.springer.com, (ISBN 978-3-642-15006-7)
  14. Novak S.Y. (2011) Extreme value methods with applications to finance. London: CRC. (ISBN 978-1-4398-3574-6).
v · m
Index du projet probabilités et statistiques
Théorie des probabilités
Bases théoriques
Principes généraux
Convergence de lois
Calcul stochastique
Lois de probabilité
Lois continues
Lois discrètes
Mélange entre statistiques et probabilités
Interprétations de la probabilité
Théorie des statistiques
Statistiques descriptives
Bases théoriques
Tableaux
Visualisation de données
Paramètres de position
Paramètres de dispersion
Paramètres de forme
Statistiques inductives
Bases théoriques
Tests paramétriques
Tests non-paramétriques
Application
  • icône décorative Portail des probabilités et de la statistique