Théorème de Lehmann-Scheffé

Cet article est une ébauche concernant les probabilités et la statistique.

Vous pouvez partager vos connaissances en l’améliorant (comment ?) selon les recommandations des projets correspondants.

Page d’aide sur l’homonymie

Ne doit pas être confondu avec Lemme de Scheffé.

Théorème de Lehman-Scheffé
Type
Nommé en référence à
Erich Leo Lehmann, Henry SchefféVoir et modifier les données sur Wikidata

modifier - modifier le code - modifier WikidataDocumentation du modèle

Le théorème de Lehmann-Scheffé a une importance particulière en statistiques puisqu'il permet de trouver des estimateurs sans biais optimaux qui ne peuvent pas être améliorés en termes de précision.

De tels estimateurs n'existent pas forcément mais si l'on dispose d'une statistique qui soit à la fois exhaustive et totale et d'un estimateur δ {\displaystyle \delta } qui soit sans biais alors l'estimateur augmenté θ ^ 1 = E ( θ ^ | S ) {\displaystyle {\hat {\theta }}_{1}=\mathbb {E} ({\hat {\theta }}|S)} est optimal et l'on ne peut pas trouver de meilleur estimateur sans biais.

Ce théorème nous donne donc une condition suffisante pour trouver un estimateur sans biais optimal. Il nous dit également que cet estimateur s'exprime comme une fonction de la statistique exhaustive totale S, c'est-à-dire de la forme g(S) où g est une fonction mesurable.

(On dit qu'une statistique est totale[1] si : E ( f ( s ( x ) ) ) = 0 {\displaystyle \mathbb {E} (f(s(x)))=0} implique f = 0 {\displaystyle f=0} presque partout.)

Énoncé

L'énoncé du théorème de Lehmann Sheffé est :

Soit X 1 , . . X n {\displaystyle X_{1},..X_{n}} iid avec une fonction de densité de probabilité donnée ou une fonction de masse discrète dépendant d'un paramètre θ {\displaystyle \theta } avec θ Θ R n {\displaystyle \theta \in \Theta \subseteq \mathbb {R} ^{n}} . Soit T = T ( X 1 , . . , X n ) {\displaystyle T=T(X_{1},..,X_{n})} une statistique exhaustive et complète pour θ {\displaystyle \theta } . Soit U = U ( T ) {\displaystyle U=U(T)} un estimateur non biaisé pour θ {\displaystyle \theta } (U dépend de T). Soit V a r θ ( U ) < , θ Θ {\displaystyle Var_{\theta }(U)<\infty ,\forall \theta \in \Theta }  :

1. U est le seul estimateur non-biaisé qui dépend de θ {\displaystyle \theta } .

2. V a r θ ( U ) < V a r θ ( Z ) {\displaystyle Var_{\theta }(U)<Var_{\theta }(Z)} uniformément sur θ {\displaystyle \theta } pour tout autre estimateur non-biaisé Z de θ {\displaystyle \theta } . Ce qui signifie que U est le UMVUE pour θ {\displaystyle \theta } et est unique.

Références

  1. Le terme de statistique complète est également parfois utilisé. cf Didier Dacunha-Castelle, Marie Duflo, Probabilités et statistique. Problèmes à temps fixe, tome 1, Masson (1994)
  • icône décorative Portail des probabilités et de la statistique