Test du multiplicateur de Lagrange

Si ce bandeau n'est plus pertinent, retirez-le. Cliquez ici pour en savoir plus.
Si ce bandeau n'est plus pertinent, retirez-le. Cliquez ici pour en savoir plus.

Cet article ne cite pas suffisamment ses sources ().

Si vous disposez d'ouvrages ou d'articles de référence ou si vous connaissez des sites web de qualité traitant du thème abordé ici, merci de compléter l'article en donnant les références utiles à sa vérifiabilité et en les liant à la section « Notes et références ».

En pratique : Quelles sources sont attendues ? Comment ajouter mes sources ?

Cet article est une ébauche concernant les probabilités et la statistique.

Vous pouvez partager vos connaissances en l’améliorant (comment ?) selon les recommandations des projets correspondants.

Test du multiplicateur de Lagrange
Type
Test statistiqueVoir et modifier les données sur Wikidata
Inventeurs
Calyampudi Radhakrishna Rao, Samuel D. Silvey (en)Voir et modifier les données sur Wikidata
Formule
log L θ | θ 0 [ 2 log L θ θ | θ 0 ] 1 log L θ | θ 0 {\displaystyle -\left.{\frac {\partial \log {\mathcal {L}}}{\partial {\vec {\theta }}'}}\right|_{{\vec {\theta }}_{0}}\left[\left.{\frac {\partial ^{2}\log {\mathcal {L}}}{\partial {\vec {\theta }}\partial {\vec {\theta }}'}}\right|_{\vec {\theta _{0}}}\right]^{-1}\left.{\frac {\partial \log {\mathcal {L}}}{\partial {\vec {\theta }}}}\right|_{{\vec {\theta }}_{0}}} Voir et modifier les données sur Wikidata

modifier - modifier le code - modifier WikidataDocumentation du modèle

Le test du multiplicateur de Lagrange (LM) ou test de score ou test de Rao est un principe général pour tester des hypothèses sur les paramètres dans un cadre de vraisemblance. L'hypothèse sous le test est exprimée comme une ou plusieurs contraintes sur les valeurs des paramètres. La statistique du test LM ne nécessite une maximisation que dans cet espace contraint des paramètres (en particulier si l'hypothèse à tester est de la forme θ = θ 0 {\displaystyle \theta =\theta _{0}} alors θ ^ = θ 0 {\displaystyle {\hat {\theta }}=\theta _{0}} ). Ceci contraste avec les tests de Wald, qui sont basés sur des maximisations dans l'espace non contraint, et les tests de rapport de vraisemblance qui nécessitent deux maximisations : une dans l'espace contraint et l'autre dans l'espace non contraint. Le nom du test est motivé par le fait qu'il peut être considéré comme tester si les multiplicateurs de Lagrange impliqués dans l'application des contraintes sont significativement différents de zéro. Le terme « multiplicateur de gamme » lui-même est un mot mathématique plus large inventé après le travail du dix-huitième siècle mathématicien Joseph-Louis Lagrange.

Le principe de test LM a trouvé une large applicabilité à de nombreux problèmes d'intérêt pour l'économétrie. De plus, l’idée de tester le coût de l’imposition des restrictions, bien qu’initialement formulées dans un cadre probabiliste, a été étendu à d'autres environnements d'estimation, y compris la méthode de moments et l'estimation robuste.

Test

On reprend l'estimateur du maximum de vraisemblance θ ^ {\displaystyle {\hat {\theta }}} (dans l'espace contraint), défini comme la valeur à laquelle la vraisemblance de θ {\displaystyle \theta } au vu des observations ( x 1 , , x i , , x n ) {\displaystyle (x_{1},\ldots ,x_{i},\ldots ,x_{n})} d'un n-échantillon indépendamment et identiquement distribué selon la loi D θ {\displaystyle {\mathcal {D}}_{\theta }} est maximale.

L ( x 1 , , x i , , x n ; θ ) = f ( x 1 ; θ ) × f ( x 2 ; θ ) × × f ( x n ; θ ) = i = 1 n f ( x i ; θ ) {\displaystyle {\mathcal {L}}(x_{1},\ldots ,x_{i},\ldots ,x_{n};\theta )=f(x_{1};\theta )\times f(x_{2};\theta )\times \ldots \times f(x_{n};\theta )=\prod _{i=1}^{n}f(x_{i};\theta )}

Le score, défini comme le gradient de la log-vraisemblance par rapport aux paramètres :

s ( θ ) log L ( x 1 , , x i , , x n ; θ ) θ {\displaystyle s(\theta )\equiv {\frac {\partial \log {\mathcal {L}}(x_{1},\ldots ,x_{i},\ldots ,x_{n};\theta )}{\partial \theta }}}

est d'espérance nulle autour de θ ^ {\displaystyle {\hat {\theta }}} sous l'hypothèse nulle (sous certaines hypothèse de régularité).

Plus précisément, s ( θ ^ ) {\displaystyle s({\hat {\theta }})} converge en loi vers une loi normale centrée, dont la variance est l'information de Fisher I ( θ ^ ) {\displaystyle {\mathcal {I}}({\hat {\theta }})} .

La statistique utilisée est :

S t s ( θ ^ ) I ( θ ^ ) 1 s ( θ ^ ) {\displaystyle S\equiv \!^{\operatorname {t} }s({\hat {\theta }}){\mathcal {I}}({\hat {\theta }})^{-1}s({\hat {\theta }})}

Sous l'hypothèse nulle, S suit asymptotiquement une loi du χ² dont le nombre de degrés de libertés est le nombre de contraintes imposées par l'hypothèse nulle (en particulier, lorsqu'elle est de la forme θ = θ 0 {\displaystyle \theta =\theta _{0}} ce nombre est la dimension de θ {\displaystyle \theta } ).

Si S prend des valeurs trop grandes, l'hypothèse nulle est rejetée.

v · m
Index du projet probabilités et statistiques
Théorie des probabilités
Bases théoriques
Principes généraux
Convergence de lois
Calcul stochastique
Lois de probabilité
Lois continues
Lois discrètes
Mélange entre statistiques et probabilités
Interprétations de la probabilité
Théorie des statistiques
Statistiques descriptives
Bases théoriques
Tableaux
Visualisation de données
Paramètres de position
Paramètres de dispersion
Paramètres de forme
Statistiques inductives
Bases théoriques
Tests paramétriques
Tests non-paramétriques
Application
  • icône décorative Portail des probabilités et de la statistique
  • icône décorative Portail de l’économie