Estimació de màxima probabilitat a posteriori

Estimació Bayes d'una probabilitat binomial: mode A-posteriori, mediana i mitjana

En l'estadística bayesiana, una estimació de màxima probabilitat a posteriori (amb acrònim anglès MAP) és una estimació d'una quantitat desconeguda, que és igual al mode de la distribució posterior. El MAP es pot utilitzar per obtenir una estimació puntual d'una quantitat no observada sobre la base de dades empíriques. Està estretament relacionat amb el mètode d'estimació de màxima versemblança (ML), però utilitza un objectiu d'optimització augmentat que incorpora una distribució prèvia (que quantifica la informació addicional disponible a través del coneixement previ d'un esdeveniment relacionat) sobre la quantitat que es vol estimar. Per tant, l'estimació MAP es pot veure com una regularització de l'estimació de màxima probabilitat.[1]

Suposem que volem estimar un paràmetre de població no observat θ {\displaystyle \theta } sobre la base de les observacions x {\displaystyle x} . Deixar f {\displaystyle f} ser la distribució mostral de x {\displaystyle x} , i que f ( x θ ) {\displaystyle f(x\mid \theta )} és la probabilitat de x {\displaystyle x} quan el paràmetre de població subjacent és θ {\displaystyle \theta } . Llavors la funció: [2]

θ f ( x θ ) {\displaystyle \theta \mapsto f(x\mid \theta )\!}

es coneix com a funció de versemblança i estimació:

θ ^ M L E ( x ) = a r g m a x θ   f ( x θ ) {\displaystyle {\hat {\theta }}_{\mathrm {MLE} }(x)={\underset {\theta }{\operatorname {arg\,max} }}\ f(x\mid \theta )\!}

és l'estimació de la màxima probabilitat θ {\displaystyle \theta } .

Ara suposem que una distribució prèvia g {\displaystyle g} acabat θ {\displaystyle \theta } existeix. Això ens permet tractar θ {\displaystyle \theta } com a variable aleatòria com en l'estadística bayesiana. Podem calcular la distribució posterior de θ {\displaystyle \theta } utilitzant el teorema de Bayes: [3]

θ ^ M A P ( x ) = a r g m a x θ   f ( θ x ) = a r g m a x θ   f ( x θ ) g ( θ ) Θ f ( x ϑ ) g ( ϑ ) d ϑ = a r g m a x θ   f ( x θ ) g ( θ ) . {\displaystyle {\begin{aligned}{\hat {\theta }}_{\mathrm {MAP} }(x)&={\underset {\theta }{\operatorname {arg\,max} }}\ f(\theta \mid x)\\&={\underset {\theta }{\operatorname {arg\,max} }}\ {\frac {f(x\mid \theta )\,g(\theta )}{\displaystyle \int _{\Theta }f(x\mid \vartheta )\,g(\vartheta )\,d\vartheta }}\\&={\underset {\theta }{\operatorname {arg\,max} }}\ f(x\mid \theta )\,g(\theta ).\end{aligned}}\!}

Exemple: [4]

Sigui X una variable aleatòria contínua amb funció de densitat:

f X ( x ) = { 2 x , if  x  entre 0 i 1 0 , if  x  la resta {\displaystyle f_{X}(x)={\begin{cases}2x,&{\text{if }}x{\text{ entre 0 i 1}}\\0,&{\text{if }}x{\text{ la resta}}\end{cases}}} també se suposa que Y / X = x {\displaystyle Y/X=x} , llavors cal trobar la MAP estimada de X sabent que Y=3

Solució:

se sap Y/X = x, per tant:

P Y / X ( y / x ) = x ( 1 x ) y 1 {\displaystyle P_{Y/X}(y/x)=x(1-x)^{y-1}} substituint Y=3: P Y / X ( 3 / x ) = x ( 1 x ) 2 {\displaystyle P_{Y/X}(3/x)=x(1-x)^{2}} llavors cal maximitzar la funció: P Y / X f X ( x ) = x ( 1 x ) 2 2 x = 2 x 2 ( 1 x ) 2 {\displaystyle P_{Y/X}f_{X}(x)=x(1-x)^{2}*2x=2x^{2}(1-x)^{2}}

derivant l'expressió anterior i igualant a zero resulta : X M A P = 1 2 {\displaystyle X_{MAP}={\frac {1}{2}}}

Referències

  1. «Maximum A Posteriori (MAP) Estimation» (en anglès). https://www.probabilitycourse.com/.+[Consulta: 30 octubre 2022].
  2. Mao, Lei. «Maximum Likelihood Estimation VS Maximum A Posteriori Estimation» (en anglès). https://leimao.github.io,+02-07-2021.+[Consulta: 30 octubre 2022].
  3. «Maximum A Posteriori» (en anglès). https://web.stanford.edu.+[Consulta: 30 octubre 2022].
  4. «Maximum A Posteriori (MAP) Estimation» (en anglès). https://www.probabilitycourse.com.+[Consulta: 30 octubre 2022].