Desigualtat de Gibbs

Josiah Willard Gibbs

En teoria de la informació, la desigualtat de Gibbs és una declaració sobre l'entropia de la informació d'una distribució de probabilitat discreta. Moltes altres cotes en l'entropia de les distribucions de probabilitat deriven de la desigualtat de Gibbs, inclosa la desigualtat de Fano. Va ser presentada per primer cop per J. Willard Gibbs en el segle XIX.

Desigualtat de Gibbs

Sigui

P = { p 1 , , p n } {\displaystyle P=\{p_{1},\ldots ,p_{n}\}}

una distribució de probabilitat discreta. Llavors per qualsevol altra distribució de probabilitat

Q = { q 1 , , q n } {\displaystyle Q=\{q_{1},\ldots ,q_{n}\}}

La desigualtat següent entre quantitats positives (des de pi i qi és entre zero i un) controls:[1]:68

i = 1 n p i log p i i = 1 n p i log q i {\displaystyle -\sum _{i=1}^{n}p_{i}\log p_{i}\leq -\sum _{i=1}^{n}p_{i}\log q_{i}}

amb igualtat si i només si

p i = q i {\displaystyle p_{i}=q_{i}}

per tot i. En paraules, l'entropia de Shannon d'una distribució P és menor o igual a la seva entropia creuada amb qualsevol altra distribució Q.

La diferència entre dues quantitats és la divergència de Kullback-Leibler o l'entropia relativa, així doncs també es pot escriure la desigualtat com:[2]:34

D K L ( P Q ) i = 1 n p i log p i q i 0. {\displaystyle D_{\mathrm {KL} }(P\|Q)\equiv \sum _{i=1}^{n}p_{i}\log {\frac {p_{i}}{q_{i}}}\geq 0.}

Noti's que l'ús de logaritmes de base 2 és opcional i que permet referir-se a la quantitat en cada costat de la desigualtat com la quantitat d'informació en bits.

Demostració

Per simplicitat, s'utilitza el logaritme natural (ln), ja que

log a = ln a ln 2 , {\displaystyle \log a={\frac {\ln a}{\ln 2}},}

El logaritme en particular que s'utilitzi només escala la relació.

Sigui I {\displaystyle I} el conjunt de tots els índexs i {\displaystyle i} pels quals pi és diferent a zero. Llavors, com que ln x x 1 {\displaystyle \ln x\leq x-1} per tot x > 0, amb igualtat si i només si x=1, es té:

i I p i ln q i p i i I p i ( q i p i 1 ) {\displaystyle -\sum _{i\in I}p_{i}\ln {\frac {q_{i}}{p_{i}}}\geq -\sum _{i\in I}p_{i}\left({\frac {q_{i}}{p_{i}}}-1\right)} = i I q i + i I p i = i I q i + 1 0 {\displaystyle =-\sum _{i\in I}q_{i}+\sum _{i\in I}p_{i}=-\sum _{i\in I}q_{i}+1\geq 0}

L'última desigultat és una conseqüència del fet que pi i qi formen part d'una distribució de probabilitat. En particular, la suma de tots els valors diferents de zero és 1. Alguns termes no-zeros qi, tanmateix, poden haver estat exclosos ja que la tria d'índexs depèn dels termes pi diferents a zero. Per tant, la suma dels qi pot ser inferior a 1.

Fins aquí, en el conjunt d'índexs I {\displaystyle I} , es té:

i I p i ln q i p i 0 {\displaystyle -\sum _{i\in I}p_{i}\ln {\frac {q_{i}}{p_{i}}}\geq 0} ,

o equivalentment

i I p i ln q i i I p i ln p i {\displaystyle -\sum _{i\in I}p_{i}\ln q_{i}\geq -\sum _{i\in I}p_{i}\ln p_{i}} .

Tots dos sumatoris poden ser estesos a tots els índexs i = 1 , , n {\displaystyle i=1,\ldots ,n} , és a dir, incloent p i = 0 {\displaystyle p_{i}=0} , recordant que l'expressió p ln p {\displaystyle p\ln p} tendeix a 0 a mesura que p {\displaystyle p} tendeix a 0, i ( ln q ) {\displaystyle (-\ln q)} tendeix a {\displaystyle \infty } a mesura que q {\displaystyle q} tendeix a 0. S'arriba a

i = 1 n p i ln q i i = 1 n p i ln p i {\displaystyle -\sum _{i=1}^{n}p_{i}\ln q_{i}\geq -\sum _{i=1}^{n}p_{i}\ln p_{i}}

Per tal que hi hagi igualtat, cal que

  1. q i p i = 1 {\displaystyle {\frac {q_{i}}{p_{i}}}=1} per tot i I {\displaystyle i\in I} perquè apliqui l'igualtat ln q i p i = q i p i 1 {\displaystyle \ln {\frac {q_{i}}{p_{i}}}={\frac {q_{i}}{p_{i}}}-1} ,
  2. i i I q i = 1 {\displaystyle \sum _{i\in I}q_{i}=1} que significa que q i = 0 {\displaystyle q_{i}=0} si i I {\displaystyle i\notin I} , és a dir, q i = 0 {\displaystyle q_{i}=0} si p i = 0 {\displaystyle p_{i}=0} .

Això pot passar si i només si p i = q i {\displaystyle p_{i}=q_{i}} per i = 1 , , n {\displaystyle i=1,\ldots ,n} .

Demostracions alternatives

Alternativament, el resultat pot ser demostrat usant la desigualtat de Jensen, la desigualtat de la suma de logaritmes, o el fet que la divergència de Kullback-Leibler és una forma de divergència de Bregman. A continuació es mostra una demostració basada en la desigualtat de Jensen:

Com que el logaritme és una funció còncava, es té que:

i p i log q i p i log i p i q i p i = log i q i 0 {\displaystyle \sum _{i}p_{i}\log {\frac {q_{i}}{p_{i}}}\leq \log \sum _{i}p_{i}{\frac {q_{i}}{p_{i}}}=\log \sum _{i}q_{i}\leq 0}

On la primera desigualtat és deguda a la desigualtat de Jensen, i la darrera igualtat és deguda a la mateixa raó que es dona en la demostració principal, més amunt.

A més, com que log {\displaystyle \log } és estrictament còncava, per la condició d'igualtat de la desigualtat de Jensen es té igualtat com

q 1 p 1 = q 2 p 2 = = q n p n {\displaystyle {\frac {q_{1}}{p_{1}}}={\frac {q_{2}}{p_{2}}}=\cdots ={\frac {q_{n}}{p_{n}}}}

i

i q i = 1 {\displaystyle \sum _{i}q_{i}=1}

Suposi's que aquest ràtio és σ {\displaystyle \sigma } , llavors es té que

1 = i q i = i σ p i = σ {\displaystyle 1=\sum _{i}q_{i}=\sum _{i}\sigma p_{i}=\sigma }

On s'ha usat el fet que p , q {\displaystyle p,q} són distribucions de probabilitat. Per tant, la igualtat es dona quan p = q {\displaystyle p=q} .

Corol·lari

L'entropia de P {\displaystyle P} és fitada per:[1]:68

H ( p 1 , , p n ) log n . {\displaystyle H(p_{1},\ldots ,p_{n})\leq \log n.}

La demostració és trivial - agafi's q i = 1 / n {\displaystyle q_{i}=1/n} per tot i.

Vegeu també

  • Entropia d'informació

Referències

  1. 1,0 1,1 Pierre Bremaud. An Introduction to Probabilistic Modeling. Springer Science & Business Media, 6 December 2012. ISBN 978-1-4612-1046-7. 
  2. David J. C. MacKay. Information Theory, Inference and Learning Algorithms. Cambridge University Press, 2003. ISBN 978-0-521-64298-9.