Matriz aleatoria

En teoría de la probabilidad y física matemática, una matriz aleatoria es una variable aleatoria en forma de matriz. Muchas propiedades importantes de sistemas físicos pueden representarse matemáticamente como problemas de matrices aleatorias, v.gr. sistemas caóticos o desordenados, sistemas cuánticos de muchos cuerpos, gravedad cuántica bidimensional, transiciones de fase en cromodinámica cuántica etc.

Introducción

Históricamente, la Teoría de Matrices Aleatorias (RMT por sus siglas en inglés) fue utilizada por Wigner para modelar el Hamiltoniano de un sistema cuántico excitado complejo. La idea básica consistía en describir las propiedades estadísticas de dicho sistema (tales como las fluctuaciones en las resonancias de dispersión en núcleos pesados), a partir de un ensemble de matrices hamiltonianas con elementos aleatorios cuya única restricción era respetar las simetrías inherentes al problema específico. A saber:

  1. Sistemas invariantes bajo inversión temporal y con simetría rotacional. El hamiltoniano de un tal sistema puede tomarse real y simétrico: H μ ν = ( H ) μ ν = H ν μ {\displaystyle H_{\mu \nu }=(H^{\dagger })_{\mu \nu }=H_{\nu \mu }} . Esta propiedad es preservada bajo cualquier transformación ortogonal de la base { | ν } ν = 1 N {\displaystyle \{|\nu \rangle \}_{\nu =1}^{N}} , lo que produce elementos matriciales independientes cuando los índices satisfacen μ ν {\displaystyle \mu \geq \nu } y, a su vez, una densidad de probabilidad factorizable P ( H μ ν ) P 1 μ ν d H μ ν {\displaystyle P(H_{\mu \nu })\sim P_{1}\prod _{\mu \geq \nu }\mathrm {d} H_{\mu \nu }} , donde P 1 = P 1 ( H μ ν ) {\displaystyle P_{1}=P_{1}(H_{\mu \nu })} es una función invariante bajo el mismo grupo de transformaciones. (Los sistemas cuánticos invariantes bajo inversión temporal y que no tienen invariancia rotacional, pero sí espín entero, también pertenecen a este ensemble).
  2. Sistemas sin invariancia bajo inversión temporal ni simetría rotacional. Los hamiltonianos de estos sistemas son hermíticos ( H μ ν = ( H ) μ ν {\displaystyle H_{\mu \nu }=(H^{\dagger })_{\mu \nu }} ) y esta propiedad, a su vez, es preservada bajo transformaciones unitarias de la base, lo que implica una densidad de probabilidad real en los elementos diagonales y compleja en los supradiagonales: P ( H μ ν ) μ = 1 N d H μ μ μ > ν d R e ( H μ ν ) d I m ( H μ ν ) {\displaystyle P(H_{\mu \nu })\sim \prod _{\mu =1}^{N}\mathrm {d} H_{\mu \mu }\prod _{\mu >\nu }\mathrm {d} {\mathfrak {Re}}(H_{\mu \nu })\,\mathrm {d} {\mathfrak {Im}}(H_{\mu \nu })} .
  3. Sistemas sin invariancia bajo inversión temporal ni rotacional, de espín semientero. En este caso, la matriz hamiltoniana puede escribirse en términos de cuaterniones.

En cada caso, los índices μ , ν { 1 , , N } {\displaystyle \mu ,\nu \in \{1,\dots ,N\}} se refieren a alguna base del espacio de Hilbert correspondiente, cuya dimensión se considera después en el límite N {\displaystyle N\longrightarrow \infty } .

Los ensembles clásicos

En términos generales, una matriz aleatoria es una función medible:

M : ( Ω , F , P ) ( M a t ( N , K ) , B , μ ) {\displaystyle {\mathcal {M}}:(\Omega ,{\mathcal {F}},\mathbb {P} )\longrightarrow \left(\mathrm {Mat} (N,\mathbb {K} ),{\mathcal {B}},\mu \right)}

de un espacio de probabilidad al grupo lineal de orden N {\displaystyle N} sobre un campo K {\displaystyle \mathbb {K} } ( R {\displaystyle \mathbb {R} } o C {\displaystyle \mathbb {C} } ) dotado con la medida de Lebesgue. La terna ( M a t ( N , K ) , B , μ ^ := P M 1 ) {\displaystyle \left(\mathrm {Mat} (N,\mathbb {K} ),{\mathcal {B}},{\hat {\mu }}:=\mathbb {P} \circ {\mathcal {M}}^{-1}\right)} es entonces un espacio de probabilidad. De satisfacerse las condiciones del teorema de Radon-Nikodým, la única función f : M a t ( N , K ) K {\displaystyle f:\mathrm {Mat} (N,\mathbb {K} )\longrightarrow \mathbb {K} } integrable tal que:

μ ^ ( B ) = B f d μ B B {\displaystyle {\hat {\mu }}(B)=\int _{B}f\,\mathrm {d} \mu \;\;\;\;\;\forall B\in {\mathcal {B}}}

es la densidad de probabilidad de la matriz aleatoria.

Cuando la medida de probabilidad μ ^ {\displaystyle {\hat {\mu }}} es preservada bajo la acción de un subgrupo G G L ( N , K ) {\displaystyle G\leq \mathrm {GL} (N,\mathbb {K} )} del grupo lineal general (dada por X A 1 X A A G , X M a t ( N , K ) {\displaystyle X\mapsto A^{-1}XA\;\;\;\forall A\in G,\;X\in \mathrm {Mat} (N,\mathbb {K} )} ), se dice que la matriz M {\displaystyle {\mathcal {M}}} es G {\displaystyle G-} invariante. Los ensembles clásicos se conforman por todas aquellas matrices aleatorias que son invariantes bajo los grupos clásicos de matrices O ( N ) , U ( N ) , U S p ( 2 N ) {\displaystyle \mathrm {O} (N),\mathrm {U} (N),\mathrm {USp} (2N')} (véase grupo lineal especial o grupo unitario especial). En estos casos, la densidad de probabilidad resulta ser Gaussiana:

f ( X ) = exp [ a t r ( X 2 ) + b t r ( X ) + c ] {\displaystyle f(X)=\exp \left[-a\,\mathrm {tr} \left(X^{2}\right)+b\,\mathrm {tr} \left(X\right)+c\right]}

donde a > 0 {\displaystyle a>0} y b , c R {\displaystyle b,c\in \mathbb {R} } . Por esta razón, a los ensembles clásicos también se les llama Gaussianos: GOE ( N ) , GUE ( N ) , GSE ( 2 N ) {\displaystyle {\textrm {GOE}}(N),{\textrm {GUE}}(N),{\textrm {GSE}}(2N')} , respectivamente.

Distribución de valores propios

Si X {\displaystyle X} es una matriz aleatoria de un ensemble Gaussiano y λ 1 λ N := max i = 1 , , N { λ i } {\displaystyle \lambda _{1}\leq \cdots \leq \lambda _{N}:=\max _{i=1,\dots ,N}\{\lambda _{i}\}} son sus eigenvalores ordenados de manera ascendente, entonces éstos tienen como densidad de probabilidad conjunta a la función:

φ β ( x 1 , , x N ) = C β 1 i < j N | x i x j | β i = 1 N e β x i 2 / 2 {\displaystyle \varphi _{\beta }(x_{1},\dots ,x_{N})=C_{\beta }\prod _{1\leq i<j\leq N}\left|x_{i}-x_{j}\right|^{\beta }\prod _{i=1}^{N}e^{-\beta x_{i}^{2}/2}}

donde C β {\displaystyle C_{\beta }} es una constante de normalización y β { 1 , 2 , 4 } {\displaystyle \beta \in \{1,2,4\}} es el índice de Dyson correspondiente al ensemble Gaussiano particular: ortogonal, unitario o simpléctico, respectivamente. Esta función se anula para los eventos { λ i = λ j } i j {\displaystyle \{\lambda _{i}=\lambda _{j}\}_{i\neq j}} , lo que se conoce como repulsión entre niveles. Ésta es de mayor intensidad conforme el índice de Dyson es mayor.

En el contexto de los experimentos nucleares, es difícil obtener información directamente de la función φ β {\displaystyle \varphi _{\beta }} . Típicamente, la comparación entre experimentación y teoría sobre las energías se hace ya sea con la función de correlación entre pares de niveles λ i {\displaystyle \lambda _{i}} , o bien con la separación entre niveles contiguos.

Partiendo de la integración de φ 1 {\displaystyle \varphi _{1}} en el caso N = 2 {\displaystyle N=2} , suponiendo que las entradas independientes de H μ ν {\displaystyle H_{\mu \nu }} tienen varianza común σ 2 {\displaystyle \sigma ^{2}} , y haciendo un cambio a coordenadas polares:

P 1 ( x 1 , x 2 ) d x 1 d x 2 = r 2 π 4 σ 2 exp ( r 2 8 σ 2 ) d r d θ {\displaystyle P_{1}(x_{1},x_{2})\,\mathrm {d} x_{1}\mathrm {d} x_{2}={\frac {r}{2\pi \cdot 4\sigma ^{2}}}\exp \left(-{\frac {r^{2}}{8\sigma ^{2}}}\right)\,\mathrm {d} r\,\mathrm {d} \theta }

Wigner pudo conjeturar, en 1957, que la distribución del espaciamiento r {\displaystyle r} entre valores propios contiguos, según el ensemble en cuestión (descrito por β { 1 , 2 , 4 } {\displaystyle \beta \in \{1,2,4\}} ), tenía la forma:

W β ( r ) = A β r β exp ( B β r 2 ) {\displaystyle W_{\beta }(r)=A_{\beta }r^{\beta }\exp \left(-B_{\beta }r^{2}\right)}

donde A β , B β {\displaystyle A_{\beta },B_{\beta }} son constantes y r {\displaystyle r} está expresado en múltiplos del espaciamiento promedio d {\displaystyle d} . Éste, a su vez, está dado por el recíproco de la densidad de niveles promedio ρ = ρ ( x ) {\displaystyle \rho =\rho (x)} , que describe la proporción de los N {\displaystyle N} valores propios en una región y {\displaystyle y} :

lim N E ( S ) N = 1 2 π σ 2 α β 4 σ 2 y 2 1 { | y | < 2 σ } d y {\displaystyle \lim _{N\to \infty }{\frac {\mathbb {E} (S)}{N}}={\frac {1}{2\pi \sigma ^{2}}}\int _{\alpha }^{\beta }{\sqrt {4\sigma ^{2}-y^{2}}}\,\mathbf {1} _{\{|y|<2\sigma \}}\,\mathrm {d} y}

donde S = S ( α , β ) ( H μ ν ) {\displaystyle S=S_{(\alpha ,\beta )}(H_{\mu \nu })} es el número de valores propios de H μ ν {\displaystyle H_{\mu \nu }} en el intervalo ( α N , β N ) {\displaystyle (\alpha {\sqrt {N}},\beta {\sqrt {N}})} (con α < β {\displaystyle \alpha <\beta } ) y 1 { | y | < 2 σ } {\displaystyle \mathbf {1} _{\{|y|<2\sigma \}}\,} indica que los valores propios λ i {\displaystyle \lambda _{i}} tienen una densidad de soporte compacto, con forma semicircular.

Referencias

  • M. L. Mehta. Random Matrices. Academic Press, Elsevier, 3 edition, 2004.
  • Weisstein, Eric W. «Random Matrix». En Weisstein, Eric W, ed. MathWorld (en inglés). Wolfram Research. 
  • Guhr, T., Müller–Groeling, A., & Weidenmüller, H. A. (1998). Random-matrix theories in quantum physics: common concepts. Physics Reports, 299(4-6), 189–425. doi:10.1016/s0370-1573(97)00088-4
  • H. A. Weidenmüller. Random Matrix Theory: introduction and overview. Proceedings of The IV Wigner Symposium, Guadalajara, México, 7-11 August (1995). Ed. Natig M. Atakishiyev, Thomas H. Seligman & Kurt Bernardo Wolf. World Scientific, 1996: 274-289.
Control de autoridades
  • Proyectos Wikimedia
  • Wd Datos: Q176604
  • Identificadores
  • LCCN: sh86001920
  • NKC: ph1086061
  • NLI: 987007543966505171
  • Wd Datos: Q176604