Zufallsmatrix

Eine Zufallsmatrix bezeichnet in der Stochastik eine matrixwertige Zufallsvariable (englisch Random Matrix). Ihre Verteilung nennt man zur Abgrenzung von den multivariaten Verteilungen eine matrixvariate Wahrscheinlichkeitsverteilung.

Zufallsmatrizen spielen eine wichtige Rolle in der statistischen sowie mathematischen Physik, insbesondere in der statistischen Mechanik. Aus historischer Sicht hat sich die Theorie aus dem Versuch entwickelt, Systeme mit vielen stochastischen aber miteinander agierenden Teilchen zu beschreiben. Viele der Grundlagen der Theorie stammen deshalb von mathematischen Physikern und viele Modelle haben eine physikalische Interpretation. Die ersten Arbeiten zum Thema Zufallsmatrizen stammen allerdings von dem Statistiker John Wishart.

Die Theorie der Zufallsmatrizen ist in der multivariaten Statistik relevant, wo man sie zur Analyse von Kovarianzmatrizen benötigt. Insbesondere im Zusammenhang mit hoch-dimensionalen Daten und spektralstatistischen Verfahren wie der Hauptkomponentenanalyse (PCA).

Zufallsmatrizen sind zu unterscheiden von der stochastischen Matrix.

Haarsches Maß und Weylsche Integralformel

Auf jeder Lie-Gruppe G {\displaystyle G} existiert ein eindeutiges, links-invariantes Maß μ L {\displaystyle \mu _{L}} , d. h. für jedes g G {\displaystyle g\in G} und jede Borel-messbare Menge S G {\displaystyle S\subseteq G} gilt μ L ( S g ) = μ L ( g ) {\displaystyle \mu _{L}(Sg)=\mu _{L}(g)} . Dieses Maß nennt man linkes Haarsches Maß und es ist eindeutig bis auf Multiplikation mit einer Konstanten.

Betrachtet man nun eine kompakte Lie-Gruppe G {\displaystyle G} , so existiert ein eindeutiges, linkes Haarsches Maß μ H {\displaystyle \mu _{H}} , welches zu gleich auch rechts-invariant und normalisiert ist, genannt das Haarsche Wahrscheinlichkeitsmaß auf G {\displaystyle G} . Das heißt für jedes g G {\displaystyle g\in G} und jede Borel-messbare Menge B G {\displaystyle B\subseteq G} gilt μ H ( B g ) = μ H ( g B ) = μ H ( g ) {\displaystyle \mu _{H}(Bg)=\mu _{H}(gB)=\mu _{H}(g)} .

Für kompakte Lie-Gruppen lässt sich mit Hilfe der Integralformel von Weyl eine Formel für die Wahrscheinlichkeitsdichte bezüglich der Eigenwerte finden. Als Beispiel sei G = U ( n ) {\displaystyle G=\mathbb {U} (n)} die unitäre Gruppe, die Eigenwerte sind von der Form e i ϕ 1 , , e i ϕ n {\displaystyle e^{i\phi _{1}},\dots ,e^{i\phi _{n}}} mit ϕ 1 , , ϕ n R {\displaystyle \phi _{1},\ldots ,\phi _{n}\in \mathbb {R} } . Weiter sei f {\displaystyle f} eine Klassenfunktion und T {\displaystyle T} der maximale Torus aller Diagonalmatrizen t = diag ( e i ϕ 1 , , e i ϕ n ) {\displaystyle t=\operatorname {diag} (e^{i\phi _{1}},\ldots ,e^{i\phi _{n}})} von U ( n ) {\displaystyle \mathbb {U} (n)} , Ad {\displaystyle \operatorname {Ad} } bezeichnet die adjungierte Darstellung und R {\displaystyle R} bezeichne das Wurzelsystem, dann gilt:[1]

det ( Id Ad G / T ( t 1 ) ) = α R ( 1 e α ) = j < k | e i ϕ k e i ϕ j | 2 {\displaystyle \det(\operatorname {Id} -\operatorname {Ad} _{G/T}(t^{-1}))=\prod \limits _{\alpha \in R}(1-e^{-\alpha })=\prod \limits _{j<k}|e^{i\phi _{k}}-e^{i\phi _{j}}|^{2}} ,

und somit kriegt man mit Hilfe von Weyl’s Integralformel ein Integral über den maximalen Torus T {\displaystyle T}

G f d g = 1 n ! T f ( t ) j < k | e i ϕ k e i ϕ j | 2 d t {\displaystyle \int _{G}f\,\mathrm {d} g={\frac {1}{n!}}\int _{T}f(t)\prod \limits _{j<k}|e^{i\phi _{k}}-e^{i\phi _{j}}|^{2}\mathrm {d} t} .

Definition

Eine formale mathematische Definition lautet:[2]

Sei M n {\displaystyle {\mathcal {M}}_{n}} der Raum der n × n {\displaystyle n\times n} -Matrizen über dem Körper K {\displaystyle K} mit einer σ-Algebra A {\displaystyle {\mathcal {A}}} und ( Ω , F , P ) {\displaystyle (\Omega ,{\mathcal {F}},\mathbb {P} )} ein Wahrscheinlichkeitsraum. Eine ( F , A ) {\displaystyle ({\mathcal {F}},{\mathcal {A}})} -messbare Funktion A : Ω M n {\displaystyle A\colon \Omega \to {\mathcal {M}}_{n}} heißt Zufallsmatrix.

Als σ {\displaystyle \sigma } -Algebra kann die borelsche σ-Algebra des euklidischen Umgebungsraumes der Mannigfaltigkeit M n {\displaystyle {\mathcal {M}}_{n}} verwendet werden. Eine Zufallsmatrix ist somit das matrixwertige Analogon zu einer Zufallsvariablen.

Zentrale Begriffe

Partitionsfunktion

Sei E {\displaystyle {\mathcal {E}}} ein Matrix-Raum (z. B. der hermiteschen n × n {\displaystyle n\times n} -Matrizen H n ( C ) := { X M n ( C ) : X = X } {\displaystyle {\mathcal {H}}_{n}(\mathbb {C} ):=\{X\in {\mathcal {M}}_{n}(\mathbb {C} ):X^{*}=X\}} ) und sei μ ( d M ) {\displaystyle \mu (\mathrm {d} M)} ein komplexes Maß auf diesem Raum, welches in der Regel nicht normalisiert ist. Dann nennt man das Integral

Z := E μ ( d M ) {\displaystyle Z:=\int _{\mathcal {E}}\mu (\mathrm {d} M)}

Partitionsfunktion und man erhält einen Erwartungswert zur Funktion f : E C {\displaystyle f:{\mathcal {E}}\to \mathbb {C} }

E [ f ( M ) ] := 1 Z E f ( M ) μ ( d M ) {\displaystyle \mathbb {E} [f(M)]:={\frac {1}{Z}}\int _{\mathcal {E}}f(M)\mu (\mathrm {d} M)}

Wignersche Matrix

Seien ( X i , j ) 1 i < j C {\displaystyle (X_{i,j})_{1\leq i<j}\in \mathbb {C} } und ( Y i , i ) 1 i R {\displaystyle (Y_{i,i})_{1\leq i}\in \mathbb {R} } i.i.d Zufallsvariablen mit gleichem Erwartungswert 0 {\displaystyle 0} sowie E [ X i , j 2 ] = 0 {\displaystyle \mathbb {E} [X_{i,j}^{2}]=0} und E [ | X i , j | 2 ] = 1 {\displaystyle \mathbb {E} [|X_{i,j}|^{2}]=1} . Man nennt eine Zufallsmatrix H n = ( h i , j ) 1 i , j n {\displaystyle H_{n}=(h_{i,j})_{1\leq i,j\leq n}} eine (komplexe) Wignersche-Matrix wenn sie hermitesch ist und folgendes gilt h i , j = { X i , j / n i < j Y i , i / n i = j {\displaystyle h_{i,j}={\begin{cases}X_{i,j}/{\sqrt {n}}&i<j\\Y_{i,i}/{\sqrt {n}}&i=j\\\end{cases}}} .

Die Matrix wird oft mit n 1 {\displaystyle {\sqrt {n}}^{-1}} skaliert. Manche Autoren definieren sie aber auch ohne Skalierung.

Sie ist ein wichtiger Typ von Zufallsmatrizen und benannt nach Eugene Wigner.

Wignersche Matrizen mit einer zugrundeliegenden Normalverteilung führen zu dem Begriff der gaußschen invarianten Ensembles. Allgemeine Wignersche Matrizen sind nicht invariant.

Das GUE erhält man, wenn zusätzlich E [ Y i , i 2 ] = 1 {\displaystyle \mathbb {E} [Y_{i,i}^{2}]=1} gilt und die Einträge normalverteilt sind. Das GOE erhält man wenn alle Einträge reell und normalverteilt sind und zusätzlich E [ Y i , i 2 ] = 2 {\displaystyle \mathbb {E} [Y_{i,i}^{2}]=2} gilt.

Invariante Ensembles

Zentrale Studienobjekte sind die invarianten Ensembles, welche durch die folgenden Maße auf dem entsprechenden Raum der Matrizen induziert werden:

P β n ( d A ) := 1 Z β , n e β 2 n Tr ( Q ( A ) ) d A {\displaystyle P_{\beta }^{n}(\mathrm {d} A):={\frac {1}{Z_{\beta ,n}}}e^{-{\frac {\beta }{2}}n\operatorname {Tr} (Q(A))}\mathrm {d} A}

wobei β {\displaystyle \beta } der Dyson-Index ist und Q ( A ) {\displaystyle Q(A)} das Potential. Man setzt an Q {\displaystyle Q} voraus, dass Q ( x ) {\displaystyle Q(x)\to \infty } genügend schnell, wenn x ± {\displaystyle x\to \pm \infty } , damit alle Momente existieren. In der Regel ist Q {\displaystyle Q} ein Polynom. Man erhält für

  • β = 1 {\displaystyle \beta =1} das orthogonale Ensemble (OE) auf dem Raum der n × n {\displaystyle n\times n} reellen symmetrischen Matrizen.
  • β = 2 {\displaystyle \beta =2} das unitäre Ensemble (UE) auf dem Raum der n × n {\displaystyle n\times n} hermiteschen Matrizen
  • β = 4 {\displaystyle \beta =4} das symplektische Ensemble (SE) auf dem Raum der n × n {\displaystyle n\times n} hermiteschen quaternionen Matrizen.

Die freie Energie der unitären Ensembles ist[3]

F n 0 = n 2 ln Z 2 , n = n 2 ln H n e n Tr Q ( M ) d M {\displaystyle F_{n}^{0}=-n^{-2}\ln Z_{2,n}=-n^{-2}\ln \int _{{\mathcal {H}}_{n}}e^{-n\operatorname {Tr} Q(M)}\mathrm {d} M}

wobei H n {\displaystyle {\mathcal {H}}_{n}} den Raum der hermiteschen Matrizen bezeichnet.

Mit Hilfe der weylschen Integralformel lässt sich zeigen, dass das kanonische (unnormalisierte) Haarsche Maß d U h {\displaystyle \mathrm {d} U_{h}} auf der entsprechenden kompakten Lie-Gruppe O ( n ) , U ( n ) / T n {\displaystyle \mathbb {O} (n),\mathbb {U} (n)/\mathbb {T} ^{n}} oder U S p ( n ) / T n {\displaystyle \mathbb {USp} (n)/\mathbb {T} ^{n}} folgende Darstellung zulässt

d A = i < j | λ j λ i | β d Λ d U h {\displaystyle \mathrm {d} A=\prod _{i<j}\left|\lambda _{j}-\lambda _{i}\right|^{\beta }\mathrm {d} \Lambda \mathrm {d} U_{h}}

wobei d Λ {\displaystyle \mathrm {d} \Lambda } das Lebesgue-Maß der Eigenwerte ist. Für skalierte Einträge des Gaußschen Ensembles erhält man eine geschlossene Form des Wahrscheinlichkeitsmaßes über der Weyl-Kammer mit λ n λ 1 {\displaystyle \lambda _{n}\geq \dots \geq \lambda _{1}}

P β n ( d λ 1 , , d λ n ) = 1 Z ~ β , n i < j | λ j λ i | β k = 1 n e β n 2 Q ( λ k ) d λ k . {\displaystyle P_{\beta }^{n}(\mathrm {d} \lambda _{1},\dots ,\mathrm {d} \lambda _{n})={\frac {1}{{\widetilde {Z}}_{\beta ,n}}}\prod _{i<j}\left|\lambda _{j}-\lambda _{i}\right|^{\beta }\prod _{k=1}^{n}e^{-{\frac {\beta n}{2}}Q(\lambda _{k})}\mathrm {d} \lambda _{k}.}

Das Wahrscheinlichkeitsmaß enthält den Boltzmann-Faktor e β n E ( λ 1 , , λ n ) {\displaystyle e^{-\beta n{\mathcal {E}}(\lambda _{1},\dots ,\lambda _{n})}} wobei E {\displaystyle {\mathcal {E}}} die totale potentielle Energie bezeichnet

E ( λ 1 , , λ n ) := 1 2 j = 1 n Q ( λ k ) 1 n i < j log | λ j λ i | . {\displaystyle {\mathcal {E}}(\lambda _{1},\dots ,\lambda _{n}):={\frac {1}{2}}\sum \limits _{j=1}^{n}Q(\lambda _{k})-{\frac {1}{n}}\sum _{i<j}\log |\lambda _{j}-\lambda _{i}|.}

Die Konstante

Z ~ β , n := n ! ( i < j | λ j λ i | β i = 1 n e β n 2 Q ( λ i ) d λ i ) {\displaystyle {\widetilde {Z}}_{\beta ,n}:=n!\left(\int _{-\infty }^{\infty }\cdots \int _{-\infty }^{\infty }\prod _{i<j}\left|\lambda _{j}-\lambda _{i}\right|^{\beta }\prod \limits _{i=1}^{n}e^{-{\frac {\beta n}{2}}Q(\lambda _{i})}\mathrm {d} \lambda _{i}\right)}

lässt sich mit Hilfe des Selberg-Integrals berechnen.

Gaußsche Ensembles

Wichtige Spezialfälle der invariante Ensembles sind die Gaußschen Ensembles, welche durch das Potential Q ( A ) := 1 2 A 2 {\displaystyle Q(A):={\tfrac {1}{2}}A^{2}} mit Q ( λ k ) := 1 2 λ k 2 {\displaystyle Q(\lambda _{k}):={\tfrac {1}{2}}\lambda _{k}^{2}} und die folgenden Gaußschen Maße erzeugt werden

P β n ( d A ) := 1 Z β , n e β 4 n Tr ( A 2 ) d A . {\displaystyle P_{\beta }^{n}(\mathrm {d} A):={\frac {1}{Z_{\beta ,n}}}e^{-{\frac {\beta }{4}}n\operatorname {Tr} (A^{2})}\mathrm {d} A.}

Man erhält für

  • β = 1 {\displaystyle \beta =1} das Gaußsches Orthogonales Ensemble (GOE) auf dem Raum der n × n {\displaystyle n\times n} reellen symmetrischen Matrizen.
  • β = 2 {\displaystyle \beta =2} das Gaußsches Unitäres Ensemble (GUE) auf dem Raum der n × n {\displaystyle n\times n} hermiteschen Matrizen.
  • β = 4 {\displaystyle \beta =4} das Gaußsches Symplektisches Ensemble (GSE) auf dem Raum der n × n {\displaystyle n\times n} hermiteschen quaternionen Matrizen.

Die Bezeichnung orthogonal/unitär/symplektisch bezeichnet, unter welcher Matrix Konjugation die Verteilung invariant ist.

Beispielsweise gilt für eine Matrix M n {\displaystyle M_{n}} aus dem GOE und einer Matrix O {\displaystyle O} aus der orthogonalen Gruppe O n {\displaystyle \mathbb {O} _{n}} , dass M n O T M n O {\displaystyle M_{n}\sim O^{T}M_{n}O} .

In der Quantenmechanik werden sie verwendet, um Hamiltonoperatoren zu modellieren.

Herleitung des GUE durch Ornstein-Uhlenbeck-Prozesse

Man betrachte das System stochastischer Differentialgleichungen der Ornstein-Uhlenbeck-Prozesse

{ d X i ( t ) = X i ( t ) d t + d W i ( t ) 1 i n , d X i j ( t ) = X i j ( t ) d t + d W i j ( 1 ) ( t ) 1 i < j n , d Y i j ( t ) = Y i j ( t ) d t + d W i j ( 2 ) ( t ) 1 i < j n {\displaystyle {\begin{cases}\mathrm {d} X_{i}(t)=X_{i}(t)\mathrm {d} t+\mathrm {d} W_{i}(t)&\quad 1\leq i\leq n,\\\mathrm {d} X_{ij}(t)=-X_{ij}(t)\mathrm {d} t+\mathrm {d} W_{ij}^{(1)}(t)&\quad 1\leq i<j\leq n,\\\mathrm {d} Y_{ij}(t)=-Y_{ij}(t)\mathrm {d} t+\mathrm {d} W_{ij}^{(2)}(t)&\quad 1\leq i<j\leq n\\\end{cases}}}

wobei { W i , W i j ( 1 ) , W i j ( 2 ) } {\displaystyle \{W_{i},W_{ij}^{(1)},W_{ij}^{(2)}\}} unabhängige brownsche Bewegungen sind mit

E [ W ˙ i ( t 1 ) W ˙ j ( t 2 ) ] = 2 D δ i j δ ( t 1 t 2 ) , E [ W ˙ i j ( σ 1 ) ( t 1 ) W ˙ s t ( σ 2 ) ( t 2 ) ] = D δ σ 1 σ 2 δ s t δ i j δ ( t 1 t 2 ) {\displaystyle \mathbb {E} [{\dot {W}}_{i}(t_{1}){\dot {W}}_{j}(t_{2})]=2D\delta _{ij}\delta (t_{1}-t_{2}),\qquad \mathbb {E} [{\dot {W}}_{ij}^{(\sigma _{1})}(t_{1}){\dot {W}}_{st}^{(\sigma _{2})}(t_{2})]=D\delta _{\sigma _{1}\sigma _{2}}\delta _{st}\delta _{ij}\delta (t_{1}-t_{2})}

und die Initialwerte X i ( 0 ) , X i j ( 0 ) , Y i j ( 0 ) {\displaystyle X_{i}(0),X_{ij}(0),Y_{ij}(0)} beliebig sind.

Definiert man nun eine hermitesche Zufallsmatrix H = ( h i j ( t ) / n ) 1 i , j n {\displaystyle H=(h_{ij}(t)/{\sqrt {n}})_{1\leq i,j\leq n}} für t 0 {\displaystyle t\geq 0} mit

h i j ( t ) = { X i ( t ) i = j , X i j ( t ) + i Y i j ( t ) i < j {\displaystyle h_{ij}(t)={\begin{cases}X_{i}(t)&\quad i=j,\\X_{ij}(t)+\mathrm {i} Y_{ij}(t)&\quad i<j\\\end{cases}}}

und bezeichnet mit f t ( d H ) {\displaystyle f_{t}(\mathrm {d} H)} das zugehörige Wahrscheinlichkeitsmaß, dann gilt für D = 2 {\displaystyle D=2} und t {\displaystyle t\to \infty }

f t ( d H ) P 2 n ( d H ) {\displaystyle f_{t}(\mathrm {d} H)\propto P_{2}^{n}(\mathrm {d} H)}

wobei P 2 n ( d H ) {\displaystyle P_{2}^{n}(\mathrm {d} H)} das GUE bezeichnet.[4]

Zirkulare Ensembles

Man erhält das Zirkulare Unitäre Ensemble (ZUE) durch das haarsche Maß auf dem Raum der unitären Matrizen. Das Zirkulare Orthogonale Ensemble (ZOE) erhält man durch das haarsche Maß auf dem Raum der symmetrischen unitären Matrizen. Das Zirkulare Symplektische Ensemble (ZSE) erhält man durch das haarsche Maß auf dem Raum der selbst-dualen unitären Quaternionen-Matrizen. Die Dichte der Eigenwerte λ j = e i θ j {\displaystyle \lambda _{j}=e^{i\theta _{j}}} der Zirkularen Ensembles ist

p β ( λ 1 , , λ n ) = 1 Z β , n c i r c i < j | e i θ j e i θ i | β , π < θ l π , {\displaystyle p_{\beta }(\lambda _{1},\dots ,\lambda _{n})={\frac {1}{Z_{\beta ,n}^{circ}}}\prod _{i<j}\left|e^{i\theta _{j}}-e^{i\theta _{i}}\right|^{\beta },\quad -\pi <\theta _{l}\leq \pi ,}

wobei β = 1 {\displaystyle \beta =1} für das ZOE, β = 2 {\displaystyle \beta =2} für das ZUE und β = 4 {\displaystyle \beta =4} für das ZSE gilt.[5]

β-Ensembles und Dysons „Threefolded Way“

Man spricht von Dysons β {\displaystyle \beta } -Ensemble, da Freeman Dyson in seiner wissenschaftlichen Schrift The Threefolded Way[6] diese β = { 1 , 2 , 4 } {\displaystyle \beta =\{1,2,4\}} Klassifizierungen der Zufallsmatrizen herleitete, basierend auf physikalisch möglichen Zeitumkehr-Eigenschaften der Quantenmechanik (orthogonal, unitär, symplektisch). Der Fall β = 3 {\displaystyle \beta =3} ist aufgrund des Satzes von Frobenius nicht möglich. Neben den Gaußschen Ensembles spielen auch die β {\displaystyle \beta } -Wishart-Laguerre-Ensembles und die β {\displaystyle \beta } -Jacobi-Manova-Ensembles eine zentrale Rolle in der Theorie der Zufallsmatrizen.

Es ist üblich, nur von Laguerre-Ensembles bzw. Jacobi-Ensembles zu sprechen, statt von Wishart- bzw. Manova-Ensembles

Allgemeine β {\displaystyle \beta } spielen in der klassischen Theorie der Zufallsmatrizen eine untergeordnete Rolle.

Theorie der Zufallsmatrizen

Die Theorie der Zufallsmatrizen befasst sich weniger mit einer konkreten Zufallsmatrix, sondern mit dem Matrizenraum dahinter. Konkret geht es um Wahrscheinlichkeitsmaße auf Matrixräumen und Lie-Gruppen, dies erklärt den Begriff des Ensembles. Ein klassisches Problem der Theorie der Zufallsmatrizen ist das Finden einer multivariaten Wahrscheinlichkeitsdichte für die Eigenwerte unterschiedlicher Matrix-Ensembles. Eine der frühesten Arbeiten stammt von Dyson, welcher eine geschlossene Form für eine große Menge von Matrizen fand, abhängig von der zugrundeliegenden Symmetrie der Matrizen und Wahrscheinlichkeitsverteilung.

Die Spektraleigenschaften großer Zufallsmatrizen haben universelle Eigenschaften und man kann beim Studium komplizierter deterministischer Operatoren, wie zum Beispiel dem Dirac-Operator aus der Physik, diese Operatoren mit Zufallsmatrizen ersetzen und die Theorie der Zufallsmatrizen anwenden.

Beim Studium von Integralen über Matrix-Räume verwendet man zum Teil Resultate aus der Theorie der Lie-Gruppen und Lie-Algebren. Auch die freie Wahrscheinlichkeitstheorie von Voiculescu ist von Relevanz für große Zufallsmatrizen.

Generell untersucht man Matrizen mit bestimmten Symmetrie-Eigenschaften (z. B. hermitesche) und hat bestimmte stochastische Anforderungen an die Wahrscheinlichkeitsverteilung auf den Raum jener Matrizen (z. B. obere Dreiecksmatrix unabhängig). Des Weiteren interessiert man sich vor allem für die Spektraltheorie und dessen asymptotisches Verhalten, wenn die Dimension N {\displaystyle N\to \infty } . Die Spektraltheorie ist engverbunden mit der Theorie der Punktprozesse, da die Eigenwerte einen (zufälligen) Punktprozess formen. Bei vielen Ensembles taucht in der gleichen Region derselbe Punktprozess in unendlicher Dimension auf (Universalität). Matrix-wertige Funktionen wie die Determinante oder die Spur können nicht einfach auf unendlich-dimensionale Matrizen übertragen werden. Für bestimmte Operatoren lässt sich aber mit der abstrakten Fredholmtheorie eine Erweiterung auf unendlich-dimensionale separable Hilberträume über die äußere Algebra finden. Es lassen sich Determinanten für Operatoren aus den Schatten-von Neumann-Klassen definieren.

Definiert man die Einträge der Matrix als Brownsche Bewegungen, so lässt sich auch das matrixwertige Analogon eines stochastischen Prozesses bilden und die Theorie der stochastischen Analysis und die Martingal-Theorie ist anwendbar, siehe Dysons brownsche Bewegung und Wishart-Prozess.

Spektraltheorie der Zufallsmatrizen

Sind die Einträge einer hermiteschen Zufallsmatrix M n {\displaystyle M_{n}} von der Größe O ( n ) {\displaystyle {\mathcal {O}}({\sqrt {n}})} , so konvergiert das empirische Spektralmaß

ν n ( λ ; M n ) := n 1 j = 0 n δ ( λ λ j ( M n ) ) , {\displaystyle \nu _{n}(\lambda ;M_{n}):=n^{-1}\sum \limits _{j=0}^{n}\delta (\lambda -\lambda _{j}(M_{n})),}

wobei δ {\displaystyle \delta } das Dirac-Delta bezeichnet.

Da die zufälligen Ensembles Punktprozesse sind, kann man die n {\displaystyle n} -Punkt Korrelationsfunktion für die Eigenwerte λ 1 , , λ N {\displaystyle \lambda _{1},\dots ,\lambda _{N}} herleiten. Sei φ {\displaystyle \varphi } eine Testfunktion und definiere das Funktional

E N [ φ ] := n = 0 N ( 1 ) n ( N n ) E [ φ ( λ 1 ) φ ( λ n ) ] {\displaystyle E_{N}[\varphi ]:=\sum \limits _{n=0}^{N}(-1)^{n}{\binom {N}{n}}\mathbb {E} \left[\varphi (\lambda _{1})\cdots \varphi (\lambda _{n})\right]}

Dann ist die n {\displaystyle n} -Punkt Korrelationsfunktion folgende ausgewertete Funktionalableitung[7]

( 1 ) n δ n δ φ ( λ 1 ) δ φ ( λ n ) E N [ φ ] | φ = 0 = R N ( n ) ( λ 1 , , λ n ) . {\displaystyle (-1)^{n}{\frac {\delta ^{n}}{\delta \varphi (\lambda _{1})\cdots \delta \varphi (\lambda _{n})}}E_{N}[\varphi ]{\Biggr |}_{\varphi =0}=R_{N}^{(n)}(\lambda _{1},\dots ,\lambda _{n}).}

Mit dem Darstellungssatz von Fréchet-Riesz lässt sich Konvergenz im Erwartungswert für φ C c ( R ) {\displaystyle \varphi \in C_{c}(\mathbb {R} )} definieren

φ d E ν n ( λ ; M n ) := E φ d ν n ( λ ; M n ) . {\displaystyle \int \varphi \;\mathrm {d} \mathbb {E} \nu _{n}(\lambda ;M_{n}):=\mathbb {E} \int \varphi \;\mathrm {d} \nu _{n}(\lambda ;M_{n}).}

Globale Situation

Eines der wichtigsten Ergebnisse ist das sogenannte Wignersche Halbkreisgesetz (siehe Eugen Wigner): Es besagt, dass das (skalierte) empirische Spektralmaß ν n {\displaystyle \nu _{n}} einer Wignerischen Zufallsmatrix (in der Physik bekannt als die sogenannte Zustandsdichte) einer charakteristischen Halbkreis-Verteilung genügt.

Das Variationsproblem der Verteilung der Eigenwerte

Allgemeiner handelt es sich bei der Grenzwertverteilung der Eigenwerte um die Lösung eines Variationsproblem. Definiere den Raum der Maße

M 1 ( R ) = { ν : ν 0 ,   R d ν = 1 } {\displaystyle M_{1}(\mathbb {R} )=\left\{\nu :\nu \geq 0,\ \int _{\mathbb {R} }\mathrm {d} \nu =1\right\}}

und betrachte das Funktional

E Q = inf ν M 1 ( R ) x y ln | x y | d ν ( x ) d ν ( y ) + Q ( x ) d ν ( x ) . {\displaystyle E_{Q}=\inf \limits _{\nu \in M_{1}(\mathbb {R} )}-\int \int _{x\neq y}\ln |x-y|\mathrm {d} \nu (x)\mathrm {d} \nu (y)+\int Q(x)\mathrm {d} \nu (x).}

Das Funktional erklärt sich durch die Integralschreibweise der totalen potentiellen Energie

x y ln | x y | 1 + n i = 1 n Q ( x ) {\displaystyle \sum _{x\neq y}\ln |x-y|^{-1}+n\sum _{i=1}^{n}Q(x)}

bezüglich des empirischen Spektralmaßes ν n {\displaystyle \nu _{n}} . Für E Q {\displaystyle E_{Q}} wird ein eindeutiges Equilibriummaß ν Q {\displaystyle \nu _{Q}} durch die Euler-Lagrange-Variationsbedingung für eine reelle Konstante l {\displaystyle l} [3]

2 R log | x y | d ν ( y ) Q ( x ) = l , x J {\displaystyle 2\int _{\mathbb {R} }\log |x-y|\mathrm {d} \nu (y)-Q(x)=l,\quad x\in J}
2 R log | x y | d ν ( y ) Q ( x ) l , x R J {\displaystyle 2\int _{\mathbb {R} }\log |x-y|\mathrm {d} \nu (y)-Q(x)\leq l,\quad x\in \mathbb {R} \setminus J}

definiert, wobei J = j = 1 q [ a j , b j ] {\displaystyle J=\bigcup \limits _{j=1}^{q}[a_{j},b_{j}]} der Träger des Maßes ist und

q = ( Q ( x ) 2 ) 2 + Q ( x ) Q ( y ) x y d ν Q ( y ) {\displaystyle q=-\left({\frac {Q'(x)}{2}}\right)^{2}+\int {\frac {Q'(x)-Q'(y)}{x-y}}\mathrm {d} \nu _{Q}(y)} .

Das Equilibirummaß ν Q {\displaystyle \nu _{Q}} besitzt folgende Radon-Nikodym-Dichte

d ν Q ( x ) d x = 1 π q ( x ) . {\displaystyle {\frac {\mathrm {d} \nu _{Q}(x)}{\mathrm {d} x}}={\frac {1}{\pi }}{\sqrt {q(x)}}.}
Beispiel: Wignersche Halbkreis

Im Fall des GUE konvergiert das zufällige Maß schwach in Wahrscheinlichkeit gegen die deterministische Verteilung

σ ( d x ) := 1 2 π ( 4 x 2 ) + d x {\displaystyle \sigma (\mathrm {d} x):={\frac {1}{2\pi }}{\sqrt {(4-x^{2})_{+}}}\mathrm {d} x}

Es gilt für eine Funktion f C b ( R ) {\displaystyle f\in C_{b}(\mathbb {R} )} und ε > 0 {\displaystyle \varepsilon >0}

lim n P ( | ν n , f σ , f | > ε ) = 0 {\displaystyle \lim \limits _{n\to \infty }P(|\langle \nu _{n},f\rangle -\langle \sigma ,f\rangle |>\varepsilon )=0}

Der Satz kann mit Mitteln der Kombinatorik und der Momentmethode bewiesen werden. Für eine Zufallsvariable X σ ( d x ) {\displaystyle X\sim \sigma (\mathrm {d} x)} gilt, dass E [ X k ] = δ k / 2 Z C k / 2 {\displaystyle \mathbb {E} \left[X^{k}\right]=\delta _{k/2\in \mathbb {Z} }C_{k/2}} wobei C n {\displaystyle C_{n}} die Catalan-Zahlen sind.

Durch die oben erwähnte Equilibriummaß-Methode der statistischen Mechanik gibt es eine Verbindung zur Theorie der großen Abweichungen. Einen analytischen konstruktiven Beweis ergibt sich über die Stieltjes-Transformation.

Für Wishart- bzw. Laguerre-Matrizen konvergiert das empirische Spektralmaß ν n {\displaystyle \nu _{n}} gegen die Martschenko-Pastur-Verteilung und für MANOVA bzw. Jacobi-Matrizen gegen die Kesten-Mckey-Verteilung.

Für quadratische Zufallsmatrizen A n {\displaystyle A_{n}} mit i.i.d. komplexen Einträgen ( a ) i j {\displaystyle (a)_{ij}} mit E [ ( a ) i j ] = 0 {\displaystyle \mathbb {E} [(a)_{ij}]=0} und Var [ ( a ) i j ] = 1 {\displaystyle \operatorname {Var} [(a)_{ij}]=1} gilt das Kreisgesetz (Tao-Vu[8]) welches besagt, dass ν n {\displaystyle \nu _{n}} gegen

θ ( d x ) := 1 π 1 | x | 2 + | y | 2 1 d x d y {\displaystyle \theta (\mathrm {d} x):={\frac {1}{\pi }}1_{|x|^{2}+|y|^{2}\leq 1}\mathrm {d} x\mathrm {d} y}

konvergiert.

Man spricht von Universalität, weil die Sätze unabhängig von der zugrundeliegenden Verteilung sind.

Lokale Situation

Limitverhalten

Lokal ergibt sich bei Skalierung ein Punktprozess für die Eigenwerte. Der Fall β = 2 {\displaystyle \beta =2} von hermiteschen Matrizen ist signifikant einfacher. Man kann mittels der Theorie der orthogonale Polynome eine determinantale Form für die Korrelationsfunktion finden, welche dann zu Fredholm-Determinanten von Integraloperatoren führen. Die Fälle β = 1 {\displaystyle \beta =1} und β = 4 {\displaystyle \beta =4} lassen sich mit Quaternionen-Determinanten und schief-orthogonalen Polynome lösen.[9]

Es gilt für die n {\displaystyle n} -Punkt Korrelationsfunktion

R N ( n ) ( λ 1 , , λ n ) = N ! ( N n ) ! R ( λ n + 1 ) R ( λ N ) p β ( λ 1 , , λ N ) j = n + 1 N d λ j {\displaystyle R_{N}^{(n)}(\lambda _{1},\dots ,\lambda _{n})={\frac {N!}{(N-n)!}}\int _{\mathbb {R} (\lambda _{n+1})}\cdots \int _{\mathbb {R} (\lambda _{N})}p_{\beta }(\lambda _{1},\dots ,\lambda _{N})\prod \limits _{j=n+1}^{N}\mathrm {d} \lambda _{j}}

wobei p β ( λ 1 , , λ n ) {\displaystyle p_{\beta }(\lambda _{1},\dots ,\lambda _{n})} die multivariate Dichte der Eigenwerte ist.

Für das GUE erhält man einen determinantal point process, ein einfacher Punktprozess mit Kern bezüglich eines Maßes μ {\displaystyle \mu } , dessen R N ( n ) {\displaystyle R_{N}^{(n)}} existiert, so dass für alle n 1 {\displaystyle n\geq 1} gilt

R N ( n ) ( d x 1 , , d x n ) = det [ K ( x i , x j ) ] 1 i , j n μ ( d x 1 , , d x n ) {\displaystyle R_{N}^{(n)}(\mathrm {d} x_{1},\dots ,\mathrm {d} x_{n})=\operatorname {det} [K(x_{i},x_{j})]_{1\leq i,j\leq n}\mu (\mathrm {d} x_{1},\dots ,\mathrm {d} x_{n})} .

Skaliert man den Integralkern konvergiert dieser entweder zu dem Sinus- oder Airy-Kern. Die benötigten asymptotischen Entwicklungen können mittels der nicht-trivialen Methode des steilsten Anstiegs gezeigt werden (asymptotische Entwicklungen vom Plancherel-Rotach-Typ).

K Sine ( x , y ) = sin ( π ( x y ) ) π ( x y ) {\displaystyle K_{\text{Sine}}(x,y)={\tfrac {\sin(\pi (x-y))}{\pi (x-y)}}}

Die Wahrscheinlichkeit, dass eine kompakte Menge V R {\displaystyle V\subset \mathbb {R} } keine (unskalierte) Eigenwerte ( λ i ) i n {\displaystyle (\lambda _{i})_{i\leq n}} enthält, lässt sich als Fredholm-Determinante formulieren (Gaudin-Mehta)

lim n P ( n λ 1 , , n λ n V ) = 1 + k = 1 ( 1 ) k k ! V V det [ K Sine ( x i , x j ) ] i , j = 1 k j = 1 k d x j {\displaystyle \lim \limits _{n\to \infty }P({\sqrt {n}}\lambda _{1},\dots ,{\sqrt {n}}\lambda _{n}\not \in V)=1+\sum _{k=1}^{\infty }{\frac {(-1)^{k}}{k!}}\int _{V}\cdots \int _{V}\operatorname {det} [K_{\text{Sine}}(x_{i},x_{j})]_{i,j=1}^{k}\prod \limits _{j=1}^{k}\mathrm {d} x_{j}} .

Universalität im Hauptteil

2010 zeigten Erdős-Ramírez-Schlein-Tao-Vu-Yau für wignerische Matrizen mit subexponentialer Abnahme Universalität des Sinus-Kern.[10]

Rand

Betrachtet man den Rand des Spektrums, so erhält man einen Airy-Prozess und bekommt die Tracy-Widom-Verteilung mit Kern

K Airy ( x , y ) = Ai ( x ) Ai ( y ) Ai ( x ) Ai ( y ) x y {\displaystyle K_{\text{Airy}}(x,y)={\tfrac {\operatorname {Ai} (x)\operatorname {Ai} '(y)-\operatorname {Ai} '(x)\operatorname {Ai} (y)}{x-y}}}

wobei Ai {\displaystyle \operatorname {Ai} } die Airy-Funktion bezeichnet.

Für das GSE und GOE erhält man eine Verallgemeinerung, ein sogenannter pfaffian point processes.

Im Falle des Laguerre-Ensembles ergibt sich bei dem hard edge (harten Rand) ein Bessel-Prozess und bei dem soft edge (weichen Rand) ein Airy-Prozess.

Geschichte

Bereits 1928 untersuchte John Wishart als einer der ersten die Zufallsmatrizen, die bei einer standard-multivariaten normalverteilten Stichprobe entstehen (die Kovarianzmatrix). Dies führte zu der Wishart-Verteilung, die matrixvariate Verallgemeinerung der χ2-Verteilung bzw. Gamma-Verteilung.

In den 1950er untersuchte Eugene Wigner die Verteilung zwischen benachbarten Energieniveaus von schweren Atomkernen. Das Energieniveau wird durch die Eigenwerte des Hamiltonian der (zeitunabhängigen) Schrödingergleichung beschrieben

H ^ | Ψ = E | Ψ {\displaystyle \operatorname {\hat {H}} |\Psi \rangle =E|\Psi \rangle }

Für schwere Atomkerne ist dieses Problem zu komplex um es theoretisch zu lösen, deshalb kam Wigner auf die Idee, dieses Problem als statistisches Problem zu lösen und stattdessen die Spektraldichte von großen endlichen Zufallsmatrizen zu untersuchen.

Empirische Daten aus Experimenten zeigten, dass die Verteilung von der Form

ω ( d x ) = C β x β e k β x 2 d x {\displaystyle \omega (\mathrm {d} x)=C_{\beta }x^{\beta }e^{-k_{\beta }x^{2}}\mathrm {d} x}

sein musste und somit das Energieniveau korreliert ist, da sonst eine Poisson-Verteilung zugrunde liegen sollte und es erklärte auch das Phänomen, dass sich die Energieniveaus gegenseitig abstiessen. Dieses Resultat wird als Wigners Vermutung (englisch Wigner's surmise) bezeichnet. Die Konstanten C β , k β {\displaystyle C_{\beta },k_{\beta }} sind von β { 1 , 2 , 4 } {\displaystyle \beta \in \{1,2,4\}} abhängig und β {\displaystyle \beta } beschreibt die zugrundeliegende Symmetrie der Atomkerne unter Zeitumkehr und Spinrotation. Wigner postulierte, dass die Abstände zwischen den Linien des Spektrums den Abständen der Eigenwerte einer Zufallsmatrix gleichen.

Aus den 1960ern stammen bedeutende Arbeiten zur mathematischen Theorie der Zufallsmatrizen von Gaudin, Mehta und Dyson. Parallel dazu entwickelte sich auch wichtige Arbeiten zu den Kovarianzmatrizen.

Die traditionelle Ausgangslage der Statistik hat eine (kleine) fixe Anzahl p {\displaystyle p} von Parametern und n {\displaystyle n\to \infty } Observationen. Die Theorie der Zufallsmatrizen hat sich aus der Situation entwickelt, wenn p {\displaystyle p} sehr groß ist und man interessiert sich auch für die Fälle wenn n , p {\displaystyle n,p\to \infty } .

In den 1970ern entdeckte Montgomery und Dyson eine Verbindung zwischen den Zufallsmatrizen und der Zahlentheorie respektive zwischen schweren Atomkernen und den kritischen Nullstellen der riemannschen Zeta-Funktion.

Anwendungen

Statistik

Physik

Weitere Anwendungen

Literatur

  • Greg Anderson, Alice Guionnet, Ofer Zeitouni: An Introduction to Random Matrices. Cambridge University Press, 2010.
  • Alice Guionnet: Large Random Matrices: Lectures on Macroscopic Asymptotics. Springer Verlag, 2009.
  • Persi Diaconis: Patterns in Eigenvalues: The 70th Josiah Willard Gibbs Lecture. In: American Mathematical Society. Bulletin. New Series, 2003, S. 155–178, doi:10.1090/S0273-0979-03-00975-3.
  • Persi Diaconis: What Is … a Random Matrix? In: Notices of the American Mathematical Society, 2005, S. 1348–1349, ISSN 0002-9920.
  • M. L. Mehta: Random matrices. 3. Auflage. In: Pure and Applied Mathematics, 142. Elsevier/Academic Press, Amsterdam 2004. xviii+688 S.
  • Guhr, Müller-Groening, Weidenmüller: Random Matrix Theories in Quantum Physics: Common Concepts. In: Physics Reports, Band 299, 1998, S. 189–425, arxiv:cond-mat/9707301.
  • Alan Edelman, N. Raj Rao: Random Matrix Theory. (PDF) In: Acta Numerica, Band 14, 2005, S. 233–297.
  • Terence Tao: Topics in Random Matrix Theory. American Mathematical Society, 2012

Weblinks

  • Random Matrix at MathWorld
  • RMTool A MATLAB based Random Matrix Calculator
  • Vorlesung von Terence Tao
  • Kriecherbauer: Eine kurze und selektive Einführung in die Theorie der Zufallsmatrizen (PDF; 402 kB), Uni Bochum 2008.

Einzelnachweise und Anmerkungen

  1. Elizabeth Meckes: The Random Matrix Theory of the Classical Compact Groups. 1. Auflage. Cambridge University Press, 2019, ISBN 978-1-108-41952-9, doi:10.1017/9781108303453. 
  2. Greg W. Anderson, Alice Guionnet, Ofer Zeitouni: An Introduction to Random Matrices. Cambridge University Press, 2009. 
  3. a b John Harnad: Random Matrices, Random Processes and Integrable Systems. Hrsg.: Springer. ISBN 978-1-4614-2877-0. 
  4. Yan V. Fyodorov: Introduction to the Random Matrix Theory: Gaussian Unitary Ensemble and Beyond. doi:10.48550/ARXIV.MATH-PH/0412017. 
  5. Peter J. Forrester: Log-Gases and Random Matrices. In: Princeton University Press (Hrsg.): London Mathematical Society Monographs (LMS-34). Band 34. 
  6. Freeman Dyson: The Threefold Way. Algebraic Structure of Symmetry Groups and Ensembles in Quantum Mechanics. Abgerufen am 23. Mai 2021. 
  7. Leonid Pastur und Mariya Shcherbina: Eigenvalue distribution of large random matrices. Hrsg.: American Mathematical Society. 2011. 
  8. 2010 gezeigt durch Terence Tao und Van H. Vu
  9. G. Mahoux und M.L. Mehta: A method of integration over matrix variables IV. In: EDP Sciences, (Hrsg.): Journal de Physique I. Nr. 1, 1991, S. 1093–1108. 
  10. Laszlo Erdos, Jose Ramirez and Benjamin Schlein and Terence Tao and Van Vu and Horng-Tzer Yau: Bulk universality for Wigner hermitian matrices with subexponential decay. arxiv:0906.4400 [math]. 
  11. https://tel.archives-ouvertes.fr/tel-02397287/document
  12. VS Rychkov, S Borlenghi, H Jaffres, A Fert, X Waintal: Spin Torque and Waviness in Magnetic Multilayers: A Bridge Between Valet-Fert Theory and Quantum Approaches. In: Phys. Rev. Lett. 103. Jahrgang, Nr. 6, August 2009, S. 066602, doi:10.1103/PhysRevLett.103.066602, PMID 19792592. 
  13. DJE Callaway: Random Matrices, Fractional Statistics, and the Quantum Hall Effect. In: Phys. Rev., B Condens. Matter. 43. Jahrgang, Nr. 10, April 1991, S. 8641–8643, doi:10.1103/PhysRevB.43.8641, PMID 9996505. 
  14. M Janssen, K Pracz: Correlated Random Band Matrices: Localization-delocalization Transitions. In: Phys Rev E Stat Phys Plasmas Fluids Relat Interdiscip Topics. 61. Jahrgang, 6 Pt A, Juni 2000, S. 6278–86, doi:10.1103/PhysRevE.61.6278, PMID 11088301. 
  15. DM Zumbühl, JB Miller, CM Marcus, K Campman, AC Gossard: Spin-orbit Coupling, Antilocalization, and Parallel Magnetic Fields in Quantum Dots. In: Phys. Rev. Lett. 89. Jahrgang, Nr. 27, Dezember 2002, S. 276803, doi:10.1103/PhysRevLett.89.276803, PMID 12513231. 
  16. SR Bahcall: Random Matrix Model for Superconductors in a Magnetic Field. In: Phys. Rev. Lett. 77. Jahrgang, Nr. 26, Dezember 1996, S. 5276–5279, doi:10.1103/PhysRevLett.77.5276, PMID 10062760. 
  17. D Sánchez, M Büttiker: Magnetic-field Asymmetry of Nonlinear Mesoscopic Transport. In: Phys. Rev. Lett. 93. Jahrgang, Nr. 10, September 2004, S. 106802, doi:10.1103/PhysRevLett.93.106802, PMID 15447435. 
  18. F Franchini, VE Kravtsov: Horizon in Random Matrix Theory, the Hawking Radiation, and Flow of Cold Atoms. In: Phys. Rev. Lett. 103. Jahrgang, Nr. 16, Oktober 2009, S. 166401, doi:10.1103/PhysRevLett.103.166401, PMID 19905710. 
  19. arxiv:math.OA/0412545
  20. James A. Mingo, Roland Speicher: Free Probability and Random Matrices. Fields Institute Monographs, Bd. 35, Springer Verlag, New York, 2017
  21. arxiv:math.OA/0501238
  22. http://web.mit.edu/sea06/agenda/talks/Harding.pdf
  23. Antonia M. Tulino, Sergio Verdú: Random Matrix Theory and Wireless Communications. Now, 2004. 
  24. newscientist.com
Spezielle Matrizen in der Statistik

Datenmatrix | Produktsummenmatrix | Prädiktionsmatrix | residuenerzeugende Matrix | zentrierende Matrix | Kovarianzmatrix | Korrelationsmatrix | Präzisionsmatrix | Gewichtsmatrix | Restriktionsmatrix | Fisher-Informationsmatrix | Bernoulli-Matrix | Leslie-Matrix | Zufallsmatrix | Übergangsmatrix