Negative Binomialverteilung

Negative Binomialverteilung
Wahrscheinlichkeitsfunktion

Wahrscheinlichkeitsverteilung der Variante B. In diesem Beispiel ist Parameter p {\displaystyle p} von r {\displaystyle r} abhängig, sodass E [ X ] = 10 {\displaystyle E[X]=10} gilt (das erfordert p = r / ( r + 10 ) {\displaystyle p=r/(r+10)} ). Der Erwartungswert ist als orange Linie dargestellt; die Standardabweichung als grüne.
Verteilungsfunktion
Parameter r > 0 – Anzahl Erfolge bis zum Abbruch
p ∈ (0,1) – Einzel-Erfolgs-Wahrscheinlichkeit
Träger k ∈ { 0, 1, 2, 3, … } – Anzahl Misserfolge
Wahrscheinlichkeitsfunktion ( k + r 1 k ) p r ( 1 p ) k {\displaystyle {k+r-1 \choose k}\cdot p^{r}(1-p)^{k}}
Verteilungsfunktion 1 I 1 p ( k + 1 , r ) {\displaystyle 1-I_{1-p}(k+1,\,r)} Eulersche Betafunktion
Erwartungswert r ( 1 p ) p {\displaystyle {\frac {r(1-p)}{p}}}
Modus ( 1 p ) ( r 1 ) p {\displaystyle \left\lfloor {\frac {(1-p)(r-1)}{p}}\right\rfloor }
Varianz r ( 1 p ) p 2 {\displaystyle {\frac {r(1-p)}{p^{2}}}}
Schiefe 2 p r ( 1 p ) {\displaystyle {\frac {2-p}{\sqrt {r(1-p)}}}}
Wölbung 6 r + p 2 r ( 1 p ) {\displaystyle {\frac {6}{r}}+{\frac {p^{2}}{r(1-p)}}}
Momenterzeugende Funktion ( p 1 ( 1 p ) e s ) r , s < | ln ( 1 p ) | {\displaystyle \left({\frac {p}{1-(1-p)e^{s}}}\right)^{r}\!\!\!,s<|\ln(1-p)|}
Charakteristische Funktion ( p e i s 1 ( 1 p ) e i s ) r {\displaystyle \left({\frac {pe^{\mathrm {i} s}}{1-(1-p)e^{\mathrm {i} s}}}\right)^{r}}

Die negative Binomialverteilung (auch Pascal-Verteilung) ist eine univariate Wahrscheinlichkeitsverteilung. Sie zählt zu den diskreten Wahrscheinlichkeitsverteilungen und ist eine der drei Panjer-Verteilungen.

Sie beschreibt die Wahrscheinlichkeit, dass in einem Bernoulli-Prozess nach k Misserfolgen genau r Erfolge eingetreten sind.

Neben der Poisson-Verteilung ist die negative Binomialverteilung die wichtigste Schadenzahlverteilung in der Versicherungsmathematik. Dort wird sie insbesondere als Schadenzahlverteilung in der Krankenversicherung benutzt, seltener im Bereich Kraftfahrzeug-Haftpflicht oder Kasko.

Herleitung der negativen Binomialverteilung

Wahrscheinlichkeitsfunktion der negativen Binomialverteilung (Variante A) für r = 10 {\displaystyle r=10} ; p = 0 , 2 {\displaystyle p=0{,}2} (blau), p = 0 , 5 {\displaystyle p=0{,}5} (grün) und p = 0 , 8 {\displaystyle p=0{,}8} (rot)

Man kann diese Verteilung mit Hilfe des Urnenmodells mit Zurücklegen beschreiben: In einer Urne befinden sich zwei Sorten Kugeln (dichotome Grundgesamtheit). Der Anteil der Kugeln erster Sorte beträgt p {\displaystyle p} . Die Wahrscheinlichkeit, dass eine Kugel erster Sorte gezogen wird, beträgt also p {\displaystyle p} .

Es wird nun so lange eine Kugel gezogen und wieder zurückgelegt, bis erstmals genau r {\displaystyle r} Kugeln erster Sorte resultieren. Man kann eine Zufallsvariable X {\displaystyle X} : „Zahl der Versuche, bis erstmals r {\displaystyle r} Erfolge resultieren“ definieren. Die Zahl der Versuche liegt in der Menge { n N | n r } {\displaystyle \{n\in \mathbb {N} |n\geq r\}} . X {\displaystyle X} hat abzählbar unendlich viele mögliche Ausprägungen.

Die Wahrscheinlichkeit, dass n {\displaystyle n} Versuche nötig waren, um r {\displaystyle r} Erfolge zu erzielen, also P ( X = n ) {\displaystyle P(X=n)} , berechnet man nach folgender Überlegung:

Es sollen zum jetzigen Zeitpunkt bereits n 1 {\displaystyle n-1} Versuche stattgefunden haben. Es wurden insgesamt r 1 {\displaystyle r-1} Kugeln erster Sorte gezogen. Die Wahrscheinlichkeit dafür wird durch die Binomialverteilung der Zufallsvariablen Y {\displaystyle Y} : „Zahl der Kugeln erster Sorte bei n 1 {\displaystyle n-1} Versuchen“ angegeben:

P ( Y = r 1 ) = ( n 1 r 1 ) p r 1 ( 1 p ) n 1 ( r 1 ) . {\displaystyle \operatorname {P} (Y=r-1)={{n-1} \choose {r-1}}p^{r-1}(1-p)^{n-1-(r-1)}.}

Die Wahrscheinlichkeit, dass nun eine weitere Kugel erster Sorte gezogen wird, ist dann

P ( X = n ) = P ( Y = r 1 ) p . {\displaystyle \operatorname {P} (X=n)=\operatorname {P} (Y=r-1)\cdot p.}

Eine Zufallsvariable X {\displaystyle X} heißt damit negativ binomialverteilt NB ( r , p ) {\displaystyle \operatorname {NB} (r,p)} mit den Parametern r {\displaystyle r} (Anzahl der erfolgreichen Versuche) und p {\displaystyle p} (Wahrscheinlichkeit des Eintretens eines Erfolges im Einzelversuch), wenn sich für sie die Wahrscheinlichkeitsfunktion

P ( X = n ) = ( n 1 r 1 ) p r ( 1 p ) n r {\displaystyle \operatorname {P} (X=n)={{n-1} \choose {r-1}}p^{r}(1-p)^{n-r}}

angeben lässt.

Diese Variante wird hier Variante A genannt, um Verwechslungen vorzubeugen.

Alternative Definition

Eine diskrete Zufallsgröße X {\displaystyle X} unterliegt der negativen Binomialverteilung NB ( r , p ) {\displaystyle \operatorname {NB} (r,p)} mit den Parametern r {\displaystyle r} und p {\displaystyle p} , wenn sie die Wahrscheinlichkeiten

P ( X = k ) = ( k + r 1 k ) p r ( 1 p ) k = ( k + r 1 k ) p r q k = ( r k ) p r ( q ) k {\displaystyle \operatorname {P} (X=k)={k+r-1 \choose k}p^{r}(1-p)^{k}={{k+r-1} \choose k}p^{r}q^{k}={{-r} \choose k}p^{r}(-q)^{k}}

für k = 0 , 1 , 2 {\displaystyle k=0,1,2\dotsc } besitzt.

Beide Definitionen stehen über n = k + r {\displaystyle n=k+r} in Beziehung; während die erste Definition also nach der Anzahl der Versuche n {\displaystyle n} (erfolgreiche und erfolglose) bis zum Eintreten des r {\displaystyle r} -ten Erfolgs fragt, interessiert sich die alternative Darstellung für die Anzahl k {\displaystyle k} der Misserfolge bis zum Eintreten des r {\displaystyle r} -ten Erfolgs. Dabei werden die r {\displaystyle r} Erfolge nicht mitgezählt. Die Zufallsvariable X {\displaystyle X} bezeichnet dann nur die Anzahl der misslungenen Versuche.

Diese Variante wird hier Variante B genannt.

Eigenschaften der negativen Binomialverteilung

Erwartungswert

Variante A

Der Erwartungswert bestimmt sich zu

E ( X ) = r p {\displaystyle \operatorname {E} (X)={\frac {r}{p}}\,} .
Variante B

Bei der alternativen Definition ist der Erwartungswert um r {\displaystyle r} kleiner, also

E ( X ) = r p r = r ( 1 p ) p {\displaystyle \operatorname {E} (X)={\frac {r}{p}}-r={\frac {r(1-p)}{p}}} .

Varianz

Die Varianz der negativen Binomialverteilung ist für beide Definitionen gegeben durch

Var ( X ) = r ( 1 p ) p 2 {\displaystyle \operatorname {Var} (X)={\frac {r(1-p)}{p^{2}}}} .

Die Varianz ist bei der alternativen Definition immer größer als der Erwartungswert (Überdispersion).

Variationskoeffizient

Variante A

Aus Erwartungswert und Varianz ergibt sich sofort der Variationskoeffizient zu

VarK ( X ) = 1 p r {\displaystyle \operatorname {VarK} (X)={\sqrt {\frac {1-p}{r}}}}
Variante B

In der alternativen Darstellung ergibt sich

VarK ( X ) = 1 r ( 1 p ) {\displaystyle \operatorname {VarK} (X)={\frac {1}{\sqrt {r(1-p)}}}} .

Schiefe

Die Schiefe ergibt sich für beide Varianten zu:

v ( X ) = 2 p r ( 1 p ) {\displaystyle \operatorname {v} (X)={\frac {2-p}{\sqrt {r(1-p)}}}} .

Wölbung

Der Exzess ist für beide Varianten

γ = 6 r + p 2 r ( 1 p ) {\displaystyle \gamma ={\frac {6}{r}}+{\frac {p^{2}}{r(1-p)}}} .

Damit ist dann die Wölbung

β 2 = 6 r + p 2 r ( 1 p ) + 3 {\displaystyle \beta _{2}={\frac {6}{r}}+{\frac {p^{2}}{r(1-p)}}+3} .

Charakteristische Funktion

Variante A

Die charakteristische Funktion hat die Form

φ X ( s ) = ( p e i s 1 ( 1 p ) e i s ) r {\displaystyle \varphi _{X}(s)=\left({\frac {pe^{\mathrm {i} s}}{1-(1-p)e^{\mathrm {i} s}}}\right)^{r}} .
Variante B

Alternativ ergibt sich

φ X ( s ) = ( p 1 ( 1 p ) e i s ) r {\displaystyle \varphi _{X}(s)=\left({\frac {p}{1-(1-p)e^{is}}}\right)^{r}} .

Wahrscheinlichkeitserzeugende Funktion

Variante A

Für die wahrscheinlichkeitserzeugende Funktion erhält man

m X ( s ) = ( p s 1 ( 1 p ) s ) r {\displaystyle m_{X}(s)=\left({\frac {ps}{1-(1-p)s}}\right)^{r}} mit 0 < s < 1 1 p {\displaystyle 0<s<{\frac {1}{1-p}}} .
Variante B

Analog ist dann

m X ( s ) = ( p 1 ( 1 p ) s ) r {\displaystyle m_{X}(s)=\left({\frac {p}{1-(1-p)s}}\right)^{r}} .

Momenterzeugende Funktion

Variante A

Die momenterzeugende Funktion der negativen Binomialverteilung ist

M X ( s ) = ( p e s 1 ( 1 p ) e s ) r {\displaystyle M_{X}(s)=\left({\frac {pe^{s}}{1-(1-p)e^{s}}}\right)^{r}} mit s < | ln ( 1 p ) | {\displaystyle s<|\ln(1-p)|} .
Variante B

Dann ist die Alternativdarstellung

M X ( s ) = ( p 1 ( 1 p ) e s ) r {\displaystyle M_{X}(s)=\left({\frac {p}{1-(1-p)e^{s}}}\right)^{r}}

Summen von negativ binomialverteilten Zufallsvariablen

Sind X 1 , X 2 {\displaystyle X_{1},X_{2}} zwei unabhängige negativ binomialverteilte Zufallsvariablen zu den Parametern r 1 , r 2 {\displaystyle r_{1},r_{2}} und p {\displaystyle p} . Dann ist X 1 + X 2 {\displaystyle X_{1}+X_{2}} wieder negativ binomialverteilt zum Parameter r 1 + r 2 {\displaystyle r_{1}+r_{2}} und p {\displaystyle p} . Die negative Binomialverteilung ist also reproduktiv, für die Faltung gilt NB ( r 1 , p ) NB ( r 2 , p ) = NB ( r 1 + r 2 , p ) {\displaystyle \operatorname {NB} (r_{1},p)*\operatorname {NB} (r_{2},p)=\operatorname {NB} (r_{1}+r_{2},p)} ,

sie bildet eine Faltungshalbgruppe.

Verallgemeinerung auf reelle Parameter

Die obige Herleitung und Interpretation der negativen Binomialverteilung über das Urnenmodell ist nur für r N {\displaystyle r\in \mathbb {N} } möglich. Es existiert jedoch auch eine Verallgemeinerung der negativen Binomialverteilung für r R + {\displaystyle r\in \mathbb {R} ^{+}} . Dazu wird eine Poisson-Verteilung P ( k | λ ) {\displaystyle P(k|\lambda )} betrachtet, deren Intensität λ {\displaystyle \lambda } zufällig gemäß einer Gamma-Verteilung mit den Parametern r {\displaystyle r} und p 1 p {\displaystyle {\frac {p}{1-p}}} verteilt ist. Wird nun die Mischverteilung dieser beiden Verteilungen gebildet, ergibt sich die sogenannte Poisson-Gamma-Verteilung. Für die Wahrscheinlichkeitsfunktion dieser Verteilung gilt dann

f ( k | r , p ) = 0 f Poi ( k | λ ) f Gamma ( λ | r , p 1 p ) d λ = 0 λ k k ! e λ λ r 1 e λ p / ( 1 p ) ( 1 p p ) r Γ ( r ) d λ = p r ( 1 p ) r k ! Γ ( r ) 0 λ r + k 1 e λ / ( 1 p ) d λ = ( p ) r ( 1 p ) r k ! Γ ( r )   ( 1 p ) r + k Γ ( r + k ) = Γ ( r + k ) k ! Γ ( r ) ( 1 p ) k p r . {\displaystyle {\begin{aligned}f(k|r,p)&=\int _{0}^{\infty }f_{\text{Poi}}(k|\lambda )\cdot f_{\text{Gamma}}(\lambda |r,{\frac {p}{1-p}})\;\mathrm {d} \lambda \\[8pt]&=\int _{0}^{\infty }{\frac {\lambda ^{k}}{k!}}e^{-\lambda }\cdot \lambda ^{r-1}{\frac {e^{-\lambda p/(1-p)}}{{\big (}{\frac {1-p}{p}}{\big )}^{r}\,\Gamma (r)}}\;\mathrm {d} \lambda \\[8pt]&={\frac {p^{r}(1-p)^{-r}}{k!\,\Gamma (r)}}\int _{0}^{\infty }\lambda ^{r+k-1}e^{-\lambda /(1-p)}\;\mathrm {d} \lambda \\[8pt]&={\frac {(p)^{r}(1-p)^{-r}}{k!\,\Gamma (r)}}\ (1-p)^{r+k}\,\Gamma (r+k)\\[8pt]&={\frac {\Gamma (r+k)}{k!\;\Gamma (r)}}\;(1-p)^{k}p^{r}.\end{aligned}}}

Für r N {\displaystyle r\in \mathbb {N} } ergibt sich gerade die Wahrscheinlichkeitsfunktion der negativen Binomialverteilung. Somit lässt sich die negative Binomialverteilung auch für r R + {\displaystyle r\in \mathbb {R} ^{+}} sinnvoll interpretieren. Die Wahrscheinlichkeit, k {\displaystyle k} Erfolge zu erreichen, ist dann gleich der Wahrscheinlichkeit, bei einer Binomialverteilung mit zufälligem, gammaverteilten Parameter k {\displaystyle k} Erfolge zu erreichen. Die Gamma-Funktionen in der Wahrscheinlichkeitsfunktion können auch durch verallgemeinerte Binomialkoeffizienten ersetzt werden.

Diese Konstruktion entspricht der oben definierten Variante B. Alle Charakteristika, wie Erwartungswert, Varianz und so weiter, bleiben unverändert gültig. Zudem ist die Variante für reelles r > 0 {\displaystyle r>0} unendlich teilbar.

Beziehungen zu anderen Verteilungen

Beziehung zur Binomialverteilung

In der Tabelle wird die Beziehung zur Binomialverteilung veranschaulicht:

Deterministisch Zufällig Fragestellung
Binomialverteilung n {\displaystyle n} Versuche X {\displaystyle X} Erfolge Wie viele Erfolge X {\displaystyle X} haben wir in n {\displaystyle n} Versuchen?
Negative Binomialverteilung x {\displaystyle x} Erfolge N {\displaystyle N} Versuche Wie viele Versuche N {\displaystyle N} sind erforderlich, um x {\displaystyle x} Erfolge zu haben?

Beziehung zur geometrischen Verteilung

Die negative Binomialverteilung geht für r = 1 {\displaystyle r=1} in die geometrische Verteilung über. Andererseits ist Summe X = i = 1 r X i {\displaystyle X=\sum _{i=1}^{r}X_{i}} voneinander unabhängiger geometrisch verteilter Zufallsgrößen X 1 , , X r {\displaystyle X_{1},\dots ,X_{r}} mit demselben Parameter p {\displaystyle p} negativ-binomialverteilt NB ( r , p ) {\displaystyle \operatorname {NB} (r,p)} mit den Parametern p {\displaystyle p} und r {\displaystyle r} . Allerdings ist auch hier zu beachten, welche Parametrisierungsvariante gewählt wurde. Als Summe unabhängiger, identisch verteilter Zufallsvariablen ist X {\displaystyle X} für große r {\displaystyle r} annähernd normalverteilt.

Beziehung zur zusammengesetzten Poisson-Verteilung

Die negative Binomialverteilung entsteht aus der zusammengesetzten Poisson-Verteilung, wenn man diese mit der logarithmischen Verteilung kombiniert. Die Parameter gehen in die Variante B über mit p log = 1 p neg {\displaystyle p_{\text{log}}=1-p_{\text{neg}}} und r = λ ln ( 1 p log ) {\displaystyle \textstyle r={\frac {-\lambda }{\ln(1-p_{\text{log}})}}} .

Beispiel

Wahrscheinlichkeitsfunktion der negativen Binomialverteilung
Verteilungsfunktion der negativen Binomialverteilung

Die Studentin Paula spielt heute Abend Skat. Aus langer Erfahrung weiß sie, dass sie bei jedem 5. Spiel gewinnt. Gewinnen ist folgendermaßen definiert: Sie muss zunächst ein Spiel durch Reizen bekommen, dann muss sie dieses Spiel gewinnen.

Da sie morgen um acht Uhr Statistik-Vorlesung hat, soll der Abend nicht zu lang werden. Deshalb hat sie beschlossen, nach dem 10. gewonnenen Spiel nach Hause zu gehen. Nehmen wir an, dass ein Spiel etwa 4 Minuten dauert (großzügig gerechnet). Mit welcher Wahrscheinlichkeit kann sie nach zwei Stunden nach Hause gehen, also nach 30 Spielen?

Wir gehen mit unseren Überlegungen analog zu oben vor:

Mit welcher Wahrscheinlichkeit hat sie in 29 Spielen 9-mal gewonnen? Wir berechnen diese Wahrscheinlichkeit mit der Binomialverteilung, in Begriffen des Urnenmodells bei 29 Versuchen und 9 Kugeln erster Sorte:

P ( Y = 9 ) = ( 29 9 ) 0 , 2 9 0 , 8 20 = 0,059 1. {\displaystyle P(Y=9)={29 \choose 9}0{,}2^{9}\cdot 0{,}8^{20}=0{,}0591.}

Die Wahrscheinlichkeit, den 10. Gewinn beim 30. Spiel zu machen, ist nun

P ( X = 30 ) = 0,059 1 0 , 2 = 0,011 8. {\displaystyle P(X=30)=0{,}0591\cdot 0{,}2=0{,}0118.}

Diese Wahrscheinlichkeit scheint nun sehr klein zu sein. Die Grafik der negativ binomialverteilten Zufallsvariablen X {\displaystyle X} zeigt, dass insgesamt die Wahrscheinlichkeiten sehr klein bleiben. Wie soll da die arme Paula jemals ins Bett kommen? Wir können sie beruhigen: Es genügt ja, danach zu fragen, wie viele Versuche Paula höchstens braucht, es müssen ja nicht genau 30 sein.

Die Wahrscheinlichkeit, dass höchstens 30 Versuche nötig sind, ist die Verteilungsfunktion F ( x ) {\displaystyle F(x)} der negativen Binomialverteilung an der Stelle x = 30 {\displaystyle x=30} , was hier die Summe der Wahrscheinlichkeiten P ( X = 0 ) + P ( X = 1 ) + P ( X = 2 ) + + P ( X = 30 ) {\displaystyle P(X=0)+P(X=1)+P(X=2)+\dots +P(X=30)} ergibt. Ein Blick auf die Grafik der Verteilungsfunktion zeigt: Wenn Paula mit einer 50%igen Wahrscheinlichkeit zufrieden ist, müsste sie höchstens ca. 50 Spiele absolvieren, das wären 50·4 min = 200 min = 3h 20 min. Um mit einer 80%igen Wahrscheinlichkeit ihre 10 Gewinne zu bekommen, müsste sie höchstens ca. 70 Spiele spielen, also knapp 5 Stunden. Vielleicht sollte Paula doch ihre Strategie der Spielezahl ändern.

Weblinks

Literatur

  • Achim Klenke: Wahrscheinlichkeitstheorie. 3. Auflage. Springer-Verlag, Berlin Heidelberg 2013, ISBN 978-3-642-36017-6, doi:10.1007/978-3-642-36018-3. 
  • Christian Hesse: Angewandte Wahrscheinlichkeitstheorie. 1. Auflage. Vieweg, Wiesbaden 2003, ISBN 3-528-03183-2, doi:10.1007/978-3-663-01244-3. 
Diskrete univariate Verteilungen

Diskrete univariate Verteilungen für endliche Mengen:
Benford | Bernoulli | beta-binomial | binomial | Dirac | diskret uniform | empirisch | hypergeometrisch | kategorial | negativ hypergeometrisch | Rademacher | verallgemeinert binomial | Zipf | Zipf-Mandelbrot | Zweipunkt

Diskrete univariate Verteilungen für unendliche Mengen:
Boltzmann | Conway-Maxwell-Poisson | discrete-Phase-Type | erweitert negativ binomial | Gauss-Kuzmin | gemischt Poisson | geometrisch | logarithmisch | negativ binomial | parabolisch-fraktal | Poisson | Skellam | verallgemeinert Poisson | Yule-Simon | Zeta

Kontinuierliche univariate Verteilungen

Kontinuierliche univariate Verteilungen mit kompaktem Intervall:
Beta | Cantor | Kumaraswamy | raised Cosine | Dreieck | Trapez | U-quadratisch | stetig uniform | Wigner-Halbkreis

Kontinuierliche univariate Verteilungen mit halboffenem Intervall:
Beta prime | Bose-Einstein | Burr | Chi | Chi-Quadrat | Coxian | Erlang | Exponential | Extremwert | F | Fermi-Dirac | Folded normal | Fréchet | Gamma | Gamma-Gamma | verallgemeinert invers Gauß | halblogistisch | halbnormal | Hartman-Watson | Hotellings T-Quadrat | hyper-exponentiale | hypoexponential | invers Chi-Quadrat | scale-invers Chi-Quadrat | Invers Normal | Invers Gamma | Kolmogorow-Verteilung | Lévy | log-normal | log-logistisch | Maxwell-Boltzmann | Maxwell-Speed | Nakagami | nichtzentriert Chi-Quadrat | Pareto | Phase-Type | Rayleigh | relativistisch Breit-Wigner | Rice | Rosin-Rammler | shifted Gompertz | truncated normal | Type-2-Gumbel | Weibull | Wilks’ Lambda

Kontinuierliche univariate Verteilungen mit unbeschränktem Intervall:
Cauchy | Extremwert | exponential Power | Fishers z | Fisher-Tippett (Gumbel) | generalized hyperbolic | Hyperbolic-secant | Landau | Laplace | alpha-stabil | logistisch | normal (Gauß) | normal-invers Gauß’sch | Skew-normal | Studentsche t | Type-1-Gumbel | Variance-Gamma | Voigt

Multivariate Verteilungen

Diskrete multivariate Verteilungen:
Dirichlet compound multinomial | Ewens | gemischt Multinomial | multinomial | multivariat hypergeometrisch | multivariat Poisson | negativmultinomial | Pólya/Eggenberger | polyhypergeometrisch

Kontinuierliche multivariate Verteilungen:
Dirichlet | GEM | generalized Dirichlet | multivariat normal | multivariat Student | normalskaliert invers Gamma | Normal-Gamma | Poisson-Dirichlet

Multivariate Matrixverteilungen:
Gleichverteilung auf der Stiefel-Mannigfaltigkeit | Invers Wishart | Matrix Beta | Matrix Gamma | Matrix invers Beta | Matrix invers Gamma | Matrix Normal | Matrix Student-t | Matrix-Von-Mises-Fisher-Verteilung | Normal-invers-Wishart | Normal-Wishart | Wishart