Wishart-Verteilung

Die Wishart-Verteilung ist eine Wahrscheinlichkeitsverteilung und zwar die matrixvariate Entsprechung der χ2-Verteilung. Sie wurde nach dem schottischen Statistiker John Wishart benannt.

Die Wishart-Verteilung spielt eine zentrale Rolle in der Theorie der Zufallsmatrizen und in der multivariaten Statistik.

Wishart Ensemble

In der Theorie der Zufallsmatrizen bezeichnet das Wishart Ensemble den Raum der Wishart-Matrizen. Analog zu Dysons β {\displaystyle \beta } -Gaußschem Ensemble spricht man auch vom β {\displaystyle \beta } -Wishart Ensemble für (reell) Wishart, komplex Wishart und Quaternion Wishart. Häufig verwendet man aber auch die technische Bezeichnung Laguerre, somit erhält man die β {\displaystyle \beta } -Ensembles LOE, LUE und LSE, benannt nach der Invarianz des Maßes unter der entsprechenden kompakten Lie-Gruppen-Konjugation.

Definition

Formale Definition

Sei M {\displaystyle M} eine m × m {\displaystyle m\times m} -Zufallsmatrix. Das Wahrscheinlichkeitsmaß[1]

W m ( n , Σ ) := 1 W n , m , Σ ( det M ) ( n m 1 ) / 2 e 1 2 tr ( Σ 1 M ) d M , {\displaystyle W_{m}(n,\Sigma ):={\frac {1}{{\mathcal {W}}_{n,m,\Sigma }}}(\det M)^{(n-m-1)/2}e^{-{\frac {1}{2}}\operatorname {tr} (\Sigma ^{-1}M)}\mathrm {d} M,}

wobei

W n , m , Σ := 2 n m / 2 Γ m ( n / 2 ) ( det Σ ) n / 2 , {\displaystyle {\mathcal {W}}_{n,m,\Sigma }:=2^{nm/2}\Gamma _{m}(n/2)(\det \Sigma )^{n/2},}

definiert die zentrierte Wishart-Verteilung mit n m {\displaystyle n\geq m} Freiheitsgraden auf dem Raum der symmetrischen positiv definiten Matrizen ( x T M x > 0 {\displaystyle x^{T}Mx>0} ).

Mit Γ m ( n / 2 ) {\displaystyle \Gamma _{m}(n/2)} bezeichnet man die multivariate Gammafunktion:

Γ m ( n 2 ) = π m ( m 1 ) / 4 j = 1 m Γ ( n 2 j 1 2 ) . {\displaystyle \Gamma _{m}\left({\frac {n}{2}}\right)=\pi ^{m(m-1)/4}\prod _{j=1}^{m}\Gamma \left({\frac {n}{2}}-{\frac {j-1}{2}}\right).}

Eine Zufallsmatrix M W m ( n , Σ ) {\displaystyle M\sim W_{m}(n,\Sigma )} nennt man zentrierte Wishart-Matrix.

Im Fall n < m {\displaystyle n<m} erhält man singuläre Wishart-Matrizen.[2]

Einleitung

Sei X {\displaystyle X} eine m × n {\displaystyle m\times n} -dimensionale Zufallsmatrix, die der zentrierten matrixvariaten Normalverteilung N n , m ( 0 , Σ , Id ) {\displaystyle {\mathcal {N}}_{n,m}(0,\Sigma ,\operatorname {Id} )} folgt. Dann ist

W = X X {\displaystyle W=XX'}

Wishart-verteilt. Das heißt, eine m × m {\displaystyle m\times m} -Wishart-Matrix besteht aus 1 2 m ( m + 1 ) {\displaystyle {\tfrac {1}{2}}m(m+1)} sich nicht wiederholenden Elementen. Falls E [ X ] = 0 n , m , {\displaystyle \mathbb {E} [X]=0_{n,m},} spricht man von einer zentrierten Wishart-Matrix.

Wenn allerdings X {\displaystyle X} nicht zentriert ist, d. h. X N n , m ( μ , Σ , Id ) {\displaystyle X\sim {\mathcal {N}}_{n,m}(\mu ,\Sigma ,\operatorname {Id} )} , dann spricht man von einer nicht-zentrierten Wishart-Matrix, geschrieben M W m ( n , Σ , M ) {\displaystyle M\sim W_{m}(n,\Sigma ,M)} (siehe Abschnitt Nicht-zentrierte Wishart-Verteilung). Explizite Formeln sind für diese Matrix in hoher Dimension äußerst kompliziert. Man kann jedoch die charakteristische Funktion angeben.[3]

Falls X {\displaystyle X} einer komplexen matrixvariaten Normalverteilung folgt, dann ist W {\displaystyle W} komplex Wishart-verteilt.

Eigenwertdichte

Sei M W m ( n , Σ ) {\displaystyle M\sim W_{m}(n,\Sigma )} und λ 1 λ 2 λ m {\displaystyle \lambda _{1}\geq \lambda _{2}\geq \cdots \geq \lambda _{m}} die geordneten Eigenwerte. Weiter sei d Q {\displaystyle \mathrm {d} Q} das normalisierte Haarsche Maß über der orthogonalen Gruppe O m {\displaystyle \mathbb {O} _{m}} und Λ = diag ( λ 1 , , λ m ) {\displaystyle \Lambda =\operatorname {diag} (\lambda _{1},\dots ,\lambda _{m})} , dann ist die Eigenwertdichte[4]

P m , n ( λ 1 , , λ m ) = C m , n 1 ( det Σ ) n / 2 i λ i n m 1 2 i < j ( λ i λ j ) O m e 1 2 tr ( Σ 1 Q Λ Q t ) d Q {\displaystyle \mathbb {P} _{m,n}(\lambda _{1},\dots ,\lambda _{m})=C_{m,n}{\frac {1}{(\operatorname {det} \Sigma )^{n/2}}}\prod \limits _{i}\lambda _{i}^{\frac {n-m-1}{2}}\prod \limits _{i<j}(\lambda _{i}-\lambda _{j})\int _{\mathbb {O} _{m}}e^{-{\frac {1}{2}}\operatorname {tr} (\Sigma ^{-1}Q\Lambda Q^{t})}\mathrm {d} Q} ,

wobei C m , n := π m 2 / 2 2 m n / 2 Γ m ( m / 2 ) Γ m ( n / 2 ) {\displaystyle C_{m,n}:={\frac {\pi ^{m^{2}/2}}{2^{mn/2}\Gamma _{m}(m/2)\Gamma _{m}(n/2)}}} .

Für das Integral über der orthogonalen Gruppe gibt es keine bekannte geschlossene Formel. Allerdings kann man mit Hilfe der Theorie der zonalen Polynome eine unendliche Reihenentwicklung für das Integral finden.

Für komplexe Wishart-Matrizen geht das Integral über die unitäre Gruppe U m {\displaystyle \mathbb {U} _{m}} , welches man mittels dem Harish-Chandra-Itzykson-Zuber-Integral berechnen kann.

det ( Σ ) {\displaystyle \operatorname {det} (\Sigma )} wird auch als verallgemeinerte Varianz bezeichnet.

Nicht-zentrierte Wishart-Verteilung

Eine symmetrische positive p × p {\displaystyle p\times p} -Zufallsmatrix M {\displaystyle M} folgt der nicht-zentrierten Wishart-Verteilung, geschrieben M W p ( n , Σ , Ξ ) {\displaystyle M\sim W_{p}(n,\Sigma ,\Xi )} , falls sie folgende Wahrscheinlichkeitsdichte besitzt:[5]

Für M > 0 ,   n p {\displaystyle M>0,\ n\geq p} gilt

f ( M ) = { 2 1 2 n p Γ p ( 1 2 n ) det ( Σ ) 1 2 n } 1 exp ( tr ( 1 2 Ξ ) ) exp ( tr ( 1 2 Σ 1 M ) ) det ( M ) 1 2 ( n p 1 ) 0 F 1 ( 1 2 n ; 1 4 Ξ Σ 1 M ) , {\displaystyle f(M)={\bigg \{}2^{{\frac {1}{2}}np}\Gamma _{p}\left({\frac {1}{2}}n\right)\det(\Sigma )^{{\frac {1}{2}}n}{\bigg \}}^{-1}\exp \left(\operatorname {tr} (-{\frac {1}{2}}\Xi )\right)\exp \left(\operatorname {tr} (-{\frac {1}{2}}\Sigma ^{-1}M)\right)\det(M)^{{\frac {1}{2}}(n-p-1)}{}_{0}F_{1}\left({\frac {1}{2}}n;{\frac {1}{4}}\Xi \Sigma ^{-1}M\right),}

wobei 0 F 1 {\displaystyle {}_{0}F_{1}} die verallgemeinerte hypergeometrische Funktion mit Matrizen-Argument ist.

Wishart-Prozess

Der Wishart-Prozess bzw. dessen Eigenwertprozess ist das Analogon zu Dysons brownscher Bewegung für Kovarianzmatrizen. Sei S n + {\displaystyle S_{n}^{+}} der Raum der semidefiniten reellen n × n {\displaystyle n\times n} -Matrizen, S 0 S n + {\displaystyle S_{0}\in S_{n}^{+}} und B t {\displaystyle B_{t}} eine n × n {\displaystyle n\times n} -Matrix-Brownsche-Bewegung. Weiter sei Q GL n ( R ) {\displaystyle Q\in \operatorname {GL} _{n}(\mathbb {R} )} und M Mat n ( R ) {\displaystyle M\in \operatorname {Mat} _{n}(\mathbb {R} )} sowie α > n 1 {\displaystyle \alpha >n-1} ein Parameter. Der Wishart-Prozess ist die starke Lösung folgender stochastischen Differentialgleichung:[6]

d S t = S t d B t Q + Q T d B t T S t + ( M S t + S t M T + α Q Q T ) d t , t 0 {\displaystyle \mathrm {d} S_{t}={\sqrt {S_{t}}}\mathrm {d} B_{t}Q+Q^{T}\mathrm {d} B_{t}^{T}{\sqrt {S}}_{t}+\left(MS_{t}+S_{t}M^{T}+\alpha QQ^{T}\right)\mathrm {d} t,\quad t\geq 0}

Betrachtet man das Wishartsche unitäre Ensemble, so wird der Prozess auch häufig Laguerre-Prozess genannt.

Finanzmodelle mit multivariater wishartschen stochastischen Volatilität haben mehr Flexibilität als das klassische Black-Scholes-Modell.

Asymptotisches Spektralmaß

Für unendlich große Standard-Wishart-Matrizen (sowie auch für allgemeinere Formen) gilt für die Eigenwerte das Marchenko-Pastur-Gesetz.

Marchenko-Pastur-Gesetz

Sei M m W m ( n , Id m ) ,   M = M m / n {\displaystyle M_{m}\sim W_{m}(n,\operatorname {Id} _{m}),\ M=M_{m}/n} und m , n , {\displaystyle m,n\to \infty ,} so dass m / n α ( 0 , ) {\displaystyle m/n\to \alpha \in (0,\infty )} , dann konvergiert das empirische Spektralmaß von M {\displaystyle M} auf [ λ , λ + ] := [ ( 1 α ) 2 , ( 1 + α ) 2 ] {\displaystyle [\lambda _{-},\lambda _{+}]:=[(1-{\sqrt {\alpha }})^{2},(1+{\sqrt {\alpha }})^{2}]} schwach nach[7]

mp α ( d x , ω ) := ( 1 1 α ) + δ 0 + ( x λ ) ( λ + x ) 2 π x α 1 x [ λ , λ + ] d x fast sicher. {\displaystyle \operatorname {mp} _{\alpha }(\mathrm {d} x,\omega ):=\left(1-{\frac {1}{\alpha }}\right)^{+}\delta _{0}+{\frac {\sqrt {(x-\lambda _{-})(\lambda _{+}-x)}}{2\pi x\alpha }}1_{x\in [\lambda _{-},\lambda _{+}]}\mathrm {d} x\quad {\text{fast sicher.}}}

Tracy-Widom-Gesetz

Hauptartikel: Tracy-Widom-Verteilung

Der größte Eigenwert einer normalisierten Wishart-Matrix folgt dem Tracy-Widom-Gesetz.

Eigenschaften

Die Wishart-Verteilung hat folgende Eigenschaften:[8]

  1. Sei M W m ( n , Σ ) {\displaystyle M\sim W_{m}(n,\Sigma )} und C {\displaystyle C} eine q × m {\displaystyle q\times m} -Matrix mit Rang q {\displaystyle q} , dann gilt C M C t W m ( n , C Σ C t ) {\displaystyle CMC^{t}\sim W_{m}(n,C\Sigma C^{t})} .
  2. Aus (1.) folgt somit Σ 1 2 M Σ 1 2 W m ( n , I d m ) {\displaystyle \Sigma ^{-{\frac {1}{2}}}M\Sigma ^{-{\frac {1}{2}}}\sim W_{m}(n,\operatorname {Id_{m}} )} .
  3. Seien ( M i ) W m ( n i , Σ ) {\displaystyle (M_{i})\sim W_{m}(n_{i},\Sigma )} k {\displaystyle k} unabhängige Wishart-Matrizen. Dann ist M = i = 1 k M i W m ( n 1 + + n k , Σ ) {\displaystyle M=\sum \limits _{i=1}^{k}M_{i}\sim W_{m}(n_{1}+\dotsb +n_{k},\Sigma )} (Reproduktivität).
  4. Sei M W m ( n , Σ ) {\displaystyle M\sim W_{m}(n,\Sigma )} , dann E [ W m ] = n Σ . {\displaystyle \mathbb {E} [W_{m}]=n\Sigma .}

Für nicht-zentralisierte Wishart-Matrizen gilt

  1. Seien M i W m ( n i , Σ , Ξ i ) {\displaystyle M_{i}\sim W_{m}(n_{i},\Sigma ,\Xi _{i})} und i = 1 , , k {\displaystyle i=1,\dots ,k} und unabhängig, dann ist M = i = 1 k M i W m ( i = 1 k n i , Σ , i = 1 k Ξ i ) {\displaystyle M=\sum \limits _{i=1}^{k}M_{i}\sim W_{m}\left(\sum \limits _{i=1}^{k}n_{i},\Sigma ,\sum \limits _{i=1}^{k}\Xi _{i}\right)} (Reproduktivität).

Herleitung

Seien X 1 , , X m N ( 0 , 1 ) {\displaystyle X_{1},\dots ,X_{m}\sim {\mathcal {N}}(0,1)} (standardnormalverteilte Zufallsvariablen). Summiert man die Quadrate der X i , {\displaystyle X_{i},} erhält man eine Chi-Quadrat-verteilte Zufallsvariable mit m {\displaystyle m} Freiheitsgraden:

Y = i = 1 m X i 2 χ 2 ( m ) {\displaystyle Y=\sum _{i=1}^{m}X_{i}^{2}\sim \chi ^{2}(m)}

Diese Summe lässt sich aber auch als das Produkt eines m {\displaystyle m} -variaten Zufallsvektors mit seiner Transponierten auffassen:

Y = Z Z , {\displaystyle Y=ZZ',}

wobei Z = ( X 1 , , X m ) N m ( 0 , Σ ) {\displaystyle Z=(X_{1},\dots ,X_{m})\sim {\mathcal {N}}_{m}(0,\Sigma )} .

Hat man nun n {\displaystyle n} unabhängige Zufallsvektoren Z 1 , , Z n N m ( 0 , Σ ) {\displaystyle Z_{1},\dots ,Z_{n}\sim {\mathcal {N}}_{m}(0,\Sigma )} , fasst man diese in einer m × n {\displaystyle m\times n} -Zufallsmatrix zusammen:

X = ( | | | | Z 1 Z 2 Z n | | | | ) = ( Z 1 ( 1 ) Z 1 ( 2 ) Z 1 ( n ) Z 2 ( 1 ) Z 2 ( 2 ) Z 2 ( n ) Z m ( 1 ) Z m ( 2 ) Z m ( n ) ) {\displaystyle \mathbf {X} ={\begin{pmatrix}\vline &\vline &\vline &\vline \\Z_{1}'&Z_{2}'&\dots &Z_{n}'\\\vline &\vline &\vline &\vline \end{pmatrix}}={\begin{pmatrix}Z_{1}^{(1)}&Z_{1}^{(2)}&\cdots &Z_{1}^{(n)}\\Z_{2}^{(1)}&Z_{2}^{(2)}&\cdots &Z_{2}^{(n)}\\\vdots &\vdots &\cdots &\vdots \\Z_{m}^{(1)}&Z_{m}^{(2)}&\cdots &Z_{m}^{(n)}\\\end{pmatrix}}} .

Multipliziert man X {\displaystyle \mathbf {X} } mit ihrer Transponierten, erhält man eine (symmetrische) m × m {\displaystyle m\times m} -Zufallsmatrix, die der Wishart-Verteilung mit n {\displaystyle n} Freiheitsgraden folgt:

W = X X = i = 1 n Z i Z i {\displaystyle {\textbf {W}}=\mathbf {X} \mathbf {X} '=\sum _{i=1}^{n}Z_{i}'Z_{i}}

mit W W m ( n , Σ ) {\displaystyle {\textbf {W}}\sim W_{m}(n,\Sigma )} .

Erläuterungen

Betrachte n = 10 {\displaystyle n=10} Observationen mit 2 {\displaystyle 2} Parametern Z 1 , Z 2 , , Z 10 N 2 ( 0 , Σ ) {\displaystyle Z_{1},Z_{2},\dots ,Z_{10}\sim {\mathcal {N}}_{2}(0,\Sigma )} . Sei Z 1 = ( z 1 ( 1 ) , z 2 ( 1 ) ) , Z 2 = ( z 1 ( 2 ) , z 2 ( 2 ) ) , , Z 10 = ( z 1 ( 10 ) , z 2 ( 10 ) ) {\displaystyle Z_{1}=(z_{1}^{(1)},z_{2}^{(1)}),Z_{2}=(z_{1}^{(2)},z_{2}^{(2)}),\dots ,Z_{10}=(z_{1}^{(10)},z_{2}^{(10)})} , dann ist

W = i = 1 10 Z i Z i = ( ( z 1 ( 1 ) ) 2 z 1 ( 1 ) z 2 ( 1 ) z 1 ( 1 ) z 2 ( 1 ) ( z 2 ( 1 ) ) 2 ) + ( ( z 1 ( 2 ) ) 2 z 1 ( 2 ) z 2 ( 2 ) z 1 ( 2 ) z 2 ( 2 ) ( z 2 ( 2 ) ) 2 ) + + ( ( z 1 ( 10 ) ) 2 z 1 ( 10 ) z 2 ( 10 ) z 1 ( 10 ) z 2 ( 10 ) ( z 2 ( 10 ) ) 2 ) = ( ( z 1 ( 1 ) ) 2 + ( z 1 ( 2 ) ) 2 + + ( z 1 ( 10 ) ) 2 z 1 ( 1 ) z 2 ( 1 ) + z 1 ( 2 ) z 2 ( 2 ) + + z 1 ( 10 ) z 2 ( 10 ) z 1 ( 1 ) z 2 ( 1 ) + z 1 ( 2 ) z 2 ( 2 ) + + z 1 ( 10 ) z 2 ( 10 ) ( z 2 ( 1 ) ) 2 + ( z 2 ( 2 ) ) 2 + + ( z 2 ( 10 ) ) 2 ) {\displaystyle {\begin{aligned}{\textbf {W}}=\sum _{i=1}^{10}Z_{i}'Z_{i}&={\begin{pmatrix}\left(z_{1}^{(1)}\right)^{2}&z_{1}^{(1)}z_{2}^{(1)}\\z_{1}^{(1)}z_{2}^{(1)}&\left(z_{2}^{(1)}\right)^{2}\end{pmatrix}}+{\begin{pmatrix}\left(z_{1}^{(2)}\right)^{2}&z_{1}^{(2)}z_{2}^{(2)}\\z_{1}^{(2)}z_{2}^{(2)}&\left(z_{2}^{(2)}\right)^{2}\end{pmatrix}}+\cdots +{\begin{pmatrix}\left(z_{1}^{(10)}\right)^{2}&z_{1}^{(10)}z_{2}^{(10)}\\z_{1}^{(10)}z_{2}^{(10)}&\left(z_{2}^{(10)}\right)^{2}\end{pmatrix}}\\&={\begin{pmatrix}\left(z_{1}^{(1)}\right)^{2}+\left(z_{1}^{(2)}\right)^{2}+\cdots +\left(z_{1}^{(10)}\right)^{2}&z_{1}^{(1)}z_{2}^{(1)}+z_{1}^{(2)}z_{2}^{(2)}+\cdots +z_{1}^{(10)}z_{2}^{(10)}\\z_{1}^{(1)}z_{2}^{(1)}+z_{1}^{(2)}z_{2}^{(2)}+\cdots +z_{1}^{(10)}z_{2}^{(10)}&\left(z_{2}^{(1)}\right)^{2}+\left(z_{2}^{(2)}\right)^{2}+\cdots +\left(z_{2}^{(10)}\right)^{2}\end{pmatrix}}\end{aligned}}} .

Das heißt, die Wishart-Matrix ist in diesem Beispiel die Summe aus zehn verschiedenen Matrizen.

Statistisches Beispiel

Seien X 1 , , X n {\displaystyle X_{1},\dotsc ,X_{n}} i.i.d. p {\displaystyle p} -dimensionale Zufallsvektoren mit Verteilung N p ( μ , Σ ) {\displaystyle {\mathcal {N}}_{p}(\mu ,\Sigma )} . Definiere die Schätzfunktionen für den Erwartungswert und die Varianz

X ¯ = 1 n i = 1 n X i {\displaystyle {\overline {X}}={\frac {1}{n}}\sum \limits _{i=1}^{n}X_{i}}
S = 1 n 1 i = 1 n ( X i X ¯ ) ( X i X ¯ ) t {\displaystyle S={\frac {1}{n-1}}\sum \limits _{i=1}^{n}(X_{i}-{\overline {X}})(X_{i}-{\overline {X}})^{t}}

Dann gilt

( n 1 ) S W p ( n 1 , Σ ) . {\displaystyle (n-1)S\sim W_{p}(n-1,\Sigma ).}

Erläuterung

Das heißt, die unnormalisierte Kovarianzmatrix der Zufallsstichprobe aus einer multivariaten Normalverteilung folgt der Wishart-Verteilung. Für den Maximum-Likelihood-Schätzer für die Kovarianzmatrix gilt:

Σ ^ M L = ( n 1 ) n S {\displaystyle {\widehat {\Sigma }}_{ML}={\frac {(n-1)}{n}}S}

Literatur

  • Ludger Rüschendorf: Mathematische Statistik. Springer Verlag, Berlin/Heidelberg 2014, ISBN 978-3-642-41996-6, doi:10.1007/978-3-642-41997-3. 

Einzelnachweise

  1. Alan J. Izenman: Modern multivariate statistical techniques: Regression, classification, and manifold learning. 1. Auflage. Springer-Verlag, New York, ISBN 978-0-387-78189-1, S. 63. 
  2. Harald Uhlig: On Singular Wishart and Singular Multivariate Beta Distributions. In: The Annals of Statistics, Ann. Statist. Nr. 22, 1994, doi:10.1214/aos/1176325375. 
  3. T. W. Anderson: The Non-Central Wishart Distribution and Certain Problems of Multivariate Statistics. In: The Annals of Statistics, Ann. Statist. Nr. 17, 1946, doi:10.1214/aoms/1177730882. 
  4. Alan T. James: Distributions of Matrix Variates and Latent Roots Derived from Normal Samples. In: The Annals of Mathematical Statistics, Ann. Statist. Nr. 35, 1964, doi:10.1214/aoms/1177703550. 
  5. A.K. Gupta, D.K. Nagar: Matrix Variate Distributions. Chapman & Hall/CRC, ISBN 1-58488-046-5, S. 113–114. 
  6. Marie-France Bru: Wishart Processes. In: Journal of Theoretical Probability, Vol 4. Nr. 4, 1991, S. 725–751, doi:10.1007/bf01259552. 
  7. Pavel Yaskov: A short proof of the Marchenko-Pastur theorem. In: arXiv. Abgerufen am 30. Mai 2021. 
  8. Alan J. Izenman: Modern multivariate statistical techniques: Regression, classification, and manifold learning. 1. Auflage. Springer-Verlag, New York, ISBN 978-0-387-78189-1, S. 64. 
Diskrete univariate Verteilungen

Diskrete univariate Verteilungen für endliche Mengen:
Benford | Bernoulli | beta-binomial | binomial | Dirac | diskret uniform | empirisch | hypergeometrisch | kategorial | negativ hypergeometrisch | Rademacher | verallgemeinert binomial | Zipf | Zipf-Mandelbrot | Zweipunkt

Diskrete univariate Verteilungen für unendliche Mengen:
Boltzmann | Conway-Maxwell-Poisson | discrete-Phase-Type | erweitert negativ binomial | Gauss-Kuzmin | gemischt Poisson | geometrisch | logarithmisch | negativ binomial | parabolisch-fraktal | Poisson | Skellam | verallgemeinert Poisson | Yule-Simon | Zeta

Kontinuierliche univariate Verteilungen

Kontinuierliche univariate Verteilungen mit kompaktem Intervall:
Beta | Cantor | Kumaraswamy | raised Cosine | Dreieck | Trapez | U-quadratisch | stetig uniform | Wigner-Halbkreis

Kontinuierliche univariate Verteilungen mit halboffenem Intervall:
Beta prime | Bose-Einstein | Burr | Chi | Chi-Quadrat | Coxian | Erlang | Exponential | Extremwert | F | Fermi-Dirac | Folded normal | Fréchet | Gamma | Gamma-Gamma | verallgemeinert invers Gauß | halblogistisch | halbnormal | Hartman-Watson | Hotellings T-Quadrat | hyper-exponentiale | hypoexponential | invers Chi-Quadrat | scale-invers Chi-Quadrat | Invers Normal | Invers Gamma | Kolmogorow-Verteilung | Lévy | log-normal | log-logistisch | Maxwell-Boltzmann | Maxwell-Speed | Nakagami | nichtzentriert Chi-Quadrat | Pareto | Phase-Type | Rayleigh | relativistisch Breit-Wigner | Rice | Rosin-Rammler | shifted Gompertz | truncated normal | Type-2-Gumbel | Weibull | Wilks’ Lambda

Kontinuierliche univariate Verteilungen mit unbeschränktem Intervall:
Cauchy | Extremwert | exponential Power | Fishers z | Fisher-Tippett (Gumbel) | generalized hyperbolic | Hyperbolic-secant | Landau | Laplace | alpha-stabil | logistisch | normal (Gauß) | normal-invers Gauß’sch | Skew-normal | Studentsche t | Type-1-Gumbel | Variance-Gamma | Voigt

Multivariate Verteilungen

Diskrete multivariate Verteilungen:
Dirichlet compound multinomial | Ewens | gemischt Multinomial | multinomial | multivariat hypergeometrisch | multivariat Poisson | negativmultinomial | Pólya/Eggenberger | polyhypergeometrisch

Kontinuierliche multivariate Verteilungen:
Dirichlet | GEM | generalized Dirichlet | multivariat normal | multivariat Student | normalskaliert invers Gamma | Normal-Gamma | Poisson-Dirichlet

Multivariate Matrixverteilungen:
Gleichverteilung auf der Stiefel-Mannigfaltigkeit | Invers Wishart | Matrix Beta | Matrix Gamma | Matrix invers Beta | Matrix invers Gamma | Matrix Normal | Matrix Student-t | Matrix-Von-Mises-Fisher-Verteilung | Normal-invers-Wishart | Normal-Wishart | Wishart