Hyperexponentialverteilung

Beispiel für die Wahrscheinlichkeitsdichte einer Hyperexponentialverteilung
Die durchgezogene, blaue Linie zeigt die Wahrscheinlichkeitsdichte einer Hyperexponentialverteilung am Beispiel p1=0.9, p2=0.1, λ1=1 und λ2=20.

Die Hyperexponentialverteilung ist eine stetige Wahrscheinlichkeitsverteilung. Anschaulich gesprochen ist sie eine Überlagerung mehrerer Exponentialverteilungen.

Definition

Seien Y i {\displaystyle Y_{i}} (mit i = 1 , , N {\displaystyle i=1,\dotsc ,N} ) unabhängige, exponentialverteilte Zufallsvariablen mit Raten λ i {\displaystyle \lambda _{i}} und seien p i {\displaystyle p_{i}} Wahrscheinlichkeiten, deren Summe 1 ergibt. Dann heißt die Zufallsvariable X {\displaystyle X} hyperexponentialverteilt, wenn sie folgende Wahrscheinlichkeitsdichte besitzt:[1]

f X ( x ) = i = 1 N p i f Y i ( x ) = { i = 1 N p i λ i e λ i x x 0 , 0 x < 0. {\displaystyle f_{X}(x)=\sum _{i=1}^{N}p_{i}f_{Y_{i}}(x)={\begin{cases}\sum \limits _{i=1}^{N}p_{i}\lambda _{i}e^{-\lambda _{i}\,x}&x\geq 0,\\0&x<0.\end{cases}}}

Einordnung und Bemerkungen

Bei einer Exponentialverteilung ist der Variationskoeffizient (Standardabweichung geteilt durch Erwartungswert) gleich 1. Die Bezeichnung „hyper“-exponential rührt daher, dass der Variationskoeffizient hier größer als 1 ist (sofern verschiedene λ i {\displaystyle \lambda _{i}} auftreten). Im Unterschied dazu ist er bei der Hypoexponentialverteilung kleiner als 1. Während die Exponentialverteilung das stetige Analogon zur geometrischen Verteilung ist, ist die Hyperexponentialverteilung kein Analogon zur hypergeometrischen Verteilung. Die Hyperexponentialverteilung ist ein Beispiel für eine Mischverteilung.

Als Anwendungsbeispiel kann die Auslastung eines Internetanschlusses dienen, über welchen entweder (mit Wahrscheinlichkeit p {\displaystyle p} und Rate λ 1 {\displaystyle \lambda _{1}} ) Internettelefonie oder (mit Wahrscheinlichkeit q {\displaystyle q} und Rate λ 2 {\displaystyle \lambda _{2}} ) Dateiübertragungen laufen, wobei p + q = 1 {\displaystyle p+q=1} . Die Gesamtauslastung ist dann hyperexponentialverteilt.

Eine gegebene Wahrscheinlichkeitsverteilung, inklusive endlastiger Verteilungen, kann durch eine Hyperexponentialverteilung angenähert werden, indem rekursiv verschiedene Zeitskalen ( λ i {\displaystyle \lambda _{i}} ) mittels der sogenannten Prony-Methode angefittet werden.[2]

Eigenschaften

Aus der Linearität des Integrals ergibt sich:

E [ X ] = x f ( x ) d x = i = 1 N p i 0 x λ i e λ i x d x = i = 1 N p i λ i {\displaystyle \operatorname {E} [X]=\int _{-\infty }^{\infty }xf(x)\,dx=\sum _{i=1}^{N}p_{i}\int _{0}^{\infty }x\lambda _{i}e^{-\lambda _{i}x}\,dx=\sum _{i=1}^{N}{\frac {p_{i}}{\lambda _{i}}}}

und

E [ X 2 ] = x 2 f ( x ) d x = i = 1 N p i 0 x 2 λ i e λ i x d x = i = 1 N 2 λ i 2 p i . {\displaystyle \operatorname {E} \left[X^{2}\right]=\int _{-\infty }^{\infty }x^{2}f(x)\,dx=\sum _{i=1}^{N}p_{i}\int _{0}^{\infty }x^{2}\lambda _{i}e^{-\lambda _{i}x}\,dx=\sum _{i=1}^{N}{\frac {2}{\lambda _{i}^{2}}}p_{i}\;.}

Mit Hilfe des Verschiebungssatzes ergibt sich daraus die Varianz:[3]

Var [ X ] = E [ X 2 ] E [ X ] 2 = i = 1 N 2 λ i 2 p i [ i = 1 N p i λ i ] 2 = [ i = 1 N p i λ i ] 2 + i = 1 N j = 1 N p i p j ( 1 λ i 1 λ j ) 2 . {\displaystyle \operatorname {Var} [X]=\operatorname {E} \left[X^{2}\right]-\operatorname {E} \left[X\right]^{2}=\sum _{i=1}^{N}{\frac {2}{\lambda _{i}^{2}}}p_{i}-\left[\sum _{i=1}^{N}{\frac {p_{i}}{\lambda _{i}}}\right]^{2}=\left[\sum _{i=1}^{N}{\frac {p_{i}}{\lambda _{i}}}\right]^{2}+\sum _{i=1}^{N}\sum _{j=1}^{N}p_{i}p_{j}\left({\frac {1}{\lambda _{i}}}-{\frac {1}{\lambda _{j}}}\right)^{2}\;.}

Sofern nicht alle λ i {\displaystyle \lambda _{i}} gleich groß sind, ist die Standardabweichung größer als der Erwartungswert.

Die momenterzeugende Funktion ist

E [ e t X ] = e t x f ( x ) d x = i = 1 N p i 0 e t x λ i e λ i x d x = i = 1 N λ i λ i t p i . {\displaystyle \operatorname {E} \left[e^{tX}\right]=\int _{-\infty }^{\infty }e^{tx}f(x)\,dx=\sum _{i=1}^{N}p_{i}\int _{0}^{\infty }e^{tx}\lambda _{i}e^{-\lambda _{i}x}\,dx=\sum _{i=1}^{N}{\frac {\lambda _{i}}{\lambda _{i}-t}}p_{i}\;.}

Siehe auch

  • Phasenverteilung

Fußnoten und Einzelnachweise

  1. L. N. Singh, G. R. Dattatreya: Estimation of the Hyperexponential Density with Applications in Sensor Networks. In: International Journal of Distributed Sensor Networks. 3. Jahrgang, Nr. 3, 2007, S. 311, doi:10.1080/15501320701259925. 
  2. A. Feldmann, W. Whitt: Fitting mixtures of exponentials to long-tail distributions to analyze network performance models. In: Performance Evaluation. 31. Jahrgang, Nr. 3–4, 1998, S. 245, doi:10.1016/S0166-5316(97)00003-5 (columbia.edu [PDF]). 
  3. H. T. Papadopolous, C. Heavey, J. Browne: Queueing Theory in Manufacturing Systems Analysis and Design. Springer, 1993, ISBN 978-0-412-38720-3, S. 35 (google.com). 
Diskrete univariate Verteilungen

Diskrete univariate Verteilungen für endliche Mengen:
Benford | Bernoulli | beta-binomial | binomial | Dirac | diskret uniform | empirisch | hypergeometrisch | kategorial | negativ hypergeometrisch | Rademacher | verallgemeinert binomial | Zipf | Zipf-Mandelbrot | Zweipunkt

Diskrete univariate Verteilungen für unendliche Mengen:
Boltzmann | Conway-Maxwell-Poisson | discrete-Phase-Type | erweitert negativ binomial | Gauss-Kuzmin | gemischt Poisson | geometrisch | logarithmisch | negativ binomial | parabolisch-fraktal | Poisson | Skellam | verallgemeinert Poisson | Yule-Simon | Zeta

Kontinuierliche univariate Verteilungen

Kontinuierliche univariate Verteilungen mit kompaktem Intervall:
Beta | Cantor | Kumaraswamy | raised Cosine | Dreieck | Trapez | U-quadratisch | stetig uniform | Wigner-Halbkreis

Kontinuierliche univariate Verteilungen mit halboffenem Intervall:
Beta prime | Bose-Einstein | Burr | Chi | Chi-Quadrat | Coxian | Erlang | Exponential | Extremwert | F | Fermi-Dirac | Folded normal | Fréchet | Gamma | Gamma-Gamma | verallgemeinert invers Gauß | halblogistisch | halbnormal | Hartman-Watson | Hotellings T-Quadrat | hyper-exponentiale | hypoexponential | invers Chi-Quadrat | scale-invers Chi-Quadrat | Invers Normal | Invers Gamma | Kolmogorow-Verteilung | Lévy | log-normal | log-logistisch | Maxwell-Boltzmann | Maxwell-Speed | Nakagami | nichtzentriert Chi-Quadrat | Pareto | Phase-Type | Rayleigh | relativistisch Breit-Wigner | Rice | Rosin-Rammler | shifted Gompertz | truncated normal | Type-2-Gumbel | Weibull | Wilks’ Lambda

Kontinuierliche univariate Verteilungen mit unbeschränktem Intervall:
Cauchy | Extremwert | exponential Power | Fishers z | Fisher-Tippett (Gumbel) | generalized hyperbolic | Hyperbolic-secant | Landau | Laplace | alpha-stabil | logistisch | normal (Gauß) | normal-invers Gauß’sch | Skew-normal | Studentsche t | Type-1-Gumbel | Variance-Gamma | Voigt

Multivariate Verteilungen

Diskrete multivariate Verteilungen:
Dirichlet compound multinomial | Ewens | gemischt Multinomial | multinomial | multivariat hypergeometrisch | multivariat Poisson | negativmultinomial | Pólya/Eggenberger | polyhypergeometrisch

Kontinuierliche multivariate Verteilungen:
Dirichlet | GEM | generalized Dirichlet | multivariat normal | multivariat Student | normalskaliert invers Gamma | Normal-Gamma | Poisson-Dirichlet

Multivariate Matrixverteilungen:
Gleichverteilung auf der Stiefel-Mannigfaltigkeit | Invers Wishart | Matrix Beta | Matrix Gamma | Matrix invers Beta | Matrix invers Gamma | Matrix Normal | Matrix Student-t | Matrix-Von-Mises-Fisher-Verteilung | Normal-invers-Wishart | Normal-Wishart | Wishart