Zufallsvektor

Als Zufallsvektor bezeichnet man in der Stochastik eine Funktion, die auf einem Wahrscheinlichkeitsraum definiert ist, Werte im R n {\displaystyle \mathbb {R} ^{n}} annimmt und messbar ist. Zufallsvektoren bilden das höherdimensionale Pendant von reellwertigen Zufallsvariablen. Viele der Eigenschaften von reellwertigen Zufallsvariablen übertragen sich direkt oder nach kleinen Modifikationen auf Zufallsvektoren.

Zufallsvektoren sollten nicht mit stochastischen Vektoren, auch Wahrscheinlichkeitsvektoren genannt, verwechselt werden. Bei ihnen handelt es sich um Vektoren aus R n {\displaystyle \mathbb {R} ^{n}} , deren Einträge nicht-negativ sind und sich zu eins aufsummieren. Zufallsvektoren hingegen sind Abbildungen.

Definition

Es bezeichne B ( ) {\displaystyle {\mathcal {B}}(\cdot )} die Borelsche σ-Algebra. Sei ( Ω , A , P ) {\displaystyle (\Omega ,{\mathcal {A}},P)} ein Wahrscheinlichkeitsraum und m {\displaystyle m} eine natürliche Zahl. Dann heißt eine Abbildung

X : ( Ω , A , P ) ( R m , B ( R m ) ) {\displaystyle X\colon (\Omega ,{\mathcal {A}},P)\to (\mathbb {R} ^{m},{\mathcal {B}}(\mathbb {R} ^{m}))}

für die

X 1 ( B ( R m ) ) A {\displaystyle X^{-1}({\mathcal {B}}(\mathbb {R} ^{m}))\subset {\mathcal {A}}}

gilt ein m {\displaystyle m} -dimensionaler Zufallsvektor. Für m = 1 {\displaystyle m=1} ergibt sich eine reelle Zufallsvariable, so dass von einem Zufallsvektor in der Regel nur für m 2 {\displaystyle m\geq 2} spricht.

Die beiden folgenden Definitionen sind äquivalent:

  • X {\displaystyle X} ist eine messbare Funktion auf einem Wahrscheinlichkeitsraum nach R m {\displaystyle \mathbb {R} ^{m}} , versehen mit der Borelschen σ-Algebra.
  • Es ist X = ( X 1 , X 2 , , X m ) {\displaystyle X=(X_{1},X_{2},\dots ,X_{m})} für reellwertige Zufallsvariablen X 1 , X 2 , , X m {\displaystyle X_{1},X_{2},\dots ,X_{m}} auf dem Wahrscheinlichkeitsraum ( Ω , A , P ) {\displaystyle (\Omega ,{\mathcal {A}},P)} . Diese Definition nutzt aus, dass eine Abbildung nach R m {\displaystyle \mathbb {R} ^{m}} genau dann messbar ist, wenn ihre Komponentenfunktionen messbar sind.

Eigenschaften

Momente

Für einen Zufallsvektor X {\displaystyle X} wird (bei Integrierbarkeit der Komponenten) der Erwartungswertvektor definiert als folgender Spaltenvektor

E ( X ) = ( E ( X 1 ) , E ( X 2 ) , , E ( X m ) ) {\displaystyle \operatorname {E} (X)=(\operatorname {E} (X_{1}),\operatorname {E} (X_{2}),\dots ,\operatorname {E} (X_{m}))^{\top }}

und ist somit der Vektor der Erwartungswerte der Komponenten.[1]

Für die zweiten Momente wird (bei Quadratintegrierbarkeit der Komponenten) die Kovarianzmatrix des Zufallsvektors definiert als diejenige m × m {\displaystyle m\times m} -Matrix, bei der in der i {\displaystyle i} -ten Zeile und der j {\displaystyle j} -ten Spalte die Kovarianz der Komponenten X i {\displaystyle X_{i}} und X j {\displaystyle X_{j}} , also

a i , j := Cov ( X i ; X j ) {\displaystyle a_{i,j}:=\operatorname {Cov} (X_{i};X_{j})} .

Unabhängigkeit

Die stochastische Unabhängigkeit von Zufallsvektoren X {\displaystyle X} und Y {\displaystyle Y} wird analog zur Definition für reellwertige Zufallsvariablen definiert als die stochastische Unabhängigkeit der erzeugten σ-Algebren σ ( X ) {\displaystyle \sigma (X)} und σ ( Y ) {\displaystyle \sigma (Y)} .[2] Hierbei bezeichnet σ ( X ) {\displaystyle \sigma (X)} die Initial-σ-Algebra von X {\displaystyle X} .

Verteilungen

Die Verteilung eines Zufallsvektors wird eine Multivariate Wahrscheinlichkeitsverteilung genannt und ist ein Wahrscheinlichkeitsmaß auf dem R m {\displaystyle \mathbb {R} ^{m}} . Sie ist genau die gemeinsame Verteilung der Komponenten des Zufallsvektors.

Stetige und diskrete Zufallsvektoren

Analog zu reellwertigen Zufallsvariablen nennt man einen Zufallsvektor, dessen Verteilung eine Wahrscheinlichkeitsdichtefunktion besitzt, einen stetigen Zufallsvektor.[3] Ebenso wird ein Zufallsvektor, der nur abzählbar viele Werte annimmt, ein diskreter Zufallsvektor genannt.[4]

Verteilungsfunktion

Wie auch reellwertigen Zufallsvariablen lassen sich Zufallsvektoren Verteilungsfunktionen zuweisen. Sie werden multivariate Verteilungsfunktionen genannt.

Konvergenz

Konvergenz in Verteilung, Konvergenz in Wahrscheinlichkeit und Fast sichere Konvergenz lassen sich problemlos auf Zufallsvektoren übertragen, da sie meist zumindest für separable metrische Räume definiert werden und diese Definitionen demnach auch für den R m {\displaystyle \mathbb {R} ^{m}} gültig sind.

Lediglich die Charakterisierung der Verteilungskonvergenz über die Verteilungsfunktion ist nicht mehr möglich. Der Stetigkeitssatz von Lévy hingegen gilt aber weiterhin.

Satz von Cramér-Wold

Die folgende Aussage ermöglicht es, die Konvergenz in Verteilung in R n {\displaystyle \mathbb {R} ^{n}} auf die Konvergenz in Verteilung in R {\displaystyle \mathbb {R} } zu reduzieren. Sie wird als Satz von Cramér-Wold oder Cramér-Wold-Device (dt. Cramér-Wold-Hilfsmittel) bezeichnet.

Es bezeichnet ; {\displaystyle \langle \cdot ;\cdot \rangle } das Standardskalarprodukt. Sei ( X n ) n N {\displaystyle (X_{n})_{n\in \mathbb {N} }} eine Folge von Zufallsvektoren in R m {\displaystyle \mathbb {R} ^{m}} . Dann ist äquivalent:[5]

  • Die X n {\displaystyle X_{n}} konvergieren in Verteilung gegen X {\displaystyle X}
  • Für jedes c R m {\displaystyle c\in \mathbb {R} ^{m}} existiert eine reellwertige Zufallsvariable X c {\displaystyle X^{c}} , so dass c ; X n {\displaystyle \langle c;X_{n}\rangle } in Verteilung gegen X c {\displaystyle X^{c}} konvergiert.

Gilt eine von beiden Aussagen (und somit beide), so besitzt X c {\displaystyle X^{c}} für alle c R m {\displaystyle c\in \mathbb {R} ^{m}} dieselbe Verteilung wie c ; X {\displaystyle \langle c;X\rangle } .

Verallgemeinerungen

Eine mögliche Verallgemeinerung eines Zufallsvektoren ist eine Zufallsmatrix. Sie ist eine matrixwertige Zufallsvariable, ihre Verteilung wird eine matrixvariate Wahrscheinlichkeitsverteilung genannt.

Literatur

  • Achim Klenke: Wahrscheinlichkeitstheorie. 3. Auflage. Springer-Verlag, Berlin Heidelberg 2013, ISBN 978-3-642-36017-6, doi:10.1007/978-3-642-36018-3. 
  • Norbert Kusolitsch: Maß- und Wahrscheinlichkeitstheorie. Eine Einführung. 2., überarbeitete und erweiterte Auflage. Springer-Verlag, Berlin Heidelberg 2014, ISBN 978-3-642-45386-1, doi:10.1007/978-3-642-45387-8. 
  • David Meintrup, Stefan Schäffler: Stochastik. Theorie und Anwendungen. Springer-Verlag, Berlin Heidelberg New York 2005, ISBN 978-3-540-21676-6, doi:10.1007/b137972. 

Einzelnachweise

  1. Meintrup, Schäffler: Stochastik. 2005, S. 130.
  2. Kusolitsch: Maß- und Wahrscheinlichkeitstheorie. 2014, S. 95.
  3. Kusolitsch: Maß- und Wahrscheinlichkeitstheorie. 2014, S. 178.
  4. Kusolitsch: Maß- und Wahrscheinlichkeitstheorie. 2014, S. 96.
  5. Klenke: Wahrscheinlichkeitstheorie. 2013, S. 335.