En estadística y teoría de la probabilidad, la matriz de covarianza es una matriz cuadrada que contiene la covarianza entre los elementos de un vector. Es la generalización natural a dimensiones superiores del concepto de varianza de una variable aleatoria escalar.
Definición
Si
es un vector aleatorio dado por
![{\displaystyle {\textbf {X}}={\begin{bmatrix}X_{1}\\\vdots \\X_{n}\end{bmatrix}}}](https://wikimedia.org/api/rest_v1/media/math/render/svg/e7b3f6b3ae1a30841686e1ceef332e5866a32a59)
tal que la
-ésima entrada del vector
es una variable aleatoria con varianza finita, entonces la matriz de covarianza
es una matriz de dimensión
cuya entrada
es la covarianza entre la variable
y
, es decir
En particular, cuando
, es decir, la diagonal de la matriz
, obtenemos
En otras palabras, la matriz
queda definida como
![{\displaystyle \Sigma ={\begin{bmatrix}{\text{Var}}(X_{1})&{\text{Cov}}(X_{1},X_{2})&\cdots &{\text{Cov}}(X_{1},X_{n})\\{\text{Cov}}(X_{2},X_{1})&{\text{Var}}(X_{2})&\cdots &{\text{Cov}}(X_{2},X_{n})\\\vdots &\vdots &\ddots &\vdots \\{\text{Cov}}(X_{n},X_{1})&{\text{Cov}}(X_{n},X_{2})&\cdots &{\text{Var}}(X_{n})\end{bmatrix}}}](https://wikimedia.org/api/rest_v1/media/math/render/svg/5f2e0b96d940a309a42591dbeca4ffcdc490be1d)
Como una generalización de la varianza
La anterior definición es equivalente a la igualdad matricial
![{\displaystyle \Sigma =\mathrm {E} \left[\left({\textbf {X}}-\mathrm {E} [{\textbf {X}}]\right)\left({\textbf {X}}-\mathrm {E} [{\textbf {X}}]\right)^{t}\right]}](https://wikimedia.org/api/rest_v1/media/math/render/svg/d6eaeac52ac6b11062f326304ad66f544577667c)
Por lo tanto, se entiende que esto generaliza a mayores dimensiones el concepto de varianza de una variable aleatoria escalar
.
En ocasiones, la matriz
es llamada matriz de varianza covarianza y también suele denotarse como
o
.
Propiedades
Para
y
, las siguientes propiedades fundamentales se demuestran correctas:
es una matriz simétrica.
es semidefinida positiva
donde
es una matriz no aleatoria de dimensión
.
La matriz de covarianza (aunque muy simple) es una herramienta muy útil en varios campos. A partir de ella se puede obtener una transformación lineal que puede de-correlacionar los datos o, desde otro punto de vista, encontrar una base óptima para representar los datos de forma óptima (véase cociente de Rayleigh para la prueba formal y otras propiedades de las matrices de covarianza). Esto se llama análisis del componente principal (PCA por sus siglas en inglés) en estadística , y transformada de Karhunen-Loève en procesamiento de la imagen.
Lecturas avanzadas
- Weisstein, Eric W. «Covariance Matrix». En Weisstein, Eric W, ed. MathWorld (en inglés). Wolfram Research.
- van Kampen, N. G. Stochastic processes in physics and chemistry. New York: North-Holland, 1981.
Control de autoridades | - Proyectos Wikimedia
Datos: Q1134404 |
---|
Datos: Q1134404