Matriz de covarianza

En estadística y teoría de la probabilidad, la matriz de covarianza es una matriz cuadrada que contiene la covarianza entre los elementos de un vector. Es la generalización natural a dimensiones superiores del concepto de varianza de una variable aleatoria escalar.

Definición

editar

Si   es un vector aleatorio dado por

 

tal que la  -ésima entrada del vector   es una variable aleatoria con varianza finita, entonces la matriz de covarianza   es una matriz de dimensión   cuya entrada   es la covarianza entre la variable   y  , es decir

 

En particular, cuando  , es decir, la diagonal de la matriz  , obtenemos

 

En otras palabras, la matriz   queda definida como

 

Como una generalización de la varianza

editar

La anterior definición es equivalente a la igualdad matricial

 

Por lo tanto, se entiende que esto generaliza a mayores dimensiones el concepto de varianza de una variable aleatoria escalar  .

En ocasiones, la matriz   es llamada matriz de varianza covarianza y también suele denotarse como   o  .

Propiedades

editar

Para   y  , las siguientes propiedades fundamentales se demuestran correctas:

  1.   es una matriz simétrica.
  2.   es semidefinida positiva
  3.   donde   es una matriz no aleatoria de dimensión  .

La matriz de covarianza (aunque muy simple) es una herramienta muy útil en varios campos. A partir de ella se puede obtener una transformación lineal que puede de-correlacionar los datos o, desde otro punto de vista, encontrar una base óptima para representar los datos de forma óptima (véase cociente de Rayleigh para la prueba formal y otras propiedades de las matrices de covarianza). Esto se llama análisis del componente principal (PCA por sus siglas en inglés) en estadística , y transformada de Karhunen-Loève en procesamiento de la imagen.

Lecturas avanzadas

editar