De fondo
Una matriz de covarianza $\mathbb{A}$ para un vector de variables aleatorias $X=(X_1, X_2, \ldots, X_n)^\prime$ incorpora un procedimiento para calcular la varianza de cualquier combinación lineal de esas variables aleatorias. La regla es que para cualquier vector de coeficientes de $\lambda = (\lambda_1, \ldots, \lambda_n)$,
$$\operatorname{Var}(\lambda X) = \lambda \mathbb{A} \lambda ^\prime.\tag{1}$$
En otras palabras, las reglas de la multiplicación de la matriz se describen las reglas de varianzas.
Dos propiedades de $\mathbb{A}$ son inmediatos y evidentes:
Debido a que las varianzas son las expectativas de los cuadrados de los valores, que nunca puede ser negativo. Por lo tanto, para todos los vectores $\lambda$, $$0 \le \operatorname{Var}(\lambda X) = \lambda \mathbb{A} \lambda ^\prime.$$ las matrices de Covarianza debe ser no negativa definida.
Las desviaciones son sólo números--o, si usted lee la matriz de fórmulas, literalmente, se $1\times 1$ matrices. Por lo tanto, que no cambia cuando se transponen. La transposición $(1)$ da $$\lambda \mathbb{A} \lambda ^\prime = \operatorname{Var}(\lambda X) = \operatorname{Var}(\lambda X) ^\prime = \left(\lambda \mathbb{A} \lambda ^\prime\right)^\prime = \lambda \mathbb{A}^\prime \lambda ^\prime.$$ Since this holds for all $\lambda$, $\mathbb{A}$ must equal its transpose $\mathbb{A}^\prime$: matrices de covarianza debe ser simétrico.
La más profunda resultado es que cualquier valor no negativo definida simétrica matriz $\mathbb{A}$ es una matriz de covarianza. Esto significa que en realidad hay algunos vector de valores de variable aleatoria $X$ $\mathbb{A}$ como su covarianza. Podemos demostrar esto por construir explícitamente $X$. Es una manera de darse cuenta de que el (multivariante) función de densidad de $f(x_1,\ldots, x_n)$ con la propiedad $$\log(f) \propto -\frac{1}{2} (x_1,\ldots,x_n)\mathbb{A}^{-1}(x_1,\ldots,x_n)^\prime$$ has $\mathbb{A}$ for its covariance. (Some delicacy is needed when $\mathbb{A}$ no es invertible--pero eso es sólo un detalle técnico.)
Soluciones
Deje $\mathbb{X}$ $\mathbb{Y}$ ser matrices de covarianza. Obviamente que son cuadrados; y si su suma es el sentido que debe tener las mismas dimensiones. Sólo tenemos que comprobar las dos propiedades.
La suma.
- La simetría $$(\mathbb{X}+\mathbb{Y})^\prime = \mathbb{X}^\prime + \mathbb{Y}^\prime = (\mathbb{X} + \mathbb{Y})$ $ , se muestra la suma es simétrica.
- No negativo certeza. Deje $\lambda$ ser cualquier vector. A continuación, $$\lambda(\mathbb{X}+\mathbb{Y})\lambda^\prime = \lambda \mathbb{X}\lambda^\prime + \lambda \mathbb{Y}\lambda^\prime \ge 0 + 0 = 0$ $ prueba el punto utilizando propiedades básicas de la multiplicación de la matriz.
Dejo esto como un ejercicio.
Esto es un tanto complicado. Un método que yo uso para pensar a través de desafiantes de la matriz de problemas es hacer algunos cálculos con $2\times 2$ matrices. Hay algunos comunes, familiares de las matrices de covarianza de este tamaño, tales como $$\pmatrix{a & b \\ b & a}$$ with $a^2 \ge b^2$ and $\ge 0$. The concern is that $\mathbb{XY}$ might not be definite: that is, could it produce a negative value when computing a variance? If it will, then we had better have some negative coefficients in the matrix. That suggests considering $$\mathbb{X} = \pmatrix{a & -1 \\ -1 & a}$$ for $un \ge 1$. To get something interesting, we might gravitate initially to matrices $\mathbb{Y}$ with different-looking structures. Diagonal matrices come to mind, such as $$\mathbb{Y} = \pmatrix{b & 0 \\ 0 & 1}$$ with $b\ge 0$. (Notice how we may freely pick some of the coefficients, such as $-1$ and $1$, porque podemos cambiar la escala de todas las entradas en cualquier matriz de covarianza sin cambiar sus propiedades fundamentales. Esto simplifica la búsqueda de ejemplos interesantes.)
Yo se lo dejo a usted para calcular $\mathbb{XY}$, y probar si siempre es una matriz de covarianza para cualquier tarea de los valores de $a$$b$.