2 votos

Muestra la independencia de dos vectores aleatorios gaussianos centrados.

Sea $X = (X_1,\ldots, X_d)$ sea un vector gaussiano centrado compuesto de variables aleatorias i.i.d. Tengo dos preguntas. La primera es si mis planteamientos son correctos.

  1. Quiero demostrarlo: $O$ ser y ortogonal $d\times d$ matriz, $OX$ tiene la misma ley que $X$ .

La forma en que lo hice fue la siguiente:

Digo que un vector gaussiano general $X$ tiene la ley $N(\mu_X, \Sigma_X)$ . Quiero demostrar que $Y = OX$ tiene la misma ley que $X$ que es igual a $O^{-1}X$ . esto es decir que $P_Y(y) \propto P_X(O^{-1}X)$

(sin la constante de normalización)

\begin{align} &\propto \exp\left[-\frac12(O^{-1}Y - \mu_X)^T \Sigma_X^{-1}(O^{-1}(Y)-\mu_X)\right] \\&= \exp\left[-\frac12(Y - O\mu_X)^T O^{-T} \Sigma_X^{-1}O^{-1}(Y-O\mu_X)\right] \\&= \exp\left[-\frac12 (Y-O \mu_X)^T (O\Sigma_X O^T)^{-1}(Y-O\mu_X)\right]\,, \end{align}

que tiene la ley $N_Y(O\mu_X , O\Sigma_XO^T)$ .

Por lo tanto esto tiene la misma ley que $X$ . ¿Es esto correcto? Y si es así ¿cuál es la última frase de mi argumento?

  1. Quiero demostrar que cuando $a=(a_1,\ldots,a_d)$ y $b=(b_1,\ldots,b_d)$ son dos vectores ortogonales en $R^n$ Entonces, considerando la matriz ortogonal $O$ cuyas dos primeras columnas coinciden con $a$ y $b$ demuestre que $\sum_{i=1}^d a_i X_i$ y $\sum_{i=1}^d b_i X_i$ son independientes. ¿Cómo se hace esto?

2voto

sven svenson Puntos 23

Si los componentes de $X$ están centrados y son i.i.d., se puede escribir $X\sim\mathcal{N}\left(0,\sigma^2 I\right)$ donde $\sigma^2$ es su varianza común. Luego, como toda transformación lineal de un vector gaussiano es gaussiana, $OX$ también es gaussiana con media $O\cdot 0 = 0$ y la matriz de covarianza $O\left(\sigma^2 I\right)O^\top = \sigma^2 OO^\top = \sigma^2 I$ .

En cuanto a la segunda parte, puede escribir \begin{eqnarray*} Cov\left(\sum_i a_i X_i,\sum_j b_j X_j\right) &=& \sum_i \sum_j a_i b_j \mathbb{E}\left(X_i X_j\right)\\ &=& \sum_i a_ib_i \mathbb{E}\left(X^2_i\right)\\ &=& \sigma^2 \sum_i a_ib_i\\ &=& 0, \end{eqnarray*} donde la primera igualdad se sigue del hecho de que las medias de ambas variables aleatorias son cero y de la linealidad de la covarianza, y la segunda línea se sigue de la independencia de $X_i$ y $X_j$ para $i\neq j$ . Dos variables aleatorias gaussianas son independientes si y sólo si su covarianza es cero -- esto no es cierto en general, pero es cierto para las distribuciones gaussianas.

i-Ciencias.com

I-Ciencias es una comunidad de estudiantes y amantes de la ciencia en la que puedes resolver tus problemas y dudas.
Puedes consultar las preguntas de otros usuarios, hacer tus propias preguntas o resolver las de los demás.

Powered by:

X