1 votos

Probabilidad marginal para un modelo jerárquico simple

Supongamos que $X$ es un $k$ Variable normal dimensional con matriz de covarianza diagonal. $$ X \sim N(\mu, \Sigma), $$ donde $\Sigma=\textrm{diag}(\sigma_i^2)$ . El problema que intento resolver es hallar la distribución conjunta para la diferencia entre $X_i-X_1 \ \ \forall \ \ i>1$ : $$ X_{2:k} - X_1 \sim \ ? $$

Mis progresos hasta ahora:

El problema anterior puede plantearse como un modelo jerárquico, en el que $$ X_{2:k} - X_1 \ | \ X_1 \sim N(\mu_{2:k} - X_1, \textrm{diag}(\sigma_{2:k}^2)) $$ $$ X_1 \sim N(\mu_1,\sigma^2_1) $$ He intentado escribir la probabilidad e integrar $X_1$ pero hasta ahora no he conseguido que la aritmética funcione. Hallar la distribución de los componentes individuales $X_i-X_1$ para $i>1$ es fácil, ya que no es más que la diferencia de variantes normales independientes $$ X_i - X_1 \sim N(\mu_i-\mu_1,\sigma_i^2+\sigma_1^2) $$

Sin embargo, en este punto estoy atascado. Estoy bastante seguro de que la distribución conjunta deseada es normal, pero no puedo averiguar la covarianza entre $X_i-X_1$ y $X_j-X_1$ .

0voto

mrkishi Puntos 1237

Muy bien, no sé por qué no fui capaz de ver esto antes, pero $$ cov(X_i-X_1,X_j-X_1) = E((X_i-X_1)(X_j-X_1)) - E(X_i-X_1)E(X_j-X_1) $$ Utilizando el hecho de que $X_i$ y $X_j$ son independientes para $j\neq i$ se reduce a $$ cov(X_i-X_1,X_j-X_1) = \sigma^2_1 \ \ \ \ for \ \ i \neq j $$ y $$ cov(X_i-X_1,X_j-X_1) = \sigma^2_i+\sigma^2_1 \ \ \ \ for \ \ i = j $$

Por lo tanto, conocemos las medias y las covarianzas. La distribución es Normal porque la distribución normal es su propia prior conjugada.

i-Ciencias.com

I-Ciencias es una comunidad de estudiantes y amantes de la ciencia en la que puedes resolver tus problemas y dudas.
Puedes consultar las preguntas de otros usuarios, hacer tus propias preguntas o resolver las de los demás.

Powered by:

X