10 votos

¿Cuando combinaciones lineales de variables aleatorias independientes son todavía independientes?

Tenemos un vector aleatorio $X=(X_j)_{j=1,...,n}$, cuyos componentes se $X_j$ son mutuamente independientes. Construimos un nuevo vector aleatorio $Y=A X+b$, con $Y=(Y_k)_{k=1,...,m}$, $A=(a_{k,j})_{k=1,...,m;j=1,...,n}$, $b=(b_k)_{k=1,...,m}$.

Cuando los componentes de la $Y$ todavía están en condiciones de independencia mutua variables aleatorias? Cómo probar el resultado? Supongo que esto puede estar relacionado con el rango de $A$ pero no estoy seguro y no puedo encontrar una manera de demostrar que si no hago algo de especial suposición acerca de la ley de $X$.

Sé $U$ $V$ son independientes iff $f(U)$ $g(V)$ son independientes para cada par de medir la función$f$$g$. Esto puede ayudar, creo, cuando, por ejemplo, $Y_1=X_1+X_2$$Y_2=X_3+X_4$.

Pero ¿cuándo $Y_1 = X_1 + X_2$$Y_2 = X_1 - X_2$? O ¿cuándo $Y_1=X_1 + X_2$$Y_2=X_5$?

Ninguno de los textos que he buscado discutir seriamente este tema, pero lo deje en un cierto modo a la "intuición"?

Gracias

18voto

bgee Puntos 327

Si $A = a_1 \oplus a_2 \oplus \cdots \oplus a_m$ $m \leq n$ donde $a_i$ fila vectores de dimensión $n_i$ tal que $\sum_{i=1}^m n_i = n$ $\oplus$ denota la suma directa, entonces el vector aleatorio $Y$ tiene coordenadas independientes.

Esto no es difícil de ver desde $Y_1$ es medible con respecto a $\sigma(X_1, \ldots X_{n_1})$, $Y_2$ es medible con respecto a $\sigma(X_{n_1+1}, \ldots, X_{n_1+n_2})$, etc., y estos $\sigma$-álgebras son independientes puesto que el $X_i$ son independientes (esencialmente, por definición).

Obviamente, este resultado aún se mantiene si consideramos las matrices que son la columna permutaciones de la matriz $A$ descrito anteriormente. De hecho, como veremos más adelante, en el caso de que la distribución de cada una de las $X_i$ no es normal (aunque tal vez en función del índice de $i$), esto es, esencialmente, la única forma de que $A$ puede tomar para el resultado deseado para celebrar.

En la normal de distribución de caso, mientras los $A A^T = D$ para algunos matriz diagonal $D$, entonces las coordenadas de $Y$ son independientes. Esto es fácil de comprobar con el momento de generación de función.

Supongamos $X_1$ $X_2$ son iid con varianza finita. Si $X_1 + X_2$ es independiente de $X_1 - X_2$, $X_1$ $X_2$ son normales distribuidas variables aleatorias. Vea aquí. Este resultado se conoce como la del teorema de Bernstein y puede ser generalizada (ver más abajo). Una prueba se puede encontrar en Talador o aquí (Capítulo 5).

En el caso de que $A$ no puede ser escrita como una suma directa de vectores fila, siempre se puede cocinar una distribución de $X$ tal que $Y$ no tiene coordenadas independientes. De hecho, hemos

Teorema (Lukacs y el Rey, 1954): Vamos a $X_1, X_2, \cdots, X_n$ $n$ de forma independiente (pero no necesariamente idéntica) que se distribuyen las variables aleatorias con variaciones $\sigma_i^2$, y se supone que los $n$th momento de cada una de las $X_i(i = 1, 2, \cdots, n)$ existe. Las condiciones necesarias y suficientes para la existencia de dos estadísticamente independientes lineal formas $Y_1 = \sum^n_{i=1} a_i X_i$ $Y_2 = \sum^n_{i=1} b_i X_i$

  1. Cada variable aleatoria que tiene un coeficiente distinto de cero en ambas formas se distribuye normalmente, y
  2. $\sum^n_{i=1} a_i b_i \sigma^2_i = 0$.

2voto

palehorse Puntos 8268

Creo que poco se puede decir en general, además de la más caso trivial en el que cada una de las resultantes $y_i$ depende no de intersección subssets de $X$ (lo que correspondería a cada columna de no tener más de un valor no nulo).

Algunos de los más débiles resultado puede ser obtenido considerando la no-correlación en lugar de la independencia (o, lo que sería equivalente, la restricción para gaussiano variables), debido a que las matrices de covarianzas son simplemente conexos

$C_Y = A \; C_X A^t $

Por supuesto, $C_X$ es diagonal, y queremos fo averiguar para que $A$ matrices $C_Y$ también es diagonal. De nuevo, poco puede decirse, en general, más que sólo eso. Si queremos restringir aún más la hipótesis, y se supone que $x_i$ son iid (o igualdad de varianzas), entonces tenemos que ortogonalidad de $A$ suficiente (pero no necesaria).

En particular, para el caso $Y_1 = X_1 + X_2$, $Y_2 = X_1 - X_2$, $Y$ no se garantiza la no correlación, a menos que asumimos $x_i$ son iid (o tienen la misma varianza).

2voto

Arie Litovsky Puntos 119

Teorema de la Skitovich-Darmois A (Skitovich(1953), Darmois(1953), ver también A. Kagan, Yu. Linnik y C.R. Rao (1973, Ch.3)). Que $\xi_j$, donde $j = 1, 2, \dots, n,$ and $n\geq 2$, ser variables aleatorias independientes. Que $\alpha_j, \beta_j$ ser constantes no cero. Si el % de estadística lineal $L_1=\alpha_1\xi_1+\cdots+\alpha_n\xi_n$y $L_2=\beta_1\xi_1+\cdots+\beta_n\xi_n$ son independientes, entonces todas las variables aleatorias $\xi_j$ es Gaussiano.

i-Ciencias.com

I-Ciencias es una comunidad de estudiantes y amantes de la ciencia en la que puedes resolver tus problemas y dudas.
Puedes consultar las preguntas de otros usuarios, hacer tus propias preguntas o resolver las de los demás.

Powered by:

X