1 votos

¿Cómo se demuestra que si $ X_t \sim^{iid} (0,1) $ entonces $ E(X_t^{2}X_{t-j}^{2}) = E(X_t^{2})E(X_{t-j}^{2})$ ?

Supongamos que tenemos una serie temporal $X_t$ s.t. $X_t \sim^{iid} (0,1)$ .

¿Cómo se demuestra que si $ X_t \sim^{iid} (0,1) $ entonces $ E(X_t^{2}X_{t-j}^{2}) = E(X_t^{2})E(X_{t-j}^{2})$ ?

O, supongo, si $X,Y\sim^{iid} (0,1)$ (lo que implica $E(XY)=E(X)E(Y)$ ), ¿por qué entonces $E(X^2Y^2)=E(X^2)E(Y^2)$ ?

Esta escisión de otra pregunta donde aparentemente "Si los cuadrados eran dependientes, hay una forma de dependencia entre los valores no cuadrados".

Esto tiene sentido, pero ¿cómo se demuestra esto exactamente? Mi intento:

En lugar de dependencia => dependencia (que creo que implicaría distribuciones de probabilidad), intento demostrar la descorrelación => descorrelación de la siguiente manera:

$E(X^2Y^2) \neq E(X^2)E(Y^2)$

$\implies E(X^2Y^2) \neq (Var(X)+E(X)^2)(Var(Y)+E(X)^2)$

$\implies Var(XY)+E(XY)^2 \neq (Var(X)+E(X)^2)(Var(Y)+E(Y)^2)$

$\implies Var(XY)+(E(X)E(Y))^2 \neq (Var(X)+E(X)^2)(Var(Y)+E(Y)^2)$

$\implies Var(XY)+(E(X)E(Y))^2 \neq Var(X)Var(Y)+Var(X)E(Y)^2+Var(Y)E(X)^2+(E(X)E(Y))^2$

$\implies Var(XY) \neq Var(X)Var(Y)+Var(X)E(Y)^2+Var(Y)E(X)^2$

$\implies ...$

$\implies E(XY) \neq E(X)E(Y) \ QED$

Ugh...

1voto

Joel Puntos 2169

Tenga en cuenta que $X$ y $Y$ ser independiente es no equivalente a ${\rm E}[XY]={\rm E}[X]{\rm E}[Y]$ (esto último es la definición de estar descorrelacionado) aunque la independencia implica la descorrelación. En cambio, $X$ y $Y$ son independientes si $$ P(X\in A,Y\in B)=P(X\in A)P(Y\in B) $$ para todos los conjuntos (Borel) $A,B\subseteq\mathbb{R}$ o, en su defecto, que $\sigma(X)$ y $\sigma(Y)$ debe ser independiente bajo $P$ .

Si $X$ y $Y$ es independiente, entonces cualquier $f(X)$ y $g(Y)$ también es independiente para cualquier par de funciones (medibles) $f$ y $g$ . Esto puede verse, por ejemplo, al observar que

$$ \begin{align*} P(f(X)\in A,g(Y)\in B)&=P(X\in f^{-1}(A),Y\in g^{-1}(B))\\ &=P(X\in f^{-1}(A))P(Y\in g^{-1}(B))\\ &=P(f(X)\in A)P(g(Y)\in B) \end{align*} $$ para todos los conjuntos (Borel) $A,B\subseteq \mathbb{R}$ . Si estás familiarizado con la definición de independencia en términos de álgebras sigma, entonces esto es una consecuencia fácil del hecho de que $\sigma(h(X))\subseteq \sigma(X)$ para todas las funciones (Borel) $h$ .

Como consecuencia inmediata tenemos que si $f(X)$ y $g(Y)$ no son independientes para algunos $f$ y $g$ entonces $X$ y $Y$ tampoco puede ser independiente.

i-Ciencias.com

I-Ciencias es una comunidad de estudiantes y amantes de la ciencia en la que puedes resolver tus problemas y dudas.
Puedes consultar las preguntas de otros usuarios, hacer tus propias preguntas o resolver las de los demás.

Powered by:

X