3 votos

Si $X,Y$ y $Z$ son independientes, entonces $\sigma(X,Y)$ y $\sigma(Z)$ son independientes

Si tenemos 3 variables aleatorias independientes $X,Y$ y $Z$ en un espacio de probabilidad $(\Omega,\mathscr{F},\mathbb{P})$ Entonces, ¿cómo demostramos que $\sigma(X,Y)$ y $\sigma(Z)$ son independientes?

Parece intuitivamente obvio, pero me cuesta mucho precisarlo. Me apetece utilizar el hecho de que si dos medidas $\mu _1$ y $\mu _2$ son iguales en un $\pi$ sistema $\mathscr{A}$ entonces son iguales en $\sigma (\mathscr{A})$ podría ser útil, pero no estoy seguro de qué medidas/ $\pi$ sistemas a utilizar.

Cualquier ayuda sería muy apreciada - ¡gracias! :)

2voto

Atsana Puntos 13

Una prueba similar para lo que sigue se puede encontrar en la página 39 del libro Probability with Martingales (1991) de David Williams. Definir las siguientes colecciones de conjuntos:

\begin{align*}\Pi_1&=\Big\{\lbrace \omega\in\Omega: X(\omega)\le x\rbrace\cap \lbrace \omega\in\Omega: Y(\omega)\le y\rbrace:x,y\in\mathbb{R}\Big\},\\ \Pi_2&=\Big\{\lbrace \omega\in\Omega: Z(w)\le z\rbrace:z\in\mathbb{R}\Big\}. \end{align*}

Se puede demostrar fácilmente que $\Pi_1$ y $\Pi_2$ son $\pi$ -sistemas tales que $$\sigma(\Pi_1)=\sigma(X,Y)\quad\text{and}\quad \sigma(\Pi_2)=\sigma(Z).$$

Para demostrar que $\sigma(X,Y)$ y $\sigma(Z)$ son independientes, por definición debemos demostrar que $P(A\cap B)=P(A)P(B)$ para todos $A\in \sigma(X,Y)$ y $B\in \sigma(Z)$ .

A tal fin, fijar $A\in \Pi_1$ y define las dos medidas siguientes (puedes demostrar que son medidas) $\mu_{1},\mu_{2}:\mathcal{F}\rightarrow [0,\infty)$ de la siguiente manera: $$\mu_1(B)=P(A\cap B)\quad\text{and} \quad \mu_2(B) = P(A)P(B).$$ Desde $A\in \Pi_1$ podemos escribir $A=\lbrace X\le x\rbrace\cap \lbrace Y\le y\rbrace$ para algunos $x,y\in\mathbb{R}$ . Por la independencia de las variables aleatorias $X$ , $Y$ y $Z$ , si $B=\lbrace{Z\le z\rbrace}\in \Pi_2$ entonces encontramos que \begin{align*}\mu_1(B) &= P(A\cap B) \\&= P\left(\lbrace X\le x\rbrace\cap \lbrace Y\le y\rbrace\cap \lbrace{Z\le z\rbrace}\right) \\&= P\left(\lbrace X\le x\rbrace\right)\cdot P\left(\lbrace Y\le y\rbrace\right)\cdot P\left(\lbrace{Z\le z\rbrace}\right)\\&=P\left(\lbrace X\le x\rbrace\cap \lbrace Y\le y\rbrace\right)\cdot P\left(\lbrace{Z\le z\rbrace}\right)\\&=P(A) P(B)\\&=\mu_2(B). \end{align*} Esto demuestra que las medidas $\mu_1$ y $\mu_2$ acordar el $\pi$ -sistema $\Pi_2$ . Además, hay que tener en cuenta que $\mu_1(\Omega)=\mu_2(\Omega) = P(A)<\infty$ . Ahora podemos utilizar el siguiente hecho: las medidas finitas que coinciden en un $\pi$ -sistema también están de acuerdo en el $\sigma$ -generada por la $\pi$ -sistema. Por lo tanto, $$P(A\cap B) = P(A)P(B)\quad\text{for all}\quad A\in \Pi_1\quad\text{and}\quad B\in \sigma(Z).$$ Ahora arreglar $B\in \sigma(Z)$ y definir dos medidas más $\mu_{3},\mu_{4}:\mathcal{F}\rightarrow [0,\infty)$ de la siguiente manera: $$\mu_3(A)=P(A\cap B)\quad\text{and} \quad \mu_2(A) = P(A)P(B).$$ Nuestro argumento anterior mostraba que $\mu_3$ y $\mu_4$ acordar el $\pi$ -sistema $\Pi_1$ . Además, $\mu_3(\Omega)=\mu_4(\Omega)=P(B)<\infty$ . Utilizando el mismo hecho que antes, concluimos que $\mu_3$ y $\mu_4$ estar de acuerdo $\sigma(X,Y)$ . Esto completa la prueba.

Este argumento puede generalizarse como sigue: Sea $X_1,X_2,\dots$ sea una secuencia de variables aleatorias independientes. Entonces $\sigma(X_1,\dots, X_n)$ y $\sigma(X_{n+1}, X_{n+2}, \dots)$ son independientes para cada $n\in\mathbb{N}$ ; véase la página 47 de Williams (1991).

i-Ciencias.com

I-Ciencias es una comunidad de estudiantes y amantes de la ciencia en la que puedes resolver tus problemas y dudas.
Puedes consultar las preguntas de otros usuarios, hacer tus propias preguntas o resolver las de los demás.

Powered by:

X