1 votos

Ejercicio sobre las probabilidades condicionales

Ejercicio: Dejemos que $S_1$ y $S_2$ sean dos eventos disjuntos, y que $\mathcal{G}$ sea un sub- $\sigma$ -de la álgebra. Demuestre que lo siguiente se cumple con probabilidad $1$ . \begin{align*} \mathrm{(a)}& \quad 0 \le \mathbf{P}[S_1 | \mathcal{G}] \le 1 \\ \mathrm{(b)}& \quad \mathbf{P}[S_1 \uplus S_2 | \mathcal{G}] = \mathbf{P}[S_1 | \mathcal{G}] + \mathbf{P}[S_2 | \mathcal{G}] \end{align*}

Solución: (a) Primero demostramos que $0 \le \mathbf{P}[S_1 | \mathcal{G}] $ .

Definir \begin{equation*} G:= \bigl\{ \omega \in \Omega : \mathbf{P}[S_1 | \mathcal{G}](\omega) < 0\bigr\} \, , \end{equation*} y asumir que $\mathbf{P}[G] > 0$ . Vemos que \begin{equation*} \bigl\{\mathbf{P}[S_1|\mathcal{G}] < - 1/n\bigr\} \uparrow G\, . \end{equation*} Desde $\mathbf{P}$ es una medida que debe ser semicontinua inferior, por lo que \begin{equation*} \mathbf{P}\bigl[\mathbf{P}[S_1|\mathcal{G}] < - 1/n\bigr] \overset{n\rightarrow\infty}{\longrightarrow} \mathbf{P}\bigl[G\bigr] > 0\, , \end{equation*} lo que significa que para un determinado $N \in \mathbb{N}$ : \begin{equation*} H:= \bigl\{\mathbf{P}[S_1|\mathcal{G}] < - 1/N\bigr\} \Longrightarrow \mathbf{P}\bigl[H\bigr] > 0 \, . \end{equation*}

Ahora tenemos \begin{equation*} \mathbf{E}\bigl[\mathbf{P}[S_1 | \mathcal{G}]\, \mathbf{1}_{H}\bigr] < - \mathbf{P}[H] / N < 0 \, , \end{equation*} pero a partir de la definición de $\mathbf{P}[S_1 | \mathcal{G}]\, $ debe seguirse que \begin{equation} \mathbf{E}\bigl[\mathbf{P}[S_1 | \mathcal{G}]\, \mathbf{1}_{H}\bigr] = \mathbf{P}[S_1 \cap H] \geq 0 \, , \end{equation} que es una contradicción.

La prueba de que $\mathbf{P}[S_1 | \mathcal{G}] \leq 1$ es muy similar, lo he hecho, pero lo omitiré por ahora.

(b) Esto se deduce, porque tenemos casi seguro \begin{align*} \mathbf{E}\bigl[\mathbf{P}[S_1 \uplus S_2 | \mathcal{G}]\, \mathbf{1}_{G}\bigr] &= \mathbf{P}[(S_1 \uplus S_2)\cap G] = \mathbf{P}\bigl[(S_1 \cap G) \uplus (S_2 \cap G)\bigr] = \\ &= \mathbf{P}[S_1 \cap G] + \mathbf{P}[S_2 \cap G] = \mathbf{E}\bigl[\mathbf{P}[S_1 | \mathcal{G}] \, \mathbf{1}_{G} \bigr] + \mathbf{E}\bigl[\mathbf{P}[S_2 | \mathcal{G}]\, \mathbf{1}_{G} \bigr] \, . \end{align*}


¿Podría comprobar si mi prueba es correcta?

¡Muchas gracias!

1voto

Paul Creasey Puntos 15663

Para (a) -- Sólo quiero comentar que $H \in \mathcal{G}$ Porque sí, $$\int_{\Omega} \mathbb{E}[\mathbf{1}_{[S_1]} | \mathcal{G}] \mathbf{1}_{[H]} dP(\omega) = \int_{\Omega} \mathbf{1}_{[S_1]} \mathbf{1}_{[H]} dP(\omega)$$

Si y sólo si $H \in \mathcal{G}$ . Está claro que es por la mensurabilidad y las propiedades de $\sigma-$ álgebra. Además, como $P$ es una medida que tiene continuidad de medida por lo que para cualquier secuencia monótona creciente o decreciente de conjuntos $A_n \uparrow A$ o $A_n \downarrow A$ es que $\lim\limits_{n \rightarrow \infty} P(A_n) = P(\lim\limits_{n \rightarrow \infty} A_n) = P(A)$ .

Para (b) -- Yo lo probaría así: Dejemos que $X$ y $Y$ sean variables aleatorias definidas en $(\Omega, \mathcal{F}, P)$ y $\mathcal{G} \subset \mathcal{F}$ . Tenga en cuenta que $\mathbb{E}[X | \mathcal{G}] + \mathbb{E}[Y | \mathcal{G}]$ es $\mathcal{G}$ medible. Entonces, para todo $A \in \mathcal{G}$ ,

$\begin{align} \int_A \big(\mathbb{E}[X | \mathcal{G}] + \mathbb{E}[Y | \mathcal{G}]\big) dP(\omega) &= \int_A \mathbb{E}[X | \mathcal{G}] dP(\omega) + \int_A \mathbb{E}[Y | \mathcal{G}] dP(\omega) & \text{Linearity of Integration} \\ & = \int_A X dP(\omega) + \int_A Y dP(\omega) & \text{Def. Cond. Expect.} \\ & = \int_A \big(X + Y\big) dP(\omega) & \text{Linearity of Integration} \\ & = \int_A \mathbb{E}[X + Y | \mathcal{G}] dP(\omega) & \text{Def. Cond. Expec.} \end{align} $

Esto muestra $\mathbb{E}[X + Y | \mathcal{G}] = \mathbb{E}[X | \mathcal{G}] + \mathbb{E}[Y | \mathcal{G}]$ casi seguro.

Para su problema, tome $X = \mathbf{1}_{[S_1]}$ y $Y = \mathbf{1}_{[S_2]}$ . Entonces, $$P(S_1 \cup S_2 | \mathcal{G}) := \mathbb{E}[\mathbf{1}_{[S_1 \cup S_2]} | \mathcal{G}] = \mathbb{E}[\mathbf{1}_{[S_1]} + \mathbf{1}_{[S_2]} | \mathcal{G}]$$ Y el resultado se mantiene casi con seguridad.

0voto

Si se definen las probabilidades condicionales utilizando las expectativas condicionales, como $\mathbf{P}(A | \mathcal{G}) = \mathbf{E}[\mathbf{1}_A |\mathcal{G}]$ las cosas parecen más sencillas:

Por la propiedad de monotonía de las expectativas, como $0 \leq \mathbf{1}_A \leq 1$ tenemos $$0 \leq \mathbf{E}[\mathbf{1}_S | \mathcal{G}] \leq 1$$

Por la linealidad, si $A$ y $B$ son disjuntos, entonces $\mathbf{1}_{A \cup B} = \mathbf{1}_A + \mathbf{1}_B$ Por lo tanto

$$\mathbf{E}[\mathbf{1}_{A \cup B} |\mathcal{G}] = \mathbf{E}[ \mathbf{1}_A|\mathcal{G}] = + \mathbf{E}[\mathbf{1}_B |\mathcal{G}] $$

Todas las inecuaciones/igualdades siguientes sólo son verdaderas en casi todas partes.

¿Pero se supone que debes demostrar estas propiedades (monotonicidad)?

i-Ciencias.com

I-Ciencias es una comunidad de estudiantes y amantes de la ciencia en la que puedes resolver tus problemas y dudas.
Puedes consultar las preguntas de otros usuarios, hacer tus propias preguntas o resolver las de los demás.

Powered by:

X