6 votos

Expectativa condicional de variables aleatorias definidas entre sí

En primer lugar, cuando decimos que $X_n \sim \text{Unif}(0,X_{n-1})$ ¿Qué significa "rigurosamente"? ¿Significa que por cada $\omega \in \Omega$ , $X_n(\omega)\sim \text{Unif}(0,X_{n-1}(\omega))$ ? Esto no tiene mucho sentido ya que $X_n(\omega)$ es un número y no una variable aleatoria. ¿O significa que para cada $\omega \in \Omega$ hay algún auxiliar $X'_n \sim \text{Unif}(0,X_{n-1}(\omega))$ y luego $X_n(\omega) = X'_n(\omega)$ ? Una vez aclarado esto, tengo otra pregunta:

Digamos que tenemos $X_n \sim \text{Unif}(0,X_{n-1})$ donde $X_0=1$ . Me han dicho que definir $\mathcal A_n = \sigma[X_0, \ldots, X_{n}]$ , $$\mathbb E(X_{n+1}|\mathcal A_n) = \mathbb E(X_{n+1}|X_n) = \mathbb E[\text{Unif}(0,X_{n})] = \frac{0+X_{n}}{2}$$ Del mismo modo, para $Z_{n+1} \sim \text{Poisson}(Z_n)$ y $\mathcal A_n$ definido de forma similar al caso anterior, me han dicho que $$\mathbb E(Z_{n+1}|\mathcal A_n) = \mathbb E[\text{Poisson}(Z_{n})] = Z_n$$ y también para $Y_{n+1} \sim2 \text{Binom}(Y_n, p)$ $$\mathbb E(Y_{n+1}|\mathcal A_n) = 2\mathbb E[\text{Binom}(Y_{n}, p)] = 2Y_n p$$

Preguntas: ¿Cuáles son las pruebas de estas tres afirmaciones (utilizando el enfoque moderno de la teoría de la probabilidad y propiedades de la expectativa condicional como las enumeradas aquí )? ¿Es este tipo de patrón generalmente cierto para variables aleatorias definidas entre sí de esta manera?

La única fórmula de las expectativas condicionales que creo que se aplicaría aquí es que $\mathbb E(Y|\mathcal D) =_\text{a.s.} \mathbb E[Y]$ si $\mathcal F(Y)$ y $\cal D$ son independientes. Sin embargo, en el caso anterior no creo que los campos sigma sean independientes, así que no sé cómo demostrar las bonitas ecuaciones anteriores.

1voto

masoud Puntos 70

Definiciones

Definición 1: Si $\mathcal F \subseteq \mathcal G$ son dos $\sigma$ -campos, y $X$ a $\mathcal G$ -variable aleatoria integrable medible, entonces $\mathbb E[X | \mathcal F]$ se define como cualquier $\mathcal F$ -variable aleatoria mensurable $Y$ tal que $\mathbb E[Y;A]=\mathbb E[X;A]$ para cada $A \in \mathcal F$ . Aquí $\mathbb E[X;A]$ es una notación para $\int_AX\,d\mathbb P$ .

Definición 2: Definimos la probabilidad condicional como $\mathbb P(A | \mathcal F)= \mathbb E[1_A|\mathcal F]$ .

https://math.stackexchange.com/questions/2373097/condition-on-sigma-algebra/2373105#2373105

$X_n\sim Unif(0,X_{n-1})$ significa $X_n|X_{n-1}\sim Unif(0,X_{n-1})$

también significa $X_n|X_{n-1}=t\sim Unif(0,t)$

rigurosamente es una probabilidad condicional. ¿Cómo se define? Se define a partir de la Expectativa condicional , http://www2.stat.duke.edu/courses/Fall17/sta711/lec/wk-10.pdf ,

por otra parte

$$P(X_n\leq a|X_{n-1})=E(1_{X_n\leq a}|X_{n-1})=E(1_{X_n\leq a}|\sigma(X_{n-1}))$$

Este tipo de probabilidad condicional es una definición unificada de la que otras definiciones (variable continua, variables discretas, sucesos, variables mixtas) son un caso especial. (como un parche para la antigua definición, $P(A|B)=\frac{P(AB)}{P(B)}$ , problema con variable continua, como en esta situación, $B=\{X_{n-1}=t\}$ así que $P(B)=0$ ).

ya vimos esto (definir una variable condicionada a otra variable) antes en el enfoque bayesiano,

$$X|\mu \sim N(\mu , 1)$$ que condicionado en base a una variable $\mu\sim N(0,1)$ ,

y en el Método Metrópolis-Hastings que condiciona en base a la observación previa.

"¿Significa esto que por cada $\omega \in \Omega$ $X_n(\omega)∼Unif(0,X_{n−1}(\omega))$ ?"

Sólo lo suficiente para casi seguro de ellos.

$$E(X_{n+1}|A_n) = E(X_{n+1}|\sigma(X_1,\cdots ,X_n)) = E(X_{n+1}|X_1,\cdots ,X_n)= E(X_{n+1}|X_n)= \frac{X_n}{2}$$

todas las demás preguntas se resuelven de forma similar.

0voto

Xenon Puntos 91

Primero: Cuando defines una variable aleatoria $X_{n+1}$ para depender del valor de una variable aleatoria diferente $X_n$ estás definiendo efectivamente la probabilidad condicional $P(X_{n+1}|X_n)$ mientras $P(X_n)$ estaba bien definida esto define una distribución de probabilidad $P(X_{n+1}, X_n)$ sobre las dos variables con el correspondiente producto exterior $\Omega$ y $\sigma$ -álgebra. Creo que esto es lo que se define rigurosamente cuando se escribe una distribución para una nueva variable aleatoria que depende de una ya existente.

En cuanto a su segunda pregunta, primero comentaría la redacción: En general, esperaría que condicionaras sobre las otras variables aleatorias directamente, no sobre la $\sigma$ -álgebra para ellos. Si se refiere a otra cosa, aclárelo.

Entonces la parte general para tus ejemplos es que si defines $X_{n+1}$ basado únicamente en $X_n$ puede ignorar todas las variables aleatorias anteriores para calcular la expectativa condicional. Esto es cierto. Hay muchas formas de demostrarlo. Quizá la más sencilla sea escribir que $P(X_0,\dots,X_n)=P(X_0)\prod_{i=1}^n P(X_i|X_{i-1})$ y observando que $P(X_{n+1}| X_n)$ es efectivamente la probabilidad condicional, como supondríamos basándonos en la nomenclatura. Entonces la definición bruta de la expectativa condicional $\mathbb{E}(X_{n+1}|X_0,\dots,X_n)$ es:

\begin{eqnarray} \mathbb{E}(X_{n+1}|X_0,\dots,X_n) &=& \int x_{n+1} dP(X_{n+1}|X_0,\dots,X_n)\\ &=& \int x_{n+1} d\left[\frac{P(X_{n+1},X_0,\dots,X_n)}{P(X_0,\dots,X_n)}\right]\\ &=& \int x_{n+1} dP(X_{n+1}|X_n) \end{eqnarray}

ya que el resto de P se anulan en la relación.

Tenga en cuenta que esta expectativa es no la expectativa para la (n+1)ª variable $\mathbb{E}(X_{n+1})$ que es igual a la expectativa del marginal $P(X_{n+1})$ que no necesariamente tendrá una distribución simple. Si te interesa esta expectativa, tendrás que encontrar la manera de calcular $\mathbb{E}(X_{n+1})$ de $\mathbb{E}(X_{n})$ y hacer la inducción.

i-Ciencias.com

I-Ciencias es una comunidad de estudiantes y amantes de la ciencia en la que puedes resolver tus problemas y dudas.
Puedes consultar las preguntas de otros usuarios, hacer tus propias preguntas o resolver las de los demás.

Powered by:

X