9 votos

Si $Y\sim\mu$ con probabilidad $p$ y $Y\sim\kappa(X,\;\cdot\;)$ si no, cuál es la distribución condicional de $Y$ dado $X$ ?

Dejemos que

  • $(\Omega,\mathcal A,\operatorname P)$ sea un espacio de probabilidad
  • $(E,\mathcal E)$ sea un espacio medible
  • $\mu$ sea una medida de probabilidad sobre $(E,\mathcal E)$
  • $X$ ser un $(E,\mathcal E)$ -variable aleatoria valorada en $(\Omega,\mathcal A,\operatorname P)$
  • $\kappa$ sea un núcleo de Markov en $(E,\mathcal E)$
  • $p\in[0,1]$

Supongamos que construimos un $(E,\mathcal E)$ -variable aleatoria valorada $Y$ en $(\Omega,\mathcal A,\operatorname P)$ de la siguiente manera: Con probabilidad $p$ dibujamos $Y$ de $\mu$ y con probabilidad $1-p$ dibujamos $Y$ de $\kappa(X,\;\cdot\;)$ .

¿Cuál es la distribución condicional $\operatorname P\left[Y\in\;\cdot\;\mid X\right]$ de $Y$ dado $X$ ? En particular, quiero determinar el núcleo de Markov $Q$ en $(E,\mathcal E)$ tal que $$\operatorname P\left[Y\in B\mid X\right]=Q(X,B)\;\;\;\text{almost surely for all }B\in\mathcal E.\tag1$$

Para dar una respuesta rigurosa, creo que hay que introducir un $\{0,1\}$ -valorado $p$ -Variable aleatoria con distribución Bernoulli $Z$ en $(\Omega,\mathcal A,\operatorname P)$ tal que

  1. $X$ y $Z$ son independientes
  2. $X$ y $Y$ son independientes dado $\{Z=1\}$
  3. $\operatorname P\left[Y\in B\mid Z=1\right]=\mu(B)$ para todos $B\in\mathcal E$
  4. $\operatorname P\left[Y\in B\mid X\right]=\kappa(X,B)$ casi seguramente en $\{Z=0\}$ para todos $B\in\mathcal E$

A primera vista, pensé que sería una tarea fácil. Sin embargo, no sé cómo debo proceder. En primer lugar, mi descripción (supuestamente equivalente) del problema con la variable aleatoria $Z$ ¿es correcto o he impuesto alguna suposición falsa?

Si la descripción es correcta, ¿cómo debemos proceder?

Tome nota de esta pregunta relacionada: Si tomamos una muestra con una probabilidad fija de una distribución, ¿qué significa esto en teoría? .

2voto

eugene y Puntos 705

Algunas anotaciones. Cuando $\nu$ es una medida de probabilidad en un espacio $E$ y $\kappa$ es un núcleo de Markov en el mismo espacio, el producto semidirecto $\nu\rtimes \kappa$ es la medida sobre $E\times E$ (equipado con el producto $\sigma$ -) que satisface $$ (\nu\rtimes \kappa)(A\times B)=\nu(1_A\cdot \kappa 1_B). $$ Es la ley de los dos primeros pasos de una cadena de Markov con distribución inicial $\mu$ y el núcleo de transición $\kappa$ .

Formalizar la pregunta. Deja que Ber $_p$ denotan la medida de probabilidad sobre $\{0,1\}$ Satisfaciendo a Ber $_p(\{1\})=p$ . Consideremos el espacio muestral ampliado $\Gamma=E^3\times \{0,1\}$ con el producto $\sigma$ -álgebra, y equipar $\Gamma$ con la medida de probabilidad $\mathbb P=\mu\otimes(\nu\rtimes \kappa)\otimes \textrm{Ber}_p$ , donde $\nu$ denota la ley de $X$ .

Considere la función $f\colon \Gamma\to E$ dado por $$ f(w,x,y,z)=\begin{cases}y,& z = 0\\ w,& z = 1\end{cases}. $$ Cuando $f$ se considera un elemento aleatorio de $E$ es precisamente el resultado del "muestreo de $\mu$ con probabilidad $p$ y de $\kappa(X,\cdot)$ con probabilidad $1-p$ " en la forma que usted ha descrito.

Formulada de esta manera precisa y rigurosa, su pregunta plantea lo siguiente.

Pregunta reformulada. Para cualquier $B\in\mathcal E$ determinar la probabilidad condicional $\mathbb P(f\in B\mid x)$ .

Has adivinado una fórmula para esta probabilidad condicional, que ahora verificaremos.

Reclamación. La variable aleatoria $(1-p)\kappa(x, B)+p\mu(B)$ en $\Gamma$ es una versión de $\mathbb P(f\in B\mid x)$ .

En la demostración de esta afirmación, utilizaremos notación como $\mathbb E[\textrm{variable};\textrm{conditions}]$ como abreviatura de la expectativa de (variable por el indicador de las condiciones) con respecto a $\mathbb P$ .

Prueba. Desenrollar la definición de probabilidad condicional La reclamación equivale a demostrar que $$ \mathbb P(f\in B,x\in A)=(1-p)\mathbb E[\kappa(x, B);x\in A]+p\mu(B)\mathbb P(x\in A)\tag{1}, $$ para todos los conjuntos $A\in \mathcal E$ . Dividiendo el lado izquierdo, vemos que $$ \mathbb P(f\in B,x\in A)=\mathbb P(f\in B,z=0,x\in A)+\mathbb P(f\in B,z=1,x\in A). $$ En $z=0$ tenemos $f=y$ y en $z=1$ tenemos $f=w$ . Así, $$ \mathbb P(f\in B,x\in A)=\mathbb P(y\in B,z=0,x\in A)+\mathbb P(w\in B,z=1,x\in A). $$ Utilizando la independencia (proveniente de la estructura del producto de $\mathbb P$ ), se obtiene el siguiente resultado $$ \mathbb P(f\in B,x\in A)=(1-p)\mathbb P(y\in B,x\in A)+p\mu(B)\mathbb P(x\in A). $$ Recordando que la ley de $(x,y)$ es $\nu\rtimes \kappa$ y aplicando directamente la definición del producto semidirecto se obtiene $\mathbb P(y\in B,x\in A)=\mathbb E[\kappa(x,B);x\in A]$ . Sustituyendo esto en la pantalla anterior se obtiene $(1)$ estableciendo la demanda.

1voto

David Nalley Puntos 76

Quizá haya que formularlo de otra manera. (Si me equivoco y la siguiente descripción no es equivalente a la situación descrita en la pregunta, por favor hágamelo saber)

Sustituyamos 3. y 4. por

  1. $\operatorname P\left[Y\in B\mid X,Z\right]=\mu(B)$ casi seguramente en $\left\{Z=1\right\}$ para todos $B\in\mathcal E$
  2. $\operatorname P\left[Y\in B\mid X,Z\right]=\kappa(X,B)$ casi seguramente en $\left\{Z=0\right\}$ para todos $B\in\mathcal E$

Además, descarta la 2. (creo que la independencia en la 2. ya está expresada en la 5. - tal vez alguien pueda elaborar esto en los comentarios) y sólo conserva la 1.

Dejemos que $B\in\mathcal E$ . Para el 5. y el 6., $$\operatorname P\left[Y\in B\mid X,Z\right]=1_{\left\{\:Z\:=\:1\:\right\}}\mu(B)+1_{\left\{\:Z\:=\:0\:\right\}}\kappa(X,B)\;\;\;\text{almost surely}.\tag2$$ Por 1., $$\operatorname P\left[Z=1\mid X\right]=\operatorname P\left[Z=1\right]\;\;\;\text{almost surely}\tag3$$ y $$\operatorname E\left[1_{\left\{\:Z\:=\:0\:\right\}}\kappa(X,B)\mid X\right]=\operatorname P\left[Z=0\mid X\right]\kappa(X,B)=\operatorname P\left[Z=0\right]\kappa(X,B)\;\;\;\text{almost surely}.\tag4$$ Así, \begin{equation} \begin{split} \operatorname P\left[Y\in B\mid X\right]&=\operatorname E\left[\operatorname P\left[Y\in B\mid X,Z\right]\mid X\right]\\&=\operatorname E\left[1_{\left\{\:Z\:=\:1\:\right\}}\mu(B)+1_{\left\{\:Z\:=\:0\:\right\}}\kappa(X,B)\mid X\right]\\&=\operatorname P\left[Z=1\mid X\right]\mu(B)+\operatorname E\left[1_{\left\{\:Z\:=\:0\:\right\}}\kappa(X,B)\mid X\right]\\&=p\mu(B)+(1-p)\kappa(X,B) \end{split} \N - Etiqueta 5 \fin{span}{span}

casi seguro.

Así, el núcleo de Markov deseado debería ser $$Q(x,\;\cdot\;):=p\mu+(1-p)\kappa(x,\;\cdot\;)\;\;\;\text{for }x\in E.$$ (Nótese que la combinación convexa de medidas de probabilidad es una medida de probabilidad).

i-Ciencias.com

I-Ciencias es una comunidad de estudiantes y amantes de la ciencia en la que puedes resolver tus problemas y dudas.
Puedes consultar las preguntas de otros usuarios, hacer tus propias preguntas o resolver las de los demás.

Powered by:

X