2 votos

Probabilidad condicional combinando variables aleatorias discretas y continuas

Consideremos el siguiente problema, de Tijms Comprender la probabilidad :

Un receptor recibe como entrada una señal aleatoria representada por una variable aleatoria discreta $X$ donde $X$ toma el valor +1 con probabilidad $p$ y el valor -1 con probabilidad $1- p$ . La salida $Y$ es una variable aleatoria continua igual a la entrada $X$ más ruido aleatorio, donde el ruido aleatorio tiene un $N (0, \sigma^2 )$ distribución. Sólo se puede observar la salida. ¿Cuál es la probabilidad condicional de $X = 1$ dado el valor observado $Y = y$ ?

Este problema es interesante porque parece una mezcla de variables aleatorias discretas y continuas. Mi intento.

Para la probabilidad de que $Y\le y$ tenemos dos posibilidades: o bien $X=1$ ou $X=-1$ y $P(Y\le y) = P(Y\le y|X=1)P(X=1) + P(Y\le y|X=-1)P(X=-1)$ Así que $$ P(Y\le y)=p\int_{-\infty}^y \frac{1}{\sqrt{2\pi}}e^{-\frac12 (s-1)^2}ds + (1-p)\int_{-\infty}^y \frac{1}{\sqrt{2\pi}}e^{-\frac12 (s+1)^2}ds. $$ Aquí he utilizado el hecho de que: $$ P(Y\le y|X=1) = \int_{-\infty}^y \frac{1}{\sqrt{2\pi}}e^{-\frac12(s-1)^2}ds. $$ Entonces, podríamos usar: $$ P(X=1|Y=y) = P(Y=y|X=1)\frac{P(Y= y)}{P(X=1)}, $$ sin embargo si reemplazo los términos $P(Y\le y)$ y $P(Y\le y|X=1)$ que derivé anteriormente, primero obtengo una expresión simple complicada, y luego me desconcierta tener algo como $P(Y=y)$ en el contexto de una variable aleatoria continua.

2voto

antkam Puntos 106

Sé que parece una tontería, pero para condicionar una variable continua $Y$ que tenga un valor determinado $Y=y$ puede simplemente sustituir el pdf donde normalmente tendría $P(Y=y)$ (cuyo valor es técnicamente $0$ ).

De hecho, su situación es exactamente Teorema de Bayes con una variable discreta y una variable continua .

No sé lo suficiente de la teoría subyacente (¿presumiblemente la teoría de la medida?) para explicar por qué esto funciona. ¡Lo siento!

1 votos

En probabilidad sin teoría de la medida, ¿es en realidad una definición?

2voto

dnqxt Puntos 71

Consideremos una distribución de probabilidad conjunta mixta

$$P(X=x, Y=y) \approx P(X=x)P(Y \in y+\delta y|X=x) =\\ P(X=x|Y \in y + \delta y)P(Y \in y+ \delta y) $$

Para $\delta y \rightarrow 0$ podemos escribir:

$$P(X=x)f_Y(y|X=x) = P(X=x|Y = y)f_Y(y) $$

Entonces, $$P(X=1|Y = y) = \frac{pf_Y(y|X=1)}{f_Y(y)}, $$

donde $f_Y(y|X=1) = p N(1,\sigma^2)$ y $f_Y(y) = p N(1,\sigma^2) + (1-p)N(-1,\sigma^2)$ y $N(\mu,\sigma^2)$ es una densidad de una v.r. normal con media $\mu$ y varianza $\sigma^2$ .

0voto

J. D. Puntos 84

Siguiendo el ejemplo de dnqxt, sospecho que podemos interpretar: $$ P(Y=y) = \lim_{\delta \to 0}P(y-\delta \le Y\le y) =\lim_{\delta\to 0} \left(p\frac{\delta}{\sqrt{2\pi}}e^{-\frac12 (y-1)^2} + (1-p)\frac{\delta}{\sqrt{2\pi}}e^{-\frac12(y+1)^2}\right), $$ y de forma similar, $$ P(X=1,Y=Y)=\lim_{\delta\to0}P(X=1, y-\delta\le Y\le y)=\lim_{\delta\to0}p\frac{\delta}{\sqrt{2\pi}}e^{-\frac12 (y-1)^2}. $$ Como era de esperar, $P(Y=y)$ y $P(X=1,Y=y)$ son cero cuando tomamos el límite, pero calculando la probabilidad condicional antes de tomar el límite da: $$ P(X=1|Y=y) = \frac{pe^{-\frac12 (y-1)^2}}{pe^{-\frac12 (y-1)^2}+(1-p)e^{-\frac12 (y+1)^2}}. $$

i-Ciencias.com

I-Ciencias es una comunidad de estudiantes y amantes de la ciencia en la que puedes resolver tus problemas y dudas.
Puedes consultar las preguntas de otros usuarios, hacer tus propias preguntas o resolver las de los demás.

Powered by:

X