8 votos

probabilidades condicionales sobre las densidades

Tengo una pregunta aparentemente básica, pero sorprendentemente mi búsqueda en la web no dio ninguna respuesta satisfactoria.

Dejemos que $F(s)$ sea la distribución de alguna variable aleatoria $X$ de apoyo $(a,b)$ con densidad continua $f(s)$ . Dejemos que

$ \gamma:(a,b)\rightarrow (c,d) $

sea alguna función diferenciable no inyectiva. Esto ciertamente induce alguna variable aleatoria $Y=\gamma(X)$ con la distribución $G$ y la densidad $g$ en $(c,d)$ . Supongamos, para simplificar, que la preimagen $\gamma^{-1}(y)$ es la finitud para todos $y\in\gamma(X)$ .

Estoy interesado en $P(X=x|Y=\gamma(x))$ . Entonces, si las distribuciones fueran discretas, tendríamos simplemente

$P(X=x|Y=\gamma(x))=\frac{P(X=x\text{ and }Y=\gamma(x))}{P(Y=\gamma(x))}=\frac{P(X=x)}{\sum_{x_i\in\gamma^{-1}(y)}P(X=x_i)}$

Estoy convencido de que la solución en el caso continuo debe ser

$P(X=x|Y=\gamma(x))=\frac{\gamma'(x)f(x)}{\sum_{x_i\in\gamma^{-1}(y)}\gamma'(x_i)f(x_i)}$

¿Es esto cierto? ¿Cuál es la mejor manera de demostrarlo? ¿Hay alguna "trampa oculta de la teoría de la medida"? ¿Existen referencias para ese tipo de reglas de cálculo?

Gracias.

Jonas

5voto

Did Puntos 1

Esta cuestión es interesante, pero para resolverla hay que volver a las definiciones de las distribuciones condicionales, así que vamos a intentar ser precisos. Resolvemos en detalle un caso sencillo, esperando que esto haga evidente la solución general.

Supongamos que $X$ tiene densidad $f_X(x)=1$ en $(0,1)$ y que $Y=g(X)$ con $g(x)=6x$ si $x<\frac12$ y $g(x)=4-2x$ si $x>\frac12$ . Así, $Y$ tiene densidad $f_Y(y)=\frac16$ en $(0,2)$ y $f_Y(y)=\frac16+\frac12=\frac23$ en $(2,3)$ .

Recordemos que, por definición, la distribución condicional de $X$ con la condición de $Y$ puede ser cualquier familia de medidas de probabilidad $(q_y)$ tal que, para toda función (acotada y medible) $u$ , $$E(u(X)\mid Y)=v(Y)\ \text{almost surely},$$ con $$ v(y)=\int_\mathbb R u(x)q_y(dx).$$ Recordemos que, también por definición, la función $v$ se caracteriza (hasta conjuntos de medida cero para la distribución de $Y$ ) por la condición de que, para toda función (acotada y medible) $w$ , $$E(u(X)w(Y))=E(v(Y)w(Y)).$$ Así, en nuestro caso, se pide que $E(u(X)w(Y))$ que es $$\int_0^{1/2}u(x)w(6x)dx+\int_{1/2}^1u(x)w(4-2x)dx=\int_0^{3}u\left(\tfrac16y\right)w(y)\tfrac1{6}dy+\int_{2}^3u\left(2-\tfrac12y\right)w(y)\tfrac12dy,$$ es igual a $E(v(Y)w(Y))$ que es $$\int_0^{2}v(y)w(y)\tfrac16dy+\int_{2}^3v(y)w(y)\tfrac23dy,$$ para cada función $w$ . Esto se cumple si y sólo si $$v(y)=u\left(\tfrac16y\right)\mathbf 1_{0<y<2}+\tfrac32\left(\tfrac16u\left(\tfrac16y\right)+\tfrac12u\left(2-\tfrac12y\right)\right)\mathbf 1_{2<y<3},$$ es decir, $$v(y)=u\left(\tfrac16y\right)\mathbf 1_{0<y<2}+\left(\tfrac14u\left(\tfrac16y\right)+\tfrac34u\left(2-\tfrac12y\right)\right)\mathbf 1_{2<y<3}.$$ En resumen, la distribución condicional de $X$ con la condición de $Y$ es $(q_y)$ con $$q_y=\delta_{y/6}$$ si $0<y<2$ y $$q_y=\tfrac14\delta_{y/6}+\tfrac34\delta_{2-y/2}$$ si $2<y<3$ . Identificar cada término de $q_y$ en este caso concreto, se puede llegar a la conclusión de que, en el caso general, la distribución condicional de $X$ con la condición de $Y=y$ es

$$q_y=G(y)^{-1}\sum_{x:g(x)=y}|g'(x)|^{-1}f_X(x)\delta_x,$$ con $$ G(y)=\sum_{x:g(x)=y}|g'(x)|^{-1}f_X(x).$$

Obsérvese que esta fórmula no puede ser válida si $g$ es constante en algún conjunto de Borel $B$ tal que $P(X\in B)\ne0$ pero si los conjuntos $\{x\mid g(x)=y\}$ son, digamos, finitos para cada $y$ entonces estamos bien.

i-Ciencias.com

I-Ciencias es una comunidad de estudiantes y amantes de la ciencia en la que puedes resolver tus problemas y dudas.
Puedes consultar las preguntas de otros usuarios, hacer tus propias preguntas o resolver las de los demás.

Powered by:

X