7 votos

Si $Y$ es una variable aleatoria absolutamente continua no negativa y $E[X|Y]=Y/2$ es $E[X|Y=-1]=-1/2$ ? Es $E[X|Y=2]=1$ ?

Una de las definiciones que aprendí para $E[X|Y=y]$ es la siguiente: $$ E[X|Y=y]=\int_{\mathbb{R}} x\,P_{X|Y=y}(dx), $$ donde $P_{X|Y=y}$ una probabilidad que verifica $$ P(X\in A, Y\in B)=\int_B P_{X|Y=y}(A)\,P_Y(dy), \;\;(*)$$ para todos $A,B\in\mathcal{B}(\mathbb{R})$ .

Esta probabilidad $P_{X|Y=y}$ es único en el siguiente sentido: si $Q_{X|Y=y}$ es otra probabilidad que satisface $(*)$ entonces $P_{X|Y=y}(C)=Q_{X|Y=y}(C)$ para todos $C\in\mathcal{B}(\mathbb{R})$ y $y\notin N$ con $P_Y(N)=0$ .

Dejemos que $Y$ sea una variable aleatoria absolutamente continua no negativa con $E[X|Y]=Y/2$ . Dejemos que $N=(-\infty,0)\cup \{2\}$ . Tenemos $P_Y(N)=0$ Así que, en principio $P_{X|Y=y}$ puede ser cualquier probabilidad en $(\mathbb{R},\mathcal{B}(\mathbb{R}))$ para $y\in N$ ¿cierto? Entonces $E[X|Y=y]$ puede ser cualquier valor de $y\in N$ ¿verdad?

Estoy totalmente confundido. Intuitivamente, $E[X|Y=2]$ debe ser $1$ y $E[X|Y=-1]$ no debe definirse, ya que $Y$ no es negativo.

Como puede ver en este pregunta , en el Lemma 5.22 del libro Introducción a las EDP estocásticas computacionales se afirma que $E[W(t)|W(1)]=t\,W(1)$ implica que $E[W(t)|W(1)=0]=0$ , donde $W$ es un movimiento browniano y $0\leq t\leq 1$ . Pero $P(W(1)=0)$ Así que $E[W(t)|W(1)=0]$ no está definido de forma única, puede ser cualquier valor. Es decir, $y\mapsto E[W(t)|W(1)=y]$ se define $P_{W(1)}$ -a.s., así que en $y=0$ no hay una definición única. Es como afirmar algo sobre $f(0)$ cuando $f$ es una función real definida a.e.

0voto

ray247 Puntos 3268

Permítanme proponer un ejercicio mental más sencillo:

Dejemos que $Y=U[0,1]$ . Dejemos que $X=Y$ . Demostrar que $$ E(X|Y)=E(Y|Y)=Y $$ Ahora, ¿qué es $E(X|Y=2)$ ? ¿Qué es $E(X|Y=-1)$ ? ¿Importa el valor que haya asignado?

-1voto

Shalop Puntos 4722

Enunciaré y demostraré un teorema general que justifica formalmente por qué se puede pensar que un puente browniano es el mismo objeto que un movimiento browniano condicionado a su valor terminal (quizás esta respuesta tenga un poco más de sentido si uno está familiarizado con las probabilidades condicionales regulares).

Así que dejemos $B=(B_t)_{t \in [0,1]}$ sea un movimiento browniano en $[0,1]$ . Para $x \in \Bbb R$ Lo haré definir el puente browniano que termina en $x$ para ser el proceso $\tilde B_t^x := B_t-t(B_1-x)$ y demostraré que esta definición ingenua coincide con tu definición de probabilidad condicional.

Dejemos que $\mu$ denotan la ley de $B$ y que $\mu^x$ denotan la ley de $\tilde B^x$ considerados como medidas de probabilidad en $C[0,1]$ equipado con su Borel $\sigma$ -álgebra. En otras palabras, $\mu(A):=P(B \in A)$ y $\mu^x(A) := P(\tilde B^x \in A)$ para los conjuntos de Borel $A \subset C[0,1]$ .

Teorema: Todas las siguientes afirmaciones son ciertas:

  1. La Ley de $\tilde B^x$ es la ley de $B$ con la condición de $B_1=x$ . Formalmente, esto significa que para cualquier función acotada medible $f:C[0,1] \to \Bbb R$ tenemos que $$\Bbb E[f(B) |B_1] = \int_{C[0,1]} f(\varphi) \; \mu^{B_1}(d\varphi), \;\;\;\;\; a.s.$$ donde el lado derecho debe interpretarse como una variable aleatoria $\omega \mapsto \int f(\varphi) \;\mu^{B_1(\omega)}(d\varphi) $ . Otra forma de decirlo es que el mapa $(x,A) \mapsto \mu^x(A)$ es una probabilidad condicional regular para $B$ con respecto a $B_1$ .
  2. $B$ puede descomponerse como la suma independiente $B = \tilde B^0 + tB_1$ . Equivalentemente, para cualquier subconjunto medible $A \subset C[0,1]$ , $$\mu(A) = \frac{1}{\sqrt{2\pi}} \int_{\Bbb R} \mu^x(A) e^{-x^2/2} dx$$
  3. Para cualquier función continua $f:C[0,1] \to \Bbb R$ y cualquier $x \in \Bbb R$ , $$\lim_{\epsilon \to 0} \Bbb E\big[f(B) \;\big| \; |B_1-x| < \epsilon \big] = \Bbb E[f( \tilde B^x) ] =\int_{C[0,1]} f(\varphi) \; \mu^x(d\varphi)$$ Si $f$ se supone simplemente acotada y medible, la misma conclusión sigue siendo válida para casi todos los $x \in \Bbb R$ .
  4. En términos de funciones de densidad, tenemos que $$f_{\tilde B^x_{t_1},...,\tilde B_{t_n}^x}(y_1,...,y_n) = \frac{f_{B_1,B_{t_1},..., B_{t_n}}(x,y_1,...,y_n)}{f_{B_1}(x)}$$

Prueba: Primero probaremos el 2, luego el 1, luego el 3 y luego el 4.

Prueba de 2 : Utilizaremos el siguiente hecho: Si $(X_t,Y_t)_{t \in [0,1]}$ es un proceso gaussiano conjunto tal que $cov(X_t,Y_s)=0$ para todos $s,t$ entonces $X$ y $Y$ son independientes. De hecho, esto implicaría la independencia de las distribuciones de dimensión finita, que (a través de la $\pi$ - $\lambda$ ) implica la independencia con respecto al producto $\sigma$ -álgebra en $\Bbb R^{[0,1]}$ que coincide con la de Borel $\sigma$ -cuando se restringe a $C[0,1]$ . Utilizando este hecho junto con el hecho de que $cov(B_t-tB_1,B_1)=0$ para todos $t\in [0,1]$ vemos que $(B_t-tB_1)_{t\in[0,1]}= \tilde B^0$ es independiente de $B_1$ . Esto demuestra la primera parte de la afirmación 2, y para la segunda parte, utilizamos la independencia de $\tilde B^0$ y $B_1$ para decir $$\mu(A) = P( B \in A) = P\big((\tilde B^0_t+tB_1)_{t\in[0,1]} \in A\big) = \int_{\Bbb R} P\big((\tilde B^0_t+tx)_{t\in[0,1]} \in A\big) \; \Bbb P^{B_1}(dx) $$$$ = \int_ { \Bbb R} P( \tilde B^x_t \in A) \; \Bbb P^{B_1}(dx)= \frac {1}{ \sqrt {2 \pi }} \int_ { \Bbb R} \mu ^x(A)e^{-x^2/2}dx$$ lo que demuestra la fórmula en 2.

Prueba de 1: Como corolario de la fórmula en 2, si $f: C[0,1] \to \Bbb R$ es cualquier función medible acotada, entonces $$\int_{C[0,1]} f(\phi) \mu(d\phi) = \frac{1}{\sqrt{2\pi}}\int_{\Bbb R} \bigg[\int_{C[0,1]} f(\phi) \mu^x(d\phi)\bigg] e^{-x^2/2}dx$$ En consecuencia, si $A \subset \Bbb R$ es cualquier conjunto medible de Borel, entonces $$\Bbb E[f(B)1_{\{B_1 \in A\}}] = \int_{C[0,1]} f(\phi) 1_A(\phi(1)) \;\mu(d\phi)$$ $$=\frac{1}{\sqrt{2\pi}}\int_{\Bbb R} \bigg[\int_{C[0,1]} f(\phi)1_A(x) \mu^x(d\phi)\bigg] e^{-x^2/2}dx $$$$ = \frac {1}{ \sqrt {2 \pi }} \int_ {A} \bigg [ \int_ {C[0,1]} f( \phi ) \mu ^x(d \phi ) \bigg ]e^{-x^2/2}dx $$ $$ = \Bbb E \bigg [ \bigg ( \int_ {C[0,1]} f(x) \N -; \mu ^{B_1}(dx) \bigg ) \cdot 1_{\{B_1 \in A\}} \bigg $$ que demuestra la fórmula en 1.

Prueba de 3: Dejemos que $f:C[0,1] \to \Bbb R$ sea continua, y fije algunos $x \in \Bbb R$ . Imitando la prueba de 1, encontramos que $$ \Bbb E[f(B) \cdot 1_{\{|B_1-x|< \epsilon\}}] = \frac{1}{\sqrt{2\pi}} \int_{x-\epsilon}^{x+\epsilon} \bigg[ \int_{C[0,1]} f(\phi) \mu^u(d\phi)\bigg] e^{-u^2/2}du$$ Por lo tanto, $$\Bbb E\big[f(B) \;\big|\;|B_1-x|<\epsilon\big] := \frac{\Bbb E[f(B) \cdot 1_{\{|B_1 -x|<\epsilon\}}]}{P(|B_1-x|<\epsilon)}$$$$ = \frac { \int_ {x- \epsilon }^{x+ \epsilon } \bigg [ \int_ {C[0,1]} f( \phi ) \mu ^u(d \phi ) \bigg ] e^{-u^2/2}du}{ \int_ {x- \epsilon }^{x+ \epsilon } e^{-u^2/2}du} $$Now letting $\epsilon \to 0 $ and using continuity of $ f $ (together with weak continuity of $ u \mapsto \mu ^u $) we get that $$\lim_ { \epsilon \to 0} \Bbb E \big [f(B) \ ~ -; \big |\ y la de los demás. \epsilon\big ]= \int_ {C[0,1]}f( \phi ) \mu ^x(d \phi ) = \Bbb E[f( \tilde B^x)] $$ This proves the claim for continuous $ f $. If $ f$ es simplemente acotado y medible, la afirmación se sigue de forma similar pero aplicamos el teorema de diferenciación de Lebesgue en el último paso.

Prueba de 4: Queremos demostrar que $f_{B_1}(x)f_{\tilde B^x_{t_1},...,\tilde B_{t_n}^x}(y_1,...,y_n)=f_{B_1,B_{t_1},..., B_{t_n}}(x,y_1,...,y_n)$ es decir, que para una medida acotada $g:\Bbb R^n \to \Bbb R$ y los conjuntos de Borel $A \subset \Bbb R$ , $$\int_A\bigg[\int_{\Bbb R^{n}} f_{\tilde B^x_{t_1},...,\tilde B_{t_n}^x}(y_1,...,y_n)g(y_1,...,y_n)dy_1 \cdots dy_n\bigg]f_{B_1}(x)dx = \Bbb E[g(B_{t_1},...,B_{t_n})\cdot 1_{\{B_1 \in A\}}]$$ Pero el LHS se puede reescribir como $$\frac{1}{\sqrt{2\pi}} \int_{A} \Bbb E \big[ g(\tilde B^x_{t_1},...,\tilde B^x_{t_n})\big] e^{-x^2/2}dx$$ $$=\frac{1}{\sqrt{2\pi}} \int_{A}\bigg[ \int_{C[0,1]} g(\phi(t_1), \dots, \phi(t_n)) \mu^x(d\phi) \bigg] e^{-x^2/2}dx$$ $$=\int_{C[0,1]} g(\phi(t_1),...,\phi(t_n))\cdot 1_A(\phi(1)) \mu(d\phi)$$ $$=\Bbb E[g(B_{t_1},...,B_{t_n})\cdot 1_{\{B_1 \in A\}}]$$ donde utilizamos la fórmula de 2 en la tercera igualdad. Esto demuestra la afirmación.

i-Ciencias.com

I-Ciencias es una comunidad de estudiantes y amantes de la ciencia en la que puedes resolver tus problemas y dudas.
Puedes consultar las preguntas de otros usuarios, hacer tus propias preguntas o resolver las de los demás.

Powered by:

X