7 votos

Definición rigurosa de la condicional expectativas de $E(X|Y=y)$ al $P(Y=y)=0$

Deje $X$ ser una variable aleatoria integrable en $(\Omega, \mathfrak A, P)$.

He aprendido que para un evento de $A$ de probabilidad distinta de cero, $$ E(X|A) = \int X(\omega) \,dP(\omega|A) = \frac{1}{P(a)}\int_A X \,dP,\tag 1 $$ donde $P(\cdot|A)$ es la probabilidad de medir en $\mathfrak A$ $B\mapsto P(B \cap A)/P(A).$

Por otra parte, para un sub-sigma álgebra $\mathfrak C \subset \mathfrak A,$ $E(X|\mathfrak C)$ es (un.s. única) que se define como una función integrable de satisfacciones

  1. $E(X|\mathfrak C)$ $\mathfrak C$medible
  2. $\forall C \in \mathfrak C,\, \int_C E(X|\mathfrak C) \,dP = \int_C X \,dP.$

Para integrar las variables aleatorias $X, Y,\,$ $E(X|Y)$ se define como $E(X|\sigma(Y)).$

Pero muy a menudo veo algo como $E(X|Y=y)$ escrito. Si $P(Y=y)>0$ esto se reduce a $(1)$ pero si $Y$ es, por ejemplo, continua w.r.t. Lebesgue-medir, entonces esto no funciona.

Hay una definición general de las $E(X|Y=y)$, que trabaja por los discretos y continuos $Y$ y en el caso de que $Y$ no puede tener una densidad?

9voto

Did Puntos 1

Un pedazo de su propia, muy lúcido, exposición, cuya importancia se haya escapado que es el hecho de que, puesto que la variable aleatoria $E(X\mid Y)$ es, por definición, $\sigma(Y)$-medible, existe alguna función medible $g$ tal que $E(X\mid Y)=g(Y)$ casi seguramente. Entonces, de hecho, es habitual establecer $E(X\mid Y=y)=g(y)$ por cada $y$.

Pero tenga en cuenta esto: si alguna función $g$ se ajusta a la ley, cualquier otra función medible $\bar g$ tal que $\bar g=g$ $P_Y$-casi seguramente, también lo hace. Por lo tanto $E(X\mid Y=y)$ no está definida de forma única, pointwise. Eso es, excepto en los puntos de $y$ tal que $P(Y=y)\ne0$, y, a continuación,$E(X\mid Y=y)=E(X\mathbf 1_{Y=y})/P(Y=y)$, así que todo está bien.

Esta flexibilidad en la elección de la función de $g$ refleja el hecho de que las variables aleatorias $E(X\mid Y)$ sólo puede ser definido hasta la $P$-null establece y que, rigurosamente hablando, uno debe escribir siempre que $E(X\mid Y)=g(Y)$, casi con toda seguridad, en lugar de, simplemente, que $E(X\mid Y)=g(Y)$.

A continuación, $E(X\mid Y)=g(Y)$ casi seguramente, $E(X\mid Y)=\bar g(Y)$ casi seguramente, y $g(Y)=\bar g(Y)$ casi seguramente (esto es lo que la hipótesis de que $g=\bar g$ $P_Y$-casi seguramente, asciende a), de ahí la latitud se mencionó anteriormente no conduce a una contradicción.

Esto también explica por qué rara vez se ve fórmulas que involucran $E(X\mid Y=y)$ en la medida teórica de probabilidad de las clases, pero siempre variables aleatorias $E(X\mid Y)$, definida de forma única a a $P$-null conjuntos.

Ejemplo: Considere el $X=Y$ uniforme en $(0,1)$, $g$ la identidad de la función de las obras, sino también la función $\bar g:\mathbb R\to\mathbb R$ definido por $\bar g(y)=y\mathbb 1_{y\notin\mathbb Q}$. A continuación, $g(y)\ne\bar g(y)$ por cada número racional $y\ne0$. Por lo tanto, para cada uno de los $y$, $g(y)=E(X\mid Y=y)$ puede ser cualquier cosa (es decir, si $P(Y=y)=0$...). Al final, la única propiedad que importa es que el $E(X\mathbb 1_{Y\in B})=E(g(Y)\mathbb 1_{Y\in B})$ para cada conjunto de Borel $B$$\mathbb R$.

i-Ciencias.com

I-Ciencias es una comunidad de estudiantes y amantes de la ciencia en la que puedes resolver tus problemas y dudas.
Puedes consultar las preguntas de otros usuarios, hacer tus propias preguntas o resolver las de los demás.

Powered by:

X