Vamos a lo largo de este post $(\Omega,\mathcal{F},P)$ ser un espacio de probabilidad, y vamos a definir en primer lugar la esperanza condicional ${\rm E}[X\mid\mathcal{G}]$ para integrar variables aleatorias $X:\Omega\to\mathbb{R}$, es decir,$X\in L^1(P)$, y sub-sigma-álgebras $\mathcal{G}\subseteq\mathcal{F}$.
Definición: La esperanza condicional ${\rm E}[X\mid\mathcal{G}]$ $X$ $\mathcal{G}$ es la variable aleatoria $Z$ tener las siguientes propiedades:
(i) $Z$ es integrable, es decir,$Z\in L^1(P)$.
(ii) $Z$ ($\mathcal{G},\mathcal{B}(\mathbb{R}))$- medible.
(iii) Para cualquier $A\in\mathcal{G}$ hemos
$$
\int_A Z\,\mathrm dP=\int_A X\,\mathrm dP.
$$
Nota: no tiene sentido hablar de la esperanza condicional ya que si $U$ es otra variable aleatoria satisfactorio (i)-(iii), a continuación,$U=Z$ $P$- una.s.
Definición: Si $X\in L^1(P)$ $Y:\Omega\to\mathbb{R}$ es cualquier variable aleatoria, entonces la esperanza condicional de $X$ $Y$ se define como
$$
{\rm E}[X\a mediados de Y]:={\rm E}[X\mid\sigma(Y)],
$$
donde $\sigma(Y)=\{Y^{-1}(B)\mid B\in\mathcal{B}(\mathbb{R})\}$ es el sigma-álgebra generada por $Y$.
Yo no soy consciente de que cualquier otra definición de $P(Y\in B\mid X\in A)$ de lo obvio, es decir,
$$
P(Y\in B\mid X\a)=\frac{P(Y\in B,X\a)}{P(X\a)}
$$
siempre que $P(X\in A)>0$. La única excepción al $A$ contiene un solo punto, es decir, $A=\{x\}$ algunos $x\in\mathbb{R}$. En este caso, el objeto de $P(Y\in B\mid X=x)$ se define en términos de una distribución condicional.
Primero vamos a definir regular de probabilidades condicionales. Deje $X:\Omega\to\mathbb{R}$ ser una variable aleatoria.
Definición: Una regular la probabilidad condicional de a $P$ $X$ es una función
$$
\mathcal{F}\times \mathbb{R} \ni(a,x)\mapsto P^X(A\mid x)
$$
la satisfacción de las siguientes tres condiciones:
(i) La asignación de $A\mapsto P^X(A\mid x)$ es una medida de probabilidad en $(\Omega,\mathcal{F})$ todos los $x\in \mathbb{R}$.
(ii) La asignación de $x\mapsto P^X(A\mid x)$ $(\mathcal{B}(\mathbb{R}),\mathcal{B}(\mathbb{R}))$- medibles para todos los $A\in\mathcal{F}$.
(iii) de la definición de La ecuación se tiene: Para cualquier $A\in\mathcal{F}$ $B\in\mathcal{B}(\mathbb{R})$ hemos
$$
\int_B P^X(A\mid x)\,P_X(\mathrm dx)=P(a\cap\{X\in B\}).
$$
Nota: Una asignación satisfactoria (i) y (ii) a menudo se llama un núcleo de Markov. Además, desde el $(\mathbb{R},\mathcal{B}(\mathbb{R}))$ es un agradable espacio, la probabilidad condicional es único en el sentido de que si $\tilde{P}^X(\cdot\mid\cdot)$ es otro de los regulares de la probabilidad condicional de a$P$$X$, entonces tenemos que $P^X(\cdot\mid x)=\tilde{P}^X(\cdot\mid x)$$P_X$ -.una. $x$. Aquí $P_X=P\circ X^{-1}$ es la distribución de $X$.
Conexión: Vamos a $P^X(\cdot\mid\cdot)$ ser un habitual de la probabilidad condicional de a$P$$X$. Entonces para cualquier $A\in\mathcal{F}$ hemos
$$
{\rm E}[1_A\mid X]=\varphi(X),
$$
donde $\varphi(x)=P^X(A\mid x)$. En resumen podemos escribir la ${\rm E}[1_A\mid X]=P^X(A\mid X)$.
Ahora vamos a introducir otra variable aleatoria $Y:\Omega\to\mathbb{R}$, e $P^X(\cdot\mid \cdot)$ todavía denota una regular la probabilidad condicional de a$P$$X$.
Definición: Para $B\in\mathcal{B}(\mathbb{R})$ $x\in\mathbb{R}$ definimos la regular distribución condicional de $Y$ $X$ por
$$
P_{Y\mid X}(B\a mediados x):=P^X(Y\in B\mid x).
$$
En lugar de $P_{Y\mid X}(B\mid x)$ uno escribe a menudo $P(Y\in B\mid X=x)$.
Una fácil consecuencia de esta definición es que el $(B,x)\mapsto P_{Y\mid X}(B\mid x)$ es una de Markov kernel y para cualquier $A,B\in\mathcal{B}(\mathbb{R})$ hemos
$$
\int_A P_{Y\mid X}(B\a mediados x)\,P_X(\mathrm dx)=P (a\{X\in A\}\cap\{Y\in B\}). \etiqueta{1}
$$
De hecho, $P_{Y\mid X}(\cdot \mid \cdot)$ es regular condicional de distribución de $Y$ $X$ si y sólo si $P_{Y\mid X}(\cdot\mid\cdot)$ es una de Markov kernel y satisface $(1)$. De nuevo $(1)$ se refiere a menudo como la definición de la ecuación.
Definición: Dejar $P^X(\cdot\mid\cdot)$ ser un habitual de la probabilidad condicional de a$P$$X$. Además, vamos a $U:\Omega\to\mathbb{R}$ ser otra variable aleatoria que se supone limitada (para garantizar las siguientes expectativas de existir). A continuación, definimos el (regular) media condicional de $U$ $X=x$ por
$$
{\rm E}[U\mid X=x]:=\int_\Omega U(\omega)\, P^X(\mathrm d\omega\mid x).
$$
Nos deja denotar $\psi(x)={\rm E}[U\mid X=x]$. A continuación, tenemos las siguientes:
Conexión: La asignación de $\mathbb{R}\ni x\mapsto \psi(x)$ $(\mathcal{B}(\mathbb{R}),\mathcal{B}(\mathbb{R}))$medible, y
$$
{\rm E}[U\mid X]=\psi(X).
$$
El siguiente es un extremadamente útil regla a la hora de calcular con distribuciones condicionales:
Regla: Vamos a $X$ $Y$ ser como el anterior, y deje $\xi:\mathbb{R}^2\to\mathbb{R}$ $(\mathcal{B}(\mathbb{R}^2),\mathcal{B}(\mathbb{R}))$- medible. Entonces
$$
P(\xi(X,Y)\D\mid X=x)=P(\xi(x,Y)\D\mid X=x),\quad D\in\mathcal{B}(\mathbb{R}),
$$
tiene por $P_X$ -.una. $x$. Esto es diciendo que "condicional en $X=x$ podemos reemplazar$X$$x$".
El siguiente ejemplo muestra cómo esta regla puede ser útil: Vamos a $X$ $Y$ ser independientes $\mathcal{N}(0,1)$ variables aleatorias, y deje $U=X+Y$. A continuación, pretendemos que $U\mid X=x\sim \mathcal{N}(x,1)$$P_X$ -.una. $x$. Para ver esto, observe que por la regla anterior, la distribución de $U\mid X=x$ $Y+x\mid X=x$ es el mismo. Pero desde $Y$ es independiente de $X$ tenemos que $Y+x\mid X=x$ se distribuye de la $Y+x$. Se puede escribir como sigue:
$$
U\mid X=x\sim Y+x\a mediados de X=x\sim Y+x\sim\mathcal{N}(x,1).
$$