27 votos

Definición formal de probabilidad condicional

Sería muy útil si alguien me da la definición formal de la probabilidad condicional y la expectativa en la siguiente configuración, dada la probabilidad de espacio $ (\Omega, \mathscr{A}, \mu ) $ $\mu(\Omega) = 1 $ , y una variable aleatoria $ X : \Omega \rightarrow \mathbb{R}^n $, donde para cualquier conjunto de borel $ A \in \mathscr{B}(\mathbb{R}^n) $ definimos $$ \mathbb{P}(X \a) = (X*\mu)(A) = \mu(X^{-1}(A))= \mu(\{\omega\en \Omega\ \ |\ \ X(\omega) \en\})\ \ \text{y}\ \ \mathbb{E}(X) = \int_\Omega Xd\mu $$ Independientemente de $X, Y$ ser discreta o continua (con densidad de $f_X, f_Y $ y de la articulación de la densidad de $f_{X,Y} $ w.r.t cierta medida $\nu$$\mathbb{R}^n $), estoy pidiendo la definición de $ \mathbb{P}(Y\in B\ |\ X \in A) $ $ \mathbb{E}(Y|X) $ para todos los conjuntos de Borel $ A, B \in \mathscr{B}(\mathbb{R}^n) $, teniendo en cuenta que $ \mathbb{P}(X \in A) $ bien puede ser cero.

En nuestra probabilidad de clase alguna cosa de la siguiente ordenación se ha mencionado, donde $\delta_x$ es de Dirac distribución en $ x $, luego tenemos $$ \mathbb{E}(Y|X = x) = \frac{\mathbb{E}(\delta_x(X)Y)}{\mathbb{P}(X=x)}$$ de la cual yo no puede hacer ningún sentido. Cualquier apropiado de referencia para estos también es muy bienvenida.

Gracias.

41voto

Joel Puntos 2169

Vamos a lo largo de este post $(\Omega,\mathcal{F},P)$ ser un espacio de probabilidad, y vamos a definir en primer lugar la esperanza condicional ${\rm E}[X\mid\mathcal{G}]$ para integrar variables aleatorias $X:\Omega\to\mathbb{R}$, es decir,$X\in L^1(P)$, y sub-sigma-álgebras $\mathcal{G}\subseteq\mathcal{F}$.

Definición: La esperanza condicional ${\rm E}[X\mid\mathcal{G}]$ $X$ $\mathcal{G}$ es la variable aleatoria $Z$ tener las siguientes propiedades:

(i) $Z$ es integrable, es decir,$Z\in L^1(P)$.

(ii) $Z$ ($\mathcal{G},\mathcal{B}(\mathbb{R}))$- medible.

(iii) Para cualquier $A\in\mathcal{G}$ hemos $$ \int_A Z\,\mathrm dP=\int_A X\,\mathrm dP. $$

Nota: no tiene sentido hablar de la esperanza condicional ya que si $U$ es otra variable aleatoria satisfactorio (i)-(iii), a continuación,$U=Z$ $P$- una.s.

Definición: Si $X\in L^1(P)$ $Y:\Omega\to\mathbb{R}$ es cualquier variable aleatoria, entonces la esperanza condicional de $X$ $Y$ se define como $$ {\rm E}[X\a mediados de Y]:={\rm E}[X\mid\sigma(Y)], $$ donde $\sigma(Y)=\{Y^{-1}(B)\mid B\in\mathcal{B}(\mathbb{R})\}$ es el sigma-álgebra generada por $Y$.

Yo no soy consciente de que cualquier otra definición de $P(Y\in B\mid X\in A)$ de lo obvio, es decir, $$ P(Y\in B\mid X\a)=\frac{P(Y\in B,X\a)}{P(X\a)} $$ siempre que $P(X\in A)>0$. La única excepción al $A$ contiene un solo punto, es decir, $A=\{x\}$ algunos $x\in\mathbb{R}$. En este caso, el objeto de $P(Y\in B\mid X=x)$ se define en términos de una distribución condicional.

Primero vamos a definir regular de probabilidades condicionales. Deje $X:\Omega\to\mathbb{R}$ ser una variable aleatoria.

Definición: Una regular la probabilidad condicional de a $P$ $X$ es una función $$ \mathcal{F}\times \mathbb{R} \ni(a,x)\mapsto P^X(A\mid x) $$ la satisfacción de las siguientes tres condiciones:

(i) La asignación de $A\mapsto P^X(A\mid x)$ es una medida de probabilidad en $(\Omega,\mathcal{F})$ todos los $x\in \mathbb{R}$.

(ii) La asignación de $x\mapsto P^X(A\mid x)$ $(\mathcal{B}(\mathbb{R}),\mathcal{B}(\mathbb{R}))$- medibles para todos los $A\in\mathcal{F}$.

(iii) de la definición de La ecuación se tiene: Para cualquier $A\in\mathcal{F}$ $B\in\mathcal{B}(\mathbb{R})$ hemos $$ \int_B P^X(A\mid x)\,P_X(\mathrm dx)=P(a\cap\{X\in B\}). $$

Nota: Una asignación satisfactoria (i) y (ii) a menudo se llama un núcleo de Markov. Además, desde el $(\mathbb{R},\mathcal{B}(\mathbb{R}))$ es un agradable espacio, la probabilidad condicional es único en el sentido de que si $\tilde{P}^X(\cdot\mid\cdot)$ es otro de los regulares de la probabilidad condicional de a$P$$X$, entonces tenemos que $P^X(\cdot\mid x)=\tilde{P}^X(\cdot\mid x)$$P_X$ -.una. $x$. Aquí $P_X=P\circ X^{-1}$ es la distribución de $X$.

Conexión: Vamos a $P^X(\cdot\mid\cdot)$ ser un habitual de la probabilidad condicional de a$P$$X$. Entonces para cualquier $A\in\mathcal{F}$ hemos $$ {\rm E}[1_A\mid X]=\varphi(X), $$ donde $\varphi(x)=P^X(A\mid x)$. En resumen podemos escribir la ${\rm E}[1_A\mid X]=P^X(A\mid X)$.

Ahora vamos a introducir otra variable aleatoria $Y:\Omega\to\mathbb{R}$, e $P^X(\cdot\mid \cdot)$ todavía denota una regular la probabilidad condicional de a$P$$X$.

Definición: Para $B\in\mathcal{B}(\mathbb{R})$ $x\in\mathbb{R}$ definimos la regular distribución condicional de $Y$ $X$ por $$ P_{Y\mid X}(B\a mediados x):=P^X(Y\in B\mid x). $$

En lugar de $P_{Y\mid X}(B\mid x)$ uno escribe a menudo $P(Y\in B\mid X=x)$.

Una fácil consecuencia de esta definición es que el $(B,x)\mapsto P_{Y\mid X}(B\mid x)$ es una de Markov kernel y para cualquier $A,B\in\mathcal{B}(\mathbb{R})$ hemos $$ \int_A P_{Y\mid X}(B\a mediados x)\,P_X(\mathrm dx)=P (a\{X\in A\}\cap\{Y\in B\}). \etiqueta{1} $$

De hecho, $P_{Y\mid X}(\cdot \mid \cdot)$ es regular condicional de distribución de $Y$ $X$ si y sólo si $P_{Y\mid X}(\cdot\mid\cdot)$ es una de Markov kernel y satisface $(1)$. De nuevo $(1)$ se refiere a menudo como la definición de la ecuación.

Definición: Dejar $P^X(\cdot\mid\cdot)$ ser un habitual de la probabilidad condicional de a$P$$X$. Además, vamos a $U:\Omega\to\mathbb{R}$ ser otra variable aleatoria que se supone limitada (para garantizar las siguientes expectativas de existir). A continuación, definimos el (regular) media condicional de $U$ $X=x$ por $$ {\rm E}[U\mid X=x]:=\int_\Omega U(\omega)\, P^X(\mathrm d\omega\mid x). $$

Nos deja denotar $\psi(x)={\rm E}[U\mid X=x]$. A continuación, tenemos las siguientes:

Conexión: La asignación de $\mathbb{R}\ni x\mapsto \psi(x)$ $(\mathcal{B}(\mathbb{R}),\mathcal{B}(\mathbb{R}))$medible, y $$ {\rm E}[U\mid X]=\psi(X). $$

El siguiente es un extremadamente útil regla a la hora de calcular con distribuciones condicionales:

Regla: Vamos a $X$ $Y$ ser como el anterior, y deje $\xi:\mathbb{R}^2\to\mathbb{R}$ $(\mathcal{B}(\mathbb{R}^2),\mathcal{B}(\mathbb{R}))$- medible. Entonces $$ P(\xi(X,Y)\D\mid X=x)=P(\xi(x,Y)\D\mid X=x),\quad D\in\mathcal{B}(\mathbb{R}), $$ tiene por $P_X$ -.una. $x$. Esto es diciendo que "condicional en $X=x$ podemos reemplazar$X$$x$".

El siguiente ejemplo muestra cómo esta regla puede ser útil: Vamos a $X$ $Y$ ser independientes $\mathcal{N}(0,1)$ variables aleatorias, y deje $U=X+Y$. A continuación, pretendemos que $U\mid X=x\sim \mathcal{N}(x,1)$$P_X$ -.una. $x$. Para ver esto, observe que por la regla anterior, la distribución de $U\mid X=x$ $Y+x\mid X=x$ es el mismo. Pero desde $Y$ es independiente de $X$ tenemos que $Y+x\mid X=x$ se distribuye de la $Y+x$. Se puede escribir como sigue: $$ U\mid X=x\sim Y+x\a mediados de X=x\sim Y+x\sim\mathcal{N}(x,1). $$

i-Ciencias.com

I-Ciencias es una comunidad de estudiantes y amantes de la ciencia en la que puedes resolver tus problemas y dudas.
Puedes consultar las preguntas de otros usuarios, hacer tus propias preguntas o resolver las de los demás.

Powered by:

X