He encontrado montones de recursos sobre la regla del producto, pero ninguno está en $n$ variables aleatorias continuas conjuntas, pero sospecho que debería seguir siendo así Supongamos que $X_1,\cdots,X_n$ son variables aleatorias continuas con pdf conjunta $f(x_1,\cdots,x_n)$ . Si $f_{X_i|X_{i-1}\cdots,X_1}(x_i|x_{i-1},\cdots, x_{1})$ es la distribución de probabilidad de $X_i$ en el caso de que ya hayamos observado que $X_{i-1} = x_{i-1},X_{i-2} = x_{i-2}, \cdots, X_{1} = x_{1}$ ¿tenemos la siguiente descomposición? $$ f(x_1,\cdots,x_n) = f_{X_1}(x_1) f_{X_2|X_1}(x_2|x_1)f_{X_3|X_2,X_1}(x_3|x_2,x_1)\cdots f_{X_n|X_{n-1},\cdots ,X_{1}}(x_n|x_{n-1},\cdots,x_{1}) ? $$
Respuesta
¿Demasiados anuncios?En primer lugar, observamos que la fórmula de $n$ variables se puede derivar fácilmente de forma iterativa de la de dos variables, es decir, basta con mostrar $$ f(x, y)=f_X(x)f_{Y|X}(y|x). $$
En la teoría no rigurosa (teoría clásica), la fórmula anterior se deduce directamente de la definición de (pdf para) las distribuciones condicionales, es decir $f_{Y|X}(y|x)\equiv \frac{f(x, y)}{f_X(x)}$ donde $f_X(x)=\int f(x, y)dy $ es la distribución marginal. La distribución condicional tiene sentido porque es no negativa y se integra a 1, por lo tanto es una pdf de cierta variable aleatoria. Se interpreta como la distribución condicionada a $X=x$ .
En una rigurosa formulación teórico-medida, $f_{Y|X}(y|x)=\frac{f(x, y)}{f_X(x)}$ sigue siendo simplemente una definición de una versión de pdf, y está relacionada con $E(Y|X)\equiv E(Y|\sigma(X))$ por $$ E(Y|X) = g(X) \equiv \int yf_{Y|X}(y|X)dy.\quad (1) $$
Definición. Dejemos que $(\Omega, \mathcal{F}, P)$ sea un espacio de probabilidad, y sea $\mathcal{C} \subset \mathcal{F}$ sea un sub- $\sigma$ -campo. Sea $Y$ sea una variable aleatoria que sea $\mathcal{F}/\mathcal{B}$ medible y $E|Y| < \infty$ . Utilizamos el símbolo $E(Y|\mathcal{C})$ para representar cualquier función $h : \Omega \rightarrow \mathcal{R}$ es decir $\mathcal{C}/\mathcal{B}$ medible y que satisface $$\int_C hdP = \int_C YdP, \text{ for all } C \in \mathcal{C}.\quad (2)$$ Llamamos a esta función $h$ una versión de la expectativa condicional de $Y$ dado $\mathcal{C}$ .
Hay teoremas que afirman que la mencionada expectativa condicional existe y es única. En nuestro problema, tenemos $\mathcal{C} = \sigma(X)$ y $\mathcal{F} = \sigma(X, Y)$ .
Prueba de (1) : Dejemos que $C \in \mathcal{C}\equiv\sigma(X)$ . Entonces existe $B \in \mathcal{B}$ para que $C=X^{-1}(B)$ . Para demostrar (1), basta con mostrar que (2) se cumple para $h=g(X)$ .
$$\int_C hdP = \int_B g(x)d\mu_X = \int 1_B(x) g(x)d\mu_X$$ $$ = \int 1_B(x) \int yf_{Y|X}(y|x)dy d\mu_X = \int\int 1_B(x) yf_{Y|X}(y|x)dy f_X(x)dx$$ $$= \int\int 1_B(x) yf_{Y|X}(y|x)f_X(x)dxdy = \int\int 1_B(x) yf(x, y)dxdy$$ $$ = E(1_B(X)Y) = E(1_CY) = \int_C Y dP.$$