Sé que la media de la suma de variables independientes es la suma de las medias de cada variable independiente. ¿Se aplica esto también a las variables dependientes?
Respuestas
¿Demasiados anuncios?La expectativa (tomar la media) es una operador lineal .
Esto significa que entre otras cosas, $\mathbb{E}(X + Y) = \mathbb{E}(X) + \mathbb{E}(Y)$ para dos variables aleatorias cualesquiera $X$ y $Y$ (para las que existen expectativas), independientemente de que sean independientes o no.
Podemos generalizar (por ejemplo, mediante inducción ) de modo que $\mathbb{E}\left(\sum_{i=1}^n X_i\right) = \sum_{i=1}^n \mathbb{E}(X_i)$ siempre que cada expectativa $\mathbb{E}(X_i)$ existe.
Así que sí, la media de la suma es la misma que la suma de la media aunque las variables sean dependientes. Pero no ocurre lo mismo con la varianza. Así, mientras $\mathrm{Var}(X + Y) = \mathrm{Var}(X) + \mathrm{Var}(Y)$ para variables independientes, o incluso variables dependientes pero no correlacionados la fórmula general es $\mathrm{Var}(X + Y) = \mathrm{Var}(X) + \mathrm{Var}(Y) + 2\mathrm{Cov}(X, Y)$ donde $\mathrm{Cov}$ es el covarianza de las variables.
TL; DR:
Suponiendo que exista, la media es un valor esperado, y el valor esperado es una integral, y las integrales tienen la propiedad de linealidad respecto a las sumas.
TS; DR:
Como se trata de la suma de variables aleatorias $Y_n = \sum_{i=1}^n X_i$ es decir, de una función de muchas de ellas, la media de la suma $E(Y_n)$ es con respecto a su conjunta (suponemos que todas las medias existen y son finitas) Denotemos $\mathbf X$ el vector multivariante del $n$ r.v., su densidad conjunta puede escribirse como $f_{\mathbf X}(\mathbf x)= f_{X_1,...,X_n}(x_1,...,x_n)$ y su apoyo conjunto $D = S_{X_1} \times ...\times S_{X_n}$ Utilización de la Ley del Estadístico Inconsciente tenemos el multiples integral
$$E[Y_n] = \int_D Y_nf_{\mathbf X}(\mathbf x)d\mathbf x$$ .
Bajo algunas condiciones de regularidad podemos descomponer la integral múltiple en una $n$ -integral iterativa:
$$E[Y_n] = \int_{S_{X_n}}...\int_{S_{X_1}}\Big[\sum_{i=1}^n X_i\Big]f_{X_1,...,X_n}(x_1,...,x_n)dx_1...dx_n $$
y utilizando el linealidad de integrales que podemos descomponer en
$$ = \int_{S_{X_n}}...\int_{S_{X_1}}x_1f_{X_1,...,X_n}(x_1,...,x_n)dx_1...dx_n \; + ...\\ ...+\int_{S_{X_n}}...\int_{S_{X_1}}x_nf_{X_1,...,X_n}(x_1,...,x_n)dx_1...dx_n $$
Para cada $n$ -integral iterativa podemos reordenar el orden de integración de modo que, en cada una, la integración externa sea con respecto a la variable que está fuera de la densidad conjunta. A saber,
$$\int_{S_{X_n}}...\int_{S_{X_1}}x_1f_{X_1,...,X_n}(x_1,...,x_n)dx_1...dx_n = \\\int_{S_{X_1}}x_1\int_{S_{X_n}}...\int_{S_{X_2}}f_{X_1,...,X_n}(x_1,...,x_n)dx_2...dx_ndx_1$$
y en general
$$\int_{S_{X_n}}...\int_{S_{X_j}}...\int_{S_{X_1}}x_jf_{X_1,...,X_n}(x_1,...,x_n)dx_1...dx_j...dx_n =$$ $$=\int_{S_{X_j}}x_j\int_{S_{X_n}}...\int_{S_{X_{j-1}}}\int_{S_{X_{j+1}}}...\int_{S_{X_1}}f_{X_1,...,X_n}(x_1,...,x_n)dx_1...dx_{j-1}dx_{j+1}......dx_ndx_j$$
A medida que calculamos una a una la integral en cada $n$ -integral iterativa (empezando desde dentro), "integramos hacia fuera" una variable y obtenemos en cada paso la distribución "conjunto-marginal" de las otras variables. Cada $n$ -Por lo tanto, la integral iterativa será $\int_{S_{X_j}}x_jf_{X_j}(x_j)dx_j$ .
Juntando todo llegamos a
$$E[Y_n ] = E[\sum_{i=1}^n X_i] = \int_{S_{X_1}}x_1f_{X_1}(x_1)dx_1 +...+\int_{S_{X_n}}x_nf_{X_n}(x_n)dx_n $$
Pero ahora cada integral simple es el valor esperado de cada variable aleatoria por separado, por lo que
$$ E[\sum_{i=1}^n X_i] = E(X_1) + ...+E(X_n) $$ $$= \sum_{i=1}^nE(X_i) $$
Nótese que nunca hemos invocado la independencia o no independencia de las variables aleatorias implicadas, sino que hemos trabajado únicamente con su distribución conjunta.