Supongamos que $X_{i}$ son una muestra aleatoria de $n(0,1)$ variables, Berger y Casella me pidieron que evaluara lo siguiente:
1): $E(|\frac{1}{n}\sum X_{i}|)$ .
2) : $E(\frac{1}{n}\sum|X_{i}|)$ .
Creo que (2) es automático ya que tenemos $$E(\frac{1}{n}\sum|X_{i}|)=\frac{1}{n}E(\sum |X_{i})=E|X_{i}|=2\frac{1}{\sqrt{2\pi}}\int^{\infty}_{0}xe^{-x^{2}/2}dx=-\sqrt{\frac{2}{\pi}}\int^{\infty}_{0}e^{-u}du=\sqrt{\frac{2}{\pi}}$$
Sin embargo, no sé cómo evaluar $$E(|\frac{1}{n}\sum X_{i}|)=\frac{1}{n}E(|\sum X_{i}|)=\frac{1}{n}E(\sqrt{(\sum X_{i})^{2}})$$
Mi pensamiento fue desde $X_{i},X_{j}$ son independientes, deberíamos tener $$E(\sum X_{i}^{2})=E((\sum X_{i})^{2})=E(\chi_{n-1}^{2})=2(n-1)$$ porque $E(X_{i}X_{j})=Cov(X_{i},X_{j})=0$ . Así que si puedo calcular la varianza de $|\sum X_{i}|$ entonces puedo calcular la expectativa de $|\sum X_{i}|$ también. Pero parece que la varianza no es fácil.
Un enfoque de "fuerza brutal" consiste en calcular
$$\int_{\mathbb{R}^{n}}|\sum X_{i}|e^{-\sum \frac{X_{i}^{2}}{2}}dX_{1}\cdots dX_{n}$$ Y parece un inocuo problema de cálculo. Sin embargo, no sé cómo evaluarlo. Así que decidí preguntar. Lo siento, el nivel del problema es muy bajo.