La ley de los grandes números, por ejemplo, es muy fácil de entender. Sumas las variables aleatorias y las divides por su cantidad. Tomas el límite casi seguro de la media aritmética y terminas con la expectativa. A quién no le gusta esto?
Ahora, para el Teorema del Límite Central (CLT) consideramos la convergencia en distribución, por lo que me doy cuenta de que la lógica es diferente. Permíteme presentar una versión simple como referencia:
Sea $(X_n)_{n \in \mathbb{N}}$ una secuencia de variables aleatorias i.i.d. con $E[X_1]=0$ y $Var(X_1) = \sigma^2$ donde $0< \sigma <\infty$. Entonces tenemos que
$$ G_n := \frac{1}{\sqrt{n \sigma^2}} \sum_{k = 1}^{n} X_k \overset{d}{\longrightarrow} G$$
donde $G \sim N(0,1)$
He visto más de una demostración para el CLT pero son bastante técnicas. Durante mucho tiempo ignoré este problema, pero se está repitiendo en varios otros teoremas que encontré (por ejemplo, el teorema de Donsker para los procesos de sumas parciales) así que ahora realmente quiero entender. ¿Existe una intuición sobre de dónde viene la raíz cuadrada?