Considere $X_m$ que son variables aleatorias independientes e idénticamente distribuidas que tienen momentos exactamente hasta el orden $2$ y no más altos. Esto se puede hacer de numerosas maneras. Una es la siguiente: sea $a_n$ una secuencia de números positivos que tiende a cero y sea $b_n$ una secuencia de números positivos tal que $\sum_{n=1}^\infty \frac{b_n}{a_n}$ converge. (Por ejemplo, $a_n=1/n, b_n=2^{-n}$ hace el trabajo). Sea $f_n(x)=(2+a_n) 1_{[1,\infty)}(x) |x|^{-3-a_n}$. Luego sea $f(x)=\sum_{n=1}^\infty \frac{b_n}{\sum_{k=1}^\infty b_k} f_n(x)$. Entonces $f$ es una función de densidad de una variable aleatoria que no tiene momentos más altos que el segundo (ya que cada $f_n$ tiene momentos exactamente de orden estrictamente menor que $2+a_n$). La suposición sobre $b_n$ asegura que en realidad tiene un segundo momento finito. (De hecho, el truco aquí es $\bigcap_{n=1}^\infty [1,2+a_n)=[1,2]$.)
A pesar de esta propiedad de momentos algo patológica, el teorema central del límite clásico aún nos dice que $\frac{\overline{X}_m-\mu}{\sigma/\sqrt{m}}$ converge en distribución a una variable aleatoria $N(0,1)$. Sin embargo, las estimaciones cuantitativas más comunes para la tasa de convergencia, por ejemplo, el teorema de Berry-Esseen, requieren la existencia de un momento superior al orden $2$. ¿Qué se puede decir sobre la tasa de convergencia en casos como el mencionado en el párrafo anterior?