- No puede ser cierto en general: considere $k=1$ (o cualquier impar $k$ ), toma $X_i$ para ser i.i.d normal con media $0$ y la varianza $1$ A continuación mostramos que $Y_n$ no es UI.
Tenga en cuenta que $$ \mathbb{E}\left(|Y_n| 1\{|Y_n|\geq M\}\right) \geq M\mathbb{P}\left(|Y_n|\geq M\right) = M\mathbb{P}\left(|\bar{X}_n|\leq \frac{1}{M}\right) \to M, $$ como $n\to \infty$ por las leyes de los grandes números ( $\bar{X}_n\to 0$ en probabilidad), ahora se toma el límite como $M\to \infty$ para obtener
$$ \liminf_{M\to \infty }\liminf_{n\to \infty }\mathbb{E}\left(|Y_n| 1\{|Y_n|\geq M\}\right)= \infty $$
- Dado que lo que más le interesa es $k=2$ Tomemos $k$ es par. Demostramos a continuación que un "permitido" $X$ es la siguiente: $X$ es una variable aleatoria con $\mathbb{E}(X^{-2k})<\infty$ entonces $\{Y_n\}$ es UI.
(Tenga en cuenta que las condiciones del punto 2 son suficientes pero pueden no ser necesarias)
Considere la función $\frac{1}{x}$ es convexo en $(0,\infty)$ Ahora, utilizando la desigualdad de Jensen, se obtiene (estoy utilizando $k$ es incluso para asegurarse de que $X_i^k$ son no negativos, también la desigualdad de abajo es trivial cuando cualquiera de los $X_i$ es cero) $$ \left(\frac{1}{n}\sum_{i=1}^n X_i^k\right)^{-1} \leq \frac{1}{n}\sum_{i=1}^n X_i^{-k} . $$ Así, $$ \mathbb{E}\left(\left|\left(\frac{1}{n}\sum_{i=1}^n X_i^k\right)^{-1}\right| 1\{\left|\left(\frac{1}{n}\sum_{i=1}^n X_i^{k}\right)^{-1}\right|\geq M\}\right)\\ \leq \frac{1}{n}\sum_{i=1}^n\mathbb{E}\left( X_i^{-k}1\{\left|\left(\frac{1}{n}\sum_{i=1}^n X_i^{k}\right)^{-1}\right|\geq M\}\right) \\ = \mathbb{E}\left( X_1^{-k}1\{\left|\left(\frac{1}{n}\sum_{i=1}^n X_i^{k}\right)^{-1}\right|\geq M\}\right) \leq \mathbb{E}^{1/2}\left( X_1^{-2k}\right)\mathbb{P}^{1/2}\left(\frac{1}{n}\sum_{i=1}^n X_i^{k}\leq \frac{1}{M}\right). $$ En el último paso, utilizamos la desigualdad de Cauchy-Schwarz. Ahora $X_i^{-k}$ son variables aleatorias i.i.d con segundo momento finito. Consideremos ahora dos casos:
Caso I: $\mathbb{E}(X_i^{k})<\infty$ . Entonces $\frac{1}{n}\sum_{i=1}^n X_i^{k} \to \mathbb{E}(X^k)$ como $n\to\infty$ en la probabilidad por las leyes de los grandes números. Además $\mathbb{E}(X^k)>0$ como de lo contrario $X=0$ con probabilidad $1$ , que violará $\mathbb{E}(X^{-k})<\infty$ . Por lo tanto, $\frac{1}{n}\sum_{i=1}^n X_i^{k} \to \mathbb{E}(X^k)>0$ y así elegir $M$ grande podemos completar la prueba.
Caso II: $\mathbb{E}(X_i^{k})=\infty$ . Aquí también se puede demostrar que para una constante positiva arbitraria $c>0$ La probabilidad de que $\frac{1}{n}\sum_{i=1}^n X_i^{k} >c$ va a $1$ como $n \to \infty$ . Por lo tanto, elija de nuevo un $M$ lo suficientemente grande como para completar la prueba.