Estoy intentando resolver el problema del MIT Open Coursware "Estadística para Aplicaciones" conjunto de problemas. Específicamente el primero:
"Para $n \in N^*$, sea $X_n$ una variable aleatoria tal que $P[X_n = \frac{1}{n}] = 1 - \frac{1}{n^2}$ y $P[X_n = n] = \frac{1}{n^2}$. ¿Converge $X_n$ en probabilidad? ¿En $L^2$?"
Entonces, para la convergencia en probabilidad (según la definición) necesito mostrar que $P[|X_n - X| \geq \varepsilon]$ converge a 0 a medida que $n$ tiende a infinito para cada $\varepsilon \gt 0$.
No estoy seguro si mi enfoque es correcto:
Cada variable aleatoria $X_1, X_2, \ldots$ puede tener dos resultados. Ya sea $\frac{1}{n}$ con probabilidad $1-\frac{1}{n^2}$ o $n$ con probabilidad $\frac{1}{n^2}$.
Así que al calcular esas probabilidades para diferentes valores de $n$, obtengo:
Para $X_1$: $P[X_1 = 1] = 0$ y $P[X_1 = 1] = 1$ (no sé cómo entender eso)
Para $X_2$: $P[X_2 = \frac{1}{2}] = \frac{3}{4}$ y $P[X_2=2] = \frac{1}{4}$
Para $X_3$: $P[X_3 = \frac{1}{3}] = \frac{8}{9}$ y $P[X_3=3] = \frac{1}{9}$
y así sucesivamente...
Ahora noto que a medida que $n$ aumenta, $X_n$ tiende a favorecer cada vez más a $\frac{1}{n}$.
Entonces elijo una variable aleatoria $X$ tal que $P[X=\frac{1}{n}] = 1$ lo cual básicamente significa que $X=\frac{1}{n}$.
Ahora sustituyendo todo en la definición de convergencia de probabilidad:
$$\lim_{n\to\infty} P[|X_n - X| \geq \varepsilon] = \lim_{n\to\infty} P[|X_n - \frac{1}{n}| \geq \varepsilon]$$
Ahora puedo descartar el valor absoluto porque para $n \in N^*$ $X_n$ es o bien $n$ o $\frac{1}{n}$ y en este caso $n-\frac{1}{n}$ y $\frac{1}{n} - \frac{1}{n}$ siempre son mayores o iguales a 0.
Continuando:
$$\lim_{n\to\infty} P[X_n - \frac{1}{n} \geq \varepsilon]$$
Y ahora esta parte es un poco complicada - veo qué sucede en el límite. Así que a medida que $n \to \infty$:
$$P[X_n=\frac{1}{n}] = 1 \;y\; P[X_n=n] = 0$$
Lo cual básicamente significa que $X_n = \frac{1}{n}$ a medida que $n \to \infty$. Ahora: $$\lim_{n\to\infty} P[X_n - \frac{1}{n} \geq \varepsilon] = P[0 \geq \varepsilon]$$
Lo cual es igual a 0 porque $\varepsilon \gt 0$. Por lo tanto, $X_n$ converge en probabilidad.
Entonces, mis preguntas son:
- ¿Es correcto este enfoque? Siento que el comienzo es razonable pero al final es un poco dudoso, especialmente el cálculo del límite - ¿podría hacerse en más pasos para describir el razonamiento mejor?
- ¿Cuál sería una manera formalmente correcta de demostrar que $X_n$ converge en probabilidad?
- ¿Cómo entender que para $X_1$ obtengo $P[X_1 = 1] = 0$ y $P[X_1 = 1] = 1$?
- Si la variable aleatoria $X$ es tal que $P[X=\frac{1}{n}] = 1$ ¿es correcto escribir $P[X=\frac{1}{n}] = 1 \Leftrightarrow X=\frac{1}{n}$?
EDIT: Gracias por todas las respuestas, realmente aclararon las cosas para mí. Me pregunto acerca de la convergencia en $L^2$ - ahora que hemos establecido que $X_n$ converge en probabilidad a 0, ¿puedo usar ese resultado para demostrar que también converge en $L^2$?
Entonces ahora debo mostrar que $E[X_n^2]$ tiende a 0 a medida que $n$ tiende a infinito. Así que como sé que $X_n$ converge a 0 en probabilidad, ¿podría escribir: $$ \lim_{n\to\infty} E[X_n^2] = E[0] = 0$$ ? ¿O es la convergencia en probabilidad demasiado débil para inferir eso?
La otra solución sería: $$E[X_n^2] = E[(\frac{1}{n}(1-\frac{1}{n^2}) + n \frac{1}{n^2} )^2 ] = E[( \frac{1}{n} - \frac{1}{n^3} + \frac{1}{n})^2 ] = E[(\frac{2}{n} - \frac{1}{n^3})^2] \xrightarrow[n \to \infty]{} E[0] = 0$$
¿Es correcto?
EDIT2:
Entonces:
$Pr[X_n^2 = (\frac{1}{n})^2] = 1-\frac{1}{n^2}$ y $Pr[X_n^2=n^2]= \frac{1}{n^2}$.
Luego: $E[X_n^2]= (\frac{1}{n})^2 (1-\frac{1}{n^2}) + n^2 \frac{1}{n^2} = \frac{1}{n^2} - \frac{1}{n^4} + 1 \xrightarrow[n \to \infty]{} 1$
Entonces esto significa que $X_n$ no converge a 0 en $L^2$. Lo cual también significa que el enfoque anterior fue incorrecto y la convergencia en probabilidad era demasiado débil.