Para mí es muy contra intuitivo (que la convergencia en Probabilidad y Distribución no son lo mismo), porque, conceptualmente, si dos variables aleatorias tienen la misma distribución, entonces debe ser considerada la misma variable aleatoria. Sé que esto está mal. No estoy seguro de por qué, pero está mal (de ahí la pregunta). ¿Quizás, significa que son iguales (isomorfas) en cuanto a su pdf/cdf/pmf? De todos modos, quiero entender por qué estoy equivocado y arreglar mi intuición matemática.
La razón por la que me quejo es porque soy completamente consciente de un contraejemplo. De hecho, lo proporcionaré en el apéndice de esta pregunta, sin embargo, incluso después de ver el contraejemplo, no estoy seguro de que se me hubiera ocurrido. De hecho, incluso después de ver un contraejemplo, me sigue pareciendo mal. Me preguntaba si alguien podría proporcionar una manera de cómo uno podría llegar a tal contraejemplo (o tal vez un contraejemplo que es mucho más obvio), o tal vez explicarme por qué debería ser obvio que uno puede llegar a tal contraejemplo.
Apéndice:
Recordemos las definiciones de convergencia en distribución y convergencia en probabilidad:
Convergencia en la distribución (D): $$ \lim_{n \rightarrow \infty} | F_{X_n}(x) - F(x)| = 0, \forall x \in X$$
Convergencia en probabilidad (P) para un tamaño suficientemente grande $N$ y $\forall \epsilon > 0$ :
$$ \lim_{n \rightarrow \infty} Pr[ | X_n - X | \geq \epsilon]= 0$$
es decir, si se aleja lo suficiente la secuencia de variables aleatorias, entonces $X_n$ convergerá a $X$ (en probabilidad).
Voy a mostrar el ejemplo de contador para:
$$D \not\implies P$$
Considere una variable aleatoria Bernoulli $X$ con probabilidad de éxito $\frac{1}{2}$ . Ahora defina $X_n$ sea igual a $X$ es decir
$$X_n = X$$
Por lo tanto, obviamente al ser el mismo v.r. tienen la misma distribución. Ahora define:
$$Y = 1 - X$$
Obviamente, $Y$ tiene la misma distribución que $X$ y por lo tanto, también como $X_n$ . Así que $X_N$ converge en su distribución a $Y$ .
Pero, ¿convergen en probabilidad?
Si lo hacen entonces:
$$ \lim_{n \rightarrow \infty} Pr[ | X_n - Y | \geq \epsilon]= 0$$
es decir, queremos que su diferencia sea mayor que $\epsilon$ muy raramente (de hecho, queremos que ese suceso tenga una probabilidad cero a medida que n va al infinito).
Vamos a calcular la distancia entre estas dos variables aleatorias $X_n$ y $Y$ :
$$| X_n - Y | = |X_N - (1 - X)| = |X - 1 + X| = |2X - 1| = 1$$
Por lo tanto, su distancia es siempre 1, pase lo que pase. Queremos que su distancia sea muy grande para cualquier $\epsilon$ , pero observe que para la elección de $\epsilon = \frac{1}{2}$ que la distancia entre $| X_n - Y | = 1$ es efectivamente mayor que el umbral tolerable (es decir $1 = | X_n - Y | > \epsilon = \frac{1}{2} $ con probabilidad 1). Por lo tanto, es seguro que su distancia es mayor que $\epsilon$ . No importa el valor de $n$ que elijamos (es decir, no importa lo lejos que vayamos en la secuencia), seguro que están demasiado lejos. Más concretamente:
$$ \lim_{n \rightarrow \infty}Pr[ | X_n - Y | \geq \epsilon ] = Pr[ 1 \geq \frac{1}{2} ] = 1 $$
que es lo contrario de lo que necesitamos para la convergencia en probabilidad. Fin del contraejemplo.