Sobre tu primera pregunta: básicamente la convergencia en probabilidad es el $L^1$ convergencia ignorando las altas cumbres (y aquí, usted puede elegir la altura de umbral tan pequeño como usted por favor). De hecho, la convergencia en probabilidad es equivalente a $$\forall M>0, \int(|X_n-X|\land M ) d\mathbb{P}\rightarrow0, n\rightarrow\infty$$
y también a
$$\exists M>0, \int(|X_n-X|\land M ) d\mathbb{P}\rightarrow0, n\rightarrow\infty,$$
donde $a\land b:=\min(a,b)$.
Para simplificar la notación en orden a comprobar la denuncia, vamos a definir $Y_n:=|X_n-X|$. Lo que tenemos que demostrar es, pues, la equivalencia entre:
- $\forall\varepsilon>0, \mathbb{P}(Y_n>\varepsilon)\rightarrow0, n\rightarrow0$;
- $\forall M>0, \int(Y_n\land M ) d\mathbb{P}\rightarrow0, n\rightarrow\infty$;
- $\exists M>0, \int(Y_n\land M ) d\mathbb{P}\rightarrow0, n\rightarrow\infty$;
Que 1) implica 2) es una simple consecuencia del hecho de que 1) implica que para todos los $M>0$ la secuencia de $(Y_n\land M)_{n\in\mathbb{N}}$ converge en probabilidad a cero y por lo tanto, por la variante del teorema de convergencia dominada con la convergencia en probabilidad de que toma el lugar de la una.s. convergencia, obtenemos 2).
El hecho de que 2) implica 3) es evidente.
Ahora, supongamos 3). Supongamos que para obtener una contradicción que 1) no tiene. Entonces existe $0<\varepsilon <M$ existe $\delta>0$ y existe una estrictamente creciente secuencia de enteros positivos $(n_k)_{k\in\mathbb{N}}$ tal que $$\forall k\in\mathbb{N}, \mathbb{P}(Y_{n_k}>\varepsilon)\ge\delta.$$
A continuación, $$\forall k\in\mathbb{N}, \delta\le\mathbb{P}(Y_{n_k}>\varepsilon)\le\mathbb{P}(Y_{n_k}-(Y_{n_k}\land M)>\frac{\varepsilon}{2})+\mathbb{P}(Y_{n_k}\land M>\frac{\varepsilon}{2})\\\le\mathbb{P}(\{Y_{n_k}-(Y_{n_k}\land M)>\frac{\varepsilon}{2}\}\cap\{Y_{n_k}\ge M\})+\mathbb{P}(\{Y_{n_k}-(Y_{n_k}\land M)>\frac{\varepsilon}{2}\}\cap\{Y_{n_k}< M\})+\mathbb{P}(Y_{n_k}\land M>\frac{\varepsilon}{2})\\=\mathbb{P}(Y_{n_k}>M+\frac{\varepsilon}{2})+\mathbb{P}(\emptyset)+\mathbb{P}(Y_{n_k}\land M>\frac{\varepsilon}{2})\\\le\mathbb{P}(Y_{n_k}>M+\frac{\varepsilon}{2})+\frac{2}{\varepsilon}\int Y_{n_k}\land Md\mathbb{P}.$$
Por lo $$\liminf_{k\rightarrow\infty}\mathbb{P}(Y_{n_k}>M+\frac{\varepsilon}{2})\ge\delta.$$
Entonces
$$0=\lim_{k\rightarrow\infty}\int Y_{n_k}\land Md\mathbb{P}\ge\liminf_{k\rightarrow\infty}\int_{Y_{n_k}>M+\frac{\varepsilon}{2}} Y_{n_k}\land Md\mathbb{P}\\\ge\liminf_{k\rightarrow\infty}M\mathbb{P}(Y_{n_k}>M+\frac{\varepsilon}{2})\ge M\delta>0,$$
absurdo. 3) implica 1).
Sobre su segunda pregunta: la primera es equivalente a la convergencia en probabilidad, el segundo y el tercero son nada más que la convergencia es casi seguro, mientras que el cuarto es algo extraño: es estrictamente más fuertes, entonces la convergencia en probabilidad (por ejemplo, $X_n=1/n$ converge a cero en la probabilidad, pero no satisface (4)), mientras que no implica un.s. convergencia (como la máquina de escribir la secuencia de funciones se muestra) ni es implicado por una.s. convergencia (como $X_n=1/n$ de la muestra). Básicamente se dice que el conjunto donde $X_n$ $X$ son igual de crecimiento en la probabilidad de a $1$.