13 votos

¿Cómo interpretar la convergencia en probabilidad?

Q1) decimos que $X_n\to X$ de probabilidad si $$\forall \varepsilon>0, \lim_{n\to \infty }\mathbb P\{|X_n-X|>\varepsilon\}=0.$$

¿Qué significa esto concretamente ? Lo que podría ser la interpretación atrás ?

Q2) ¿Cuál sería la diferencia entre

1) $$\forall \varepsilon>0, \lim_{n\to \infty }\mathbb P\{|X_n-X|\leq \varepsilon\}=1$$

2) $$\forall \varepsilon>0, \mathbb P\{\lim_{n\to \infty }|X_n-X|\leq \varepsilon\}=1$$

3) $$\mathbb P\{\forall \varepsilon>0, \lim_{n\to \infty }|X_n-X|\leq \varepsilon\}=1$$

4) $$\lim_{n\to \infty }\mathbb P\{\forall \varepsilon>0, |X_n-X|\leq \varepsilon\}=1.$$

No estoy realmente seguro de cómo interpretar estos cuatro límites ya que su aspecto es casi el mismo para mí. Puedo ver que 1) no es nada más que la convergencia en probabilidad. Si alguien me podría explicar la diferencia entre todos estos límite, me ayudaría mucho a comprender mejor esas concepto de convergencia.

5voto

Especially Lime Puntos 51

1) es la convergencia en probabilidad, como usted dice. Esto significa que usted puede utilizar $X_n$ para obtener arbitrariamente un buen intervalo de confianza para $X$: usted elige el ancho del intervalo, y el grado de confianza que quiere ser, y no puedo encontrar una $n$ que lo hace.

2) y 3) son equivalentes, y que ambos son equivalentes a $$\mathbb P(\lim_{n\to\infty}|X_n-X|=0)=1$$ que es "casi seguro de convergencia". El punto aquí es que el $\lim_{n\to\infty}|X_n-X|$ es un número que no depende de la $n$, por lo que si es menos de $\epsilon$ por cada $\epsilon>0$ debe ser $0$.

4) es un poco diferente. De nuevo, $\forall \epsilon>0:|X_n-X|\leq \epsilon$ es simplemente el caso de $|X_n-X|=0$, por lo que esto requiere que el $\mathbb P(X_n=X)\to 1$.

Sin duda puede tener 2)/3) 4) - $X_n$ tienden a $X$ sin nunca ser igual a ella. Pero también puede haber 4) sin 2)/3): supongamos $X_n=1$ con una probabilidad de $1/n$ $0$ lo contrario, y $X=0$. A continuación,$\mathbb P(X_n=X)\to 1$, pero casi con toda seguridad, $X_n-X=1$ infinitamente a menudo, por lo $\mathbb P(X_n\to X)=0$.

El último ejemplo anterior también se cumple 1), por lo que es un ejemplo de la convergencia en probabilidad, sin casi seguro de convergencia.

5voto

Bob Puntos 41

Sobre tu primera pregunta: básicamente la convergencia en probabilidad es el $L^1$ convergencia ignorando las altas cumbres (y aquí, usted puede elegir la altura de umbral tan pequeño como usted por favor). De hecho, la convergencia en probabilidad es equivalente a $$\forall M>0, \int(|X_n-X|\land M ) d\mathbb{P}\rightarrow0, n\rightarrow\infty$$ y también a $$\exists M>0, \int(|X_n-X|\land M ) d\mathbb{P}\rightarrow0, n\rightarrow\infty,$$ donde $a\land b:=\min(a,b)$.

Para simplificar la notación en orden a comprobar la denuncia, vamos a definir $Y_n:=|X_n-X|$. Lo que tenemos que demostrar es, pues, la equivalencia entre:

  1. $\forall\varepsilon>0, \mathbb{P}(Y_n>\varepsilon)\rightarrow0, n\rightarrow0$;
  2. $\forall M>0, \int(Y_n\land M ) d\mathbb{P}\rightarrow0, n\rightarrow\infty$;
  3. $\exists M>0, \int(Y_n\land M ) d\mathbb{P}\rightarrow0, n\rightarrow\infty$;

Que 1) implica 2) es una simple consecuencia del hecho de que 1) implica que para todos los $M>0$ la secuencia de $(Y_n\land M)_{n\in\mathbb{N}}$ converge en probabilidad a cero y por lo tanto, por la variante del teorema de convergencia dominada con la convergencia en probabilidad de que toma el lugar de la una.s. convergencia, obtenemos 2).

El hecho de que 2) implica 3) es evidente.

Ahora, supongamos 3). Supongamos que para obtener una contradicción que 1) no tiene. Entonces existe $0<\varepsilon <M$ existe $\delta>0$ y existe una estrictamente creciente secuencia de enteros positivos $(n_k)_{k\in\mathbb{N}}$ tal que $$\forall k\in\mathbb{N}, \mathbb{P}(Y_{n_k}>\varepsilon)\ge\delta.$$ A continuación, $$\forall k\in\mathbb{N}, \delta\le\mathbb{P}(Y_{n_k}>\varepsilon)\le\mathbb{P}(Y_{n_k}-(Y_{n_k}\land M)>\frac{\varepsilon}{2})+\mathbb{P}(Y_{n_k}\land M>\frac{\varepsilon}{2})\\\le\mathbb{P}(\{Y_{n_k}-(Y_{n_k}\land M)>\frac{\varepsilon}{2}\}\cap\{Y_{n_k}\ge M\})+\mathbb{P}(\{Y_{n_k}-(Y_{n_k}\land M)>\frac{\varepsilon}{2}\}\cap\{Y_{n_k}< M\})+\mathbb{P}(Y_{n_k}\land M>\frac{\varepsilon}{2})\\=\mathbb{P}(Y_{n_k}>M+\frac{\varepsilon}{2})+\mathbb{P}(\emptyset)+\mathbb{P}(Y_{n_k}\land M>\frac{\varepsilon}{2})\\\le\mathbb{P}(Y_{n_k}>M+\frac{\varepsilon}{2})+\frac{2}{\varepsilon}\int Y_{n_k}\land Md\mathbb{P}.$$ Por lo $$\liminf_{k\rightarrow\infty}\mathbb{P}(Y_{n_k}>M+\frac{\varepsilon}{2})\ge\delta.$$ Entonces $$0=\lim_{k\rightarrow\infty}\int Y_{n_k}\land Md\mathbb{P}\ge\liminf_{k\rightarrow\infty}\int_{Y_{n_k}>M+\frac{\varepsilon}{2}} Y_{n_k}\land Md\mathbb{P}\\\ge\liminf_{k\rightarrow\infty}M\mathbb{P}(Y_{n_k}>M+\frac{\varepsilon}{2})\ge M\delta>0,$$ absurdo. 3) implica 1).

Sobre su segunda pregunta: la primera es equivalente a la convergencia en probabilidad, el segundo y el tercero son nada más que la convergencia es casi seguro, mientras que el cuarto es algo extraño: es estrictamente más fuertes, entonces la convergencia en probabilidad (por ejemplo, $X_n=1/n$ converge a cero en la probabilidad, pero no satisface (4)), mientras que no implica un.s. convergencia (como la máquina de escribir la secuencia de funciones se muestra) ni es implicado por una.s. convergencia (como $X_n=1/n$ de la muestra). Básicamente se dice que el conjunto donde $X_n$ $X$ son igual de crecimiento en la probabilidad de a $1$.

i-Ciencias.com

I-Ciencias es una comunidad de estudiantes y amantes de la ciencia en la que puedes resolver tus problemas y dudas.
Puedes consultar las preguntas de otros usuarios, hacer tus propias preguntas o resolver las de los demás.

Powered by:

X