7 votos

la convergencia de los máximos de una serie de idénticamente distribuidas variables

Mi amigo y yo hemos sido ni idea de este problema por un rato y pensé en pedir consejos podía herir (nos hizo preguntar al profesor, pero tenemos otros problemas después)

Aquí está la pregunta :

Deje $\{X_n\}_{n \geq 1}$ ser una secuencia de variables aleatorias definidas sobre el mismo espacio de probabilidad $(\Omega, F, \mathbb{P})$ con la misma ley de finito valor esperado (E(|X_1|)<\infty ). Vamos

$Y_n = n^{-1} \max_{1 \leq i \leq n} |X_i|$.

Mostrar que

$\lim_{n\rightarrow \infty} E(Y_n) = 0$

y

$Y_n \rightarrow 0$ casi seguramente.

Tenemos ideas de muchas partes de la prueba, por ejemplo, para la primera de ellas sería suficiente para demostrar que el valor esperado de la máxima de todas las $|X_i|$ es finito... y ya que el max es una de las $|X_i|$ por cada $\omega \in \Omega$ parece razonable, pero no estamos seguros de cómo mostrar.

También hemos intentado dividir la integral para el valor esperado en una partición de $\Omega$ considerando los conjuntos de $X_i$ es el máximo, pero no ir demasiado lejos con eso.

Para la segunda parte, creo que podría mostrar que si sabíamos que $X_i(\omega)$ diverge para sólo una medida de 0, pero no es obvio que (creo).

Los punteros a la derecha en dirección apreciado!

48voto

Did Puntos 1

Suponer sin pérdida de generalidad que $X_1$ es casi seguramente no negativo.

Casi seguro de convergencia

Esto es una consecuencia de la primera Borel-Cantelli lema. Para ver esto, arreglar cualquier positivos $x$. A continuación, $P(X_n\ge nx)=P(X_1\ge nx)$ por cada $n$ y $$\sum_{n\ge1}P(X_1,\ge nx)\le x^{-1}E(X_1), $$ por lo tanto la serie de término general $P(X_n\ge nx)$ converge. Por la primera Borel-Cantelli lema, el limsup de los eventos $[X_n\ge nx]$ probabilidad de $0$. Esto significa que $X_n<nx$ por cada $n$ bastante grande y se puede traducir como $X_n\le Z+nx$ por cada $n$, casi seguramente finito $Z$. Por lo tanto $nY_n\le Z+nx$ por cada $n$, e $\limsup Y_n\le x$ casi seguramente. Esto es válido para cada positivos $x$, por lo tanto $Y_n\to0$ casi seguramente.

La convergencia de las expectativas

Dos ingredientes son útiles aquí: el hecho de que, para todos no negativos $Z$, $E(Z)$ es la integral de la función de $x\mapsto P(Z\ge x)$$x\ge0$, y el hecho de que si $nY_n\ge x$, $X_k\ge x$ durante al menos un entero$k$$1$$n$, por lo tanto $P(nY_n\ge x)\le nP(X_1\ge x)$.

Gracias a que el primer ingrediente, $E(Y_n)$ es la integral de la $g_n$$g_n(x)=P(nY_n\ge x)/n$. Gracias a el segundo ingrediente, $g_n(x)\le P(X_1\ge x)=g_1(x)$. Ahora, $g_n(x)\le1/n$ por lo tanto $g_n(x)\to0$, y desde $E(X_1)$ es finito, $g_1$ es integrable. Dominado por la convergencia, la integral de $g_n$ converge a$0$, $E(Y_n)\to0$.

Observación no decir donde se encuentra el ejercicio, sino que su origen es ser felicitados porque mucha gente agrega la hipótesis de que la secuencia de $(X_n)$ es independiente aunque no es necesario.

Añadió más tarde en El límite superior de una serie por $x^{-1}E(X_1)$ utilizado anteriormente puede ser demostrado de la siguiente manera. La primera asume que el $x=1$ y tenga en cuenta que para cualquier positivo $Z$ (aleatorio o determinista), $$ \sum_{n\ge1}\mathbf{1}_{Z\ge n}=\lfloor Z\rfloor\le Z, $$ donde $\lfloor \ \rfloor$ denota la parte entera. La integración de ambos lados de la desigualdad con respecto a $P$ rendimientos, para cualquier variable aleatoria no negativa $Z$, $$ \sum_{n\ge1}P(Z\ge n)=E(\lfloor Z\rfloor)\le E(Z). $$ Para el caso que nos ocupa, de aplicar esta desigualdad a la variable aleatoria $Z=x^{-1}X_1$, el uso de $$ \sum_{n\ge1}\mathbf{1}_{X_1\ge nx}=\lfloor x^{-1}X_1\rfloor\le x^{-1}X_1. $$

19voto

Reto Meier Puntos 55904

Nota primero que $E \max_{i \ge 0} |X_i|$ (uno realmente debería escribir $\sup$ en lugar de $\max$) no necesitan ser finito. En efecto, si el $X_i$ son, digamos, iid normal, entonces se puede demostrar que $\sup_{i \ge 0} |X_i| = +\infty$ casi seguramente.

Para obtener $L^1$ convergencia, el truco es dividir en los eventos donde el $X_i$ son pequeños y cuando son grandes. Cuando son pequeños, que no contribuyen mucho a $Y_n$, y pueden ser grandes sólo con probabilidad pequeña. Por lo tanto, fijar $M$ y dejar $U_i = |X_i| 1_{\{|X_i| \le M\}}$, $V_i = |X_i| 1_{\{|X_i| > M\}}$. A continuación,$Y_n \le \frac{1}{n} (\max_{i \le n} U_i + \max_{i \le n} V_i)$. El primer término está delimitado por $M$, y el segundo por $V_1 + \dots + V_n$. Teniendo expectativas, $E Y_n \le \frac{M}{n} + E V_1$, lo $\limsup_{n \to \infty} E Y_n \le E V_1$. Eligiendo $M$ lo suficientemente grande, $E V_1$ puede hacerse tan pequeña como se desee (creo dominado convergencia).

Para casi seguro de convergencia, el argumento de que fue aquí anteriormente estaba equivocado.

i-Ciencias.com

I-Ciencias es una comunidad de estudiantes y amantes de la ciencia en la que puedes resolver tus problemas y dudas.
Puedes consultar las preguntas de otros usuarios, hacer tus propias preguntas o resolver las de los demás.

Powered by:

X