Loading [MathJax]/jax/element/mml/optable/BasicLatin.js

7 votos

la convergencia de los máximos de una serie de idénticamente distribuidas variables

Mi amigo y yo hemos sido ni idea de este problema por un rato y pensé en pedir consejos podía herir (nos hizo preguntar al profesor, pero tenemos otros problemas después)

Aquí está la pregunta :

Deje {Xn}n1 ser una secuencia de variables aleatorias definidas sobre el mismo espacio de probabilidad (Ω,F,P) con la misma ley de finito valor esperado (E(|X_1|)<\infty ). Vamos

Yn=n1max.

Mostrar que

\lim_{n\rightarrow \infty} E(Y_n) = 0

y

Y_n \rightarrow 0 casi seguramente.

Tenemos ideas de muchas partes de la prueba, por ejemplo, para la primera de ellas sería suficiente para demostrar que el valor esperado de la máxima de todas las |X_i| es finito... y ya que el max es una de las |X_i| por cada \omega \in \Omega parece razonable, pero no estamos seguros de cómo mostrar.

También hemos intentado dividir la integral para el valor esperado en una partición de \Omega considerando los conjuntos de X_i es el máximo, pero no ir demasiado lejos con eso.

Para la segunda parte, creo que podría mostrar que si sabíamos que X_i(\omega) diverge para sólo una medida de 0, pero no es obvio que (creo).

Los punteros a la derecha en dirección apreciado!

48voto

Did Puntos 1

Suponer sin pérdida de generalidad que X_1 es casi seguramente no negativo.

Casi seguro de convergencia

Esto es una consecuencia de la primera Borel-Cantelli lema. Para ver esto, arreglar cualquier positivos x. A continuación, P(X_n\ge nx)=P(X_1\ge nx) por cada n y \sum_{n\ge1}P(X_1,\ge nx)\le x^{-1}E(X_1), por lo tanto la serie de término general P(X_n\ge nx) converge. Por la primera Borel-Cantelli lema, el limsup de los eventos [X_n\ge nx] probabilidad de 0. Esto significa que X_n<nx por cada n bastante grande y se puede traducir como X_n\le Z+nx por cada n, casi seguramente finito Z. Por lo tanto nY_n\le Z+nx por cada n, e \limsup Y_n\le x casi seguramente. Esto es válido para cada positivos x, por lo tanto Y_n\to0 casi seguramente.

La convergencia de las expectativas

Dos ingredientes son útiles aquí: el hecho de que, para todos no negativos Z, E(Z) es la integral de la función de x\mapsto P(Z\ge x)x\ge0, y el hecho de que si nY_n\ge x, X_k\ge x durante al menos un enterok1n, por lo tanto P(nY_n\ge x)\le nP(X_1\ge x).

Gracias a que el primer ingrediente, E(Y_n) es la integral de la g_ng_n(x)=P(nY_n\ge x)/n. Gracias a el segundo ingrediente, g_n(x)\le P(X_1\ge x)=g_1(x). Ahora, g_n(x)\le1/n por lo tanto g_n(x)\to0, y desde E(X_1) es finito, g_1 es integrable. Dominado por la convergencia, la integral de g_n converge a0, E(Y_n)\to0.

Observación no decir donde se encuentra el ejercicio, sino que su origen es ser felicitados porque mucha gente agrega la hipótesis de que la secuencia de (X_n) es independiente aunque no es necesario.

Añadió más tarde en El límite superior de una serie por x^{-1}E(X_1) utilizado anteriormente puede ser demostrado de la siguiente manera. La primera asume que el x=1 y tenga en cuenta que para cualquier positivo Z (aleatorio o determinista), \sum_{n\ge1}\mathbf{1}_{Z\ge n}=\lfloor Z\rfloor\le Z, donde \lfloor \ \rfloor denota la parte entera. La integración de ambos lados de la desigualdad con respecto a P rendimientos, para cualquier variable aleatoria no negativa Z, \sum_{n\ge1}P(Z\ge n)=E(\lfloor Z\rfloor)\le E(Z). Para el caso que nos ocupa, de aplicar esta desigualdad a la variable aleatoria Z=x^{-1}X_1, el uso de \sum_{n\ge1}\mathbf{1}_{X_1\ge nx}=\lfloor x^{-1}X_1\rfloor\le x^{-1}X_1.

19voto

Reto Meier Puntos 55904

Nota primero que E \max_{i \ge 0} |X_i| (uno realmente debería escribir \sup en lugar de \max) no necesitan ser finito. En efecto, si el X_i son, digamos, iid normal, entonces se puede demostrar que \sup_{i \ge 0} |X_i| = +\infty casi seguramente.

Para obtener L^1 convergencia, el truco es dividir en los eventos donde el X_i son pequeños y cuando son grandes. Cuando son pequeños, que no contribuyen mucho a Y_n, y pueden ser grandes sólo con probabilidad pequeña. Por lo tanto, fijar M y dejar U_i = |X_i| 1_{\{|X_i| \le M\}}, V_i = |X_i| 1_{\{|X_i| > M\}}. A continuación,Y_n \le \frac{1}{n} (\max_{i \le n} U_i + \max_{i \le n} V_i). El primer término está delimitado por M, y el segundo por V_1 + \dots + V_n. Teniendo expectativas, E Y_n \le \frac{M}{n} + E V_1, lo \limsup_{n \to \infty} E Y_n \le E V_1. Eligiendo M lo suficientemente grande, E V_1 puede hacerse tan pequeña como se desee (creo dominado convergencia).

Para casi seguro de convergencia, el argumento de que fue aquí anteriormente estaba equivocado.

i-Ciencias.com

I-Ciencias es una comunidad de estudiantes y amantes de la ciencia en la que puedes resolver tus problemas y dudas.
Puedes consultar las preguntas de otros usuarios, hacer tus propias preguntas o resolver las de los demás.

Powered by:

X