5 votos

Prueba de la convergencia en la distribución con momento no limitado

He publicado la pregunta aquí pero nadie ha dado una respuesta, así que espero poder obtener una respuesta aquí. Muchas gracias.

Demostrar que dado $\{X_n\}$ siendo una secuencia de v.r. iid con densidad $|x|^{-3}$ en el exterior $(-1,1)$ lo siguiente es cierto: $$ \frac{X_1+X_2 + \dots +X_n}{\sqrt{n\log n}} \xrightarrow{\mathcal{D}}N(0,1). $$

El puesto original tiene un 2 en la raíz cuadrada del denominador. No debería haber un 2.

0 votos

Ahora lo veo. Si se truncan las variables aleatorias en $n$ entonces la varianza de cada uno va a ser $2 \log n$ por lo que la varianza de la suma de estas variables aleatorias truncadas sería $2 n \log n$ el cuadrado del denominador en tu expresión. Así que creo que necesitas aplicar un teorema para sumas de variables aleatorias truncadas $Y = X 1(|X| < n)$ .

0 votos

Dejar $T$ sea la suma de las variables aleatorias truncadas. Entonces, si puedes demostrar que la suma truncada converge a la normal, y también demostrar que $S -T$ converge en probabilidad a 0, entonces el resultado se seguiría por el teorema de Slutskys

0 votos

Si lo hice bien, la función característica de la densidad se reduciría a $2\int_1^\infty \cos(tx)/x^3 dx$ y entonces se podría utilizar el resultado ${\displaystyle \int {\frac {\cos ax}{x^{n}}}\,dx=-{\frac {\cos ax}{(n-1)x^{n-1}}}-{\frac {a}{n-1}}\int {\frac {\sin ax}{x^{n-1}}}\,dx\: {\mbox{(for }}n\neq 1),}$ . Con una f.c. manejable y el hecho de que la f.c. de la suma de rvs independientes es el producto de las f.c., es posible que se pueda expandir en una serie y demostrar que los términos de orden superior llegan a 0.

3voto

Steve Puntos 212

En primer lugar, defina $Y_{k,n} = X_k 1\{ |X_k| \leq n \}$ . Entonces es fácil ver que $Var(Y_{k,n}) = 2 \log n$ y que

$$Var (T_n ) = Var \left( \sum_{k=1}^n Y_{k,n} \right) = 2n \log n$$

Dejar $S_n = \sum_{k=1}^n X_k$ también vemos que

$$P(S_n \neq T_n) \leq P(\cup_k X_k \neq Y_{k,n}) \leq n P(X_k > n) = \frac{n}{2n^2} \to 0$$

Así que basta con mostrar

$$\frac{T_n}{\sqrt{2n \log n}} \to N(0,1)$$

y el resultado se sigue por el teorema de Slutsky para la suma original $S_n$ .

Esta nueva suma $T_n$ ahora tiene varianza finita por lo que podemos aplicar el teorema de Lindeberg-Feller (también llamado condición de Lindeberg).

Dejemos que $Z_{k,n} = \frac{Y_{k,n}}{\sqrt{2 n \log n}}$ . Entonces vemos que si se cumplen las dos condiciones del teorema de Lindeberg-Feller:

  1. $\sum_{k=1}^n Var(Z_{k,n}) = 1 > 0$ para todos $n$ (se mantiene trivialmente)

  2. Para todos $\epsilon > 0$ , $\sum_{k=1}^n E[|Z_{k,n}|^2 1\{ |Z_{k,n}| > \epsilon \}] \to 0$

entonces el resultado es el siguiente. Así que sólo hay que verificar la segunda condición.

Con la segunda condición hay que tener en cuenta que se puede reescribir $1\{ |Z_{k,n}| > \epsilon \}$ como

$$1\{ |Z_{k,n}| > \epsilon \} = 1\{ |Y_{k,n}| > \sqrt{n \log n }\epsilon \} = 1\{ X_k 1 \{ |X_k| \leq n \log n \} > \sqrt{n \log n }\epsilon \}$$

0 votos

Gracias por su respuesta. No hemos aprendido nada sobre el teorema de Slutsky o la condición de Lindeberg. Así que creo que esta ruta no es lo que estoy buscando. Quiero saber cómo abordarlo utilizando la función característica?

0 votos

Entonces yo seguiría el consejo de Glens. Es muy inteligente y sabe de lo que habla :)

3voto

myty Puntos 31

Se trata de una prueba por aproximación c.f:

El c.f. de $X_i$ es $$ \phi_i(t) = \int_{R}e^{itx}|x|^{-3}\boldsymbol{1}_{x \notin (-1,1)}dx = 2\int_{1}^{\infty}\frac{\cos(tx)}{x^3}dx. $$ Por lo tanto, para $Y_n = (X_1+X_2+\dots+X_n)(\sqrt{n\log n})^{-1}$ tenemos \begin{align*} \phi_{Y_n}(t) =& \phi_i\left(\frac{t}{\sqrt{n\log n}}\right)^n\\ =& \left(2\int_{1}^{\infty}\cos\left(\frac{tx}{\sqrt{n\log n}}\right)\frac{1}{x^3}dx\right)^n.\\ \end{align*} Primero consideramos la integral: \begin{align*} 2\int_{1}^{\infty}\cos\left(\frac{tx}{\sqrt{n\log n}}\right)\frac{1}{x^3}dx =& 1 + 2\int_{1}^{\infty}\cos\left(\frac{tx}{\sqrt{n\log n}}\right)\frac{1}{x^3}-\frac{1}{x^3}dx\\ =& 1 + 2\int_{1}^{\sqrt{n\log\log n}}\cos\left(\frac{tx}{\sqrt{n\log n}}\right)\frac{1}{x^3}-\frac{1}{x^3}dx \\ +& 2\int_{\sqrt{n\log\log n}}^{\infty}\cos\left(\frac{tx}{\sqrt{n\log n}}\right)\frac{1}{x^3}-\frac{1}{x^3}dx, \end{align*} ya que para $x \in [1, \sqrt{n\log\log n}]$ , ${\displaystyle \frac{tx}{\sqrt{n\log n}}} \to 0$ como $n \to \infty$ . Por lo tanto, podemos aplicar la expansión de Taylor del término del coseno en la primera integral alrededor de $0$ . Entonces tenemos \begin{align*} 2\int_{1}^{\infty}\cos\left(\frac{tx}{\sqrt{n\log n}}\right)\frac{1}{x^3}dx =& 1 + 2\int_{1}^{\sqrt{n\log\log n}}-\frac{t^2}{2n\log nx} + \left[\frac{t^4x}{24(n\log n)^2 }-\dots\right]dx \\ +& 2\int_{\sqrt{n\log\log n}}^{\infty}\cos\left(\frac{tx}{\sqrt{n\log n}}\right)\frac{1}{x^3}-\frac{1}{x^3}dx\\ =& 1 + 2\int_{1}^{\sqrt{n\log\log n}}-\frac{t^2}{2n\log nx}dx + o(1/n)\\ +& 2\int_{\sqrt{n\log\log n}}^{\infty}\cos\left(\frac{tx}{\sqrt{n\log n}}\right)\frac{1}{x^3}-\frac{1}{x^3}dx\\ =& 1 -\frac{t^2\log( n\log\log n)}{2n\log n} + o(1/n)\\ +& 2\int_{\sqrt{n\log\log n}}^{\infty}\cos\left(\frac{tx}{\sqrt{n\log n}}\right)\frac{1}{x^3}-\frac{1}{x^3}dx\\ \end{align*} Ahora \begin{align*} \int_{\sqrt{n\log\log n}}^{\infty}|\cos\left(\frac{tx}{\sqrt{n\log n}}\right)\frac{1}{x^3}-\frac{1}{x^3}|dx \leq& \int_{\sqrt{n\log\log n}}^{\infty}\frac{2}{x^3}dx\\ =& \frac{1}{n\log\log n} \in o(1/n). \end{align*} Por lo tanto, $$ 2\int_{1}^{\infty}\cos\left(\frac{tx}{\sqrt{n\log n}}\right)\frac{1}{x^3}dx = 1 -\frac{t^2\log( n\log\log n)}{2n\log n} + o(1/n). $$ Dejemos que $n \to \infty$ tenemos $$ \lim_{n \to \infty}\left(2\int_{1}^{\infty}\cos\left(\frac{tx}{\sqrt{n\log n}}\right)\frac{1}{x^3}dx\right)^n = \lim_{n \to \infty}\left(1 -\frac{t^2\log( n\log\log n)}{2n\log n}\right)^n = \lim_{n \to \infty}\left(1-\frac{t^2}{2n}\right)^n = e^{-t^2/2}, $$

lo que completa la prueba.

0voto

Aaron Puntos 36

Para ver si esto nos lleva a algún sitio útil, voy a seguir un poco las líneas sugeridas por Glen_b en los comentarios. La función característica de las variables aleatorias subyacentes es:

$$\begin{equation} \begin{aligned} \varphi_X(t) = \mathbb{E}(\exp(itX)) &= \int \limits_{\mathbb{R}} \exp(itx) f_X(x) dx \\[6pt] &= \int \limits_{\mathbb{R}-(-1,1)} |x|^{-3} \exp(itx) dx \\[6pt] &= \int \limits_{\mathbb{R}-(-1,1)} |x|^{-3} \cos(tx) dx + i \int \limits_{\mathbb{R}-(-1,1)} |x|^{-3} \sin(tx) dx \\[6pt] &= \int \limits_{\mathbb{R}-(-1,1)} |x|^{-3} \cos(tx) dx \\[6pt] &= - \int \limits_{-\infty}^{-1} \frac{\cos(tx)}{x^3} dx + \int \limits_1^\infty \frac{\cos(tx)}{x^3} dx \\[6pt] &= 2 \int \limits_1^\infty \frac{\cos(|t|x)}{x^3} dx. \\[6pt] \end{aligned} \end{equation}$$

Ahora, utilizando el cambio de variable $y = x^{-2}$ tenemos $dy = -2 x^{-3} dx$ que da:

$$\begin{equation} \begin{aligned} \varphi_X(t) &= \int \limits_0^1 \cos \Big( \frac{|t|}{\sqrt{y}} \Big) dy. \\[6pt] \end{aligned} \end{equation}$$

Podemos ver que la función característica es simétrica alrededor de $t=0$ . Por lo tanto, sin pérdida de información podemos tomar $t>0$ y escribirlo en términos más sencillos como

$$\varphi_X(t) = \int \limits_0^1 \cos \Big( \frac{t}{\sqrt{y}} \Big) dy.$$


El límite requerido: Ahora definimos las sumas parciales:

$$S_n = \frac{X_1 + \cdots + X_n}{\sqrt{2n \log n}}.$$

Utilizando las reglas de las funciones características tenemos entonces:

$$\varphi_{S_n}(t) = \varphi_X \Bigg( \frac{t}{\sqrt{2n \log n}} \Bigg)^n = \Bigg[ \int \limits_0^1 \cos \Bigg( \frac{t}{\sqrt{2n}} \cdot \frac{1}{\sqrt{y \log n}} \Bigg) dy \Bigg]^n.$$

Para demostrar el resultado de convergencia tenemos que demostrar que $\lim_{n \rightarrow \infty} \varphi_{S_n}(t) = \exp( - t^2/2 )$ . Utilizando La expansión de Bernoulli para $e$ bastaría con demostrar que como $n$ se hace grande tenemos:

$$\int \limits_0^1 \cos \Bigg( \frac{t}{\sqrt{2n}} \cdot \frac{1}{\sqrt{y \log n}} \Bigg) dy \longrightarrow 1 - \frac{t^2}{2n}.$$

No voy a ir más allá de esto por ahora. No me queda claro si este resultado se mantiene, o cómo lo demostrarías, pero al menos esto te lleva a un posible camino hacia una solución. Para probar este límite, tendrías que encontrar alguna expansión útil del integrando que asegure que los términos de orden superior desaparecen en la integral como $n \rightarrow \infty$ .

0 votos

Gracias por tu sugerencia. Estos son los pasos exactos que he dado. Pero me quedé atascado en probar la última línea que escribiste durante 3 días. ¿Cómo llegas a la conclusión de que los términos de orden superior en la expansión pueden ser ignorados? Todos los términos de orden superior divergen debido a la integral impropia que va sin límites.

0 votos

En mi respuesta no he intentado expandir el integrando en una serie de potencias, así que no hay términos de orden superior por el momento. Si se sigue esta línea de ataque, supongo que va a requerir que se encuentre una expansión del integrando donde los términos de orden superior están utilizando potencias inversas de $x$ para que se desvanezcan en lugar de divergir. Una expansión estándar de Taylor no hace esto, así que vas a tener que buscar otras formas de expandirla. Como dije, no estoy seguro de cómo hacer esto.

0 votos

@David Leigh: He hecho un nuevo cambio en la forma de la función característica que podría facilitar la expansión a una forma con términos de orden superior que desaparecen. Por favor, echa un vistazo a la respuesta actualizada y mira si esto ayuda.

0voto

user164061 Puntos 281

Cuando empecé a leer esta pregunta estaba un poco confundido. Este factor $\sqrt{n\log n}$ no es intuitivo para mí. No es la expresión típica en el CLT.

A continuación intento ver tu pregunta de una manera más intuitiva sin recurrir a las funciones características y mirando los límites de los momentos superiores (que sería algo parecido a la prueba del CLT ). Creo que la cuestión ya está "fallando" a un nivel más simple.

La varianza de la distribución es $2$ por lo que la varianza de la suma es $2 \sqrt{n}$ . Cuando esta suma se divide por $\sqrt{n\log n}$ se obtiene una varianza de $\frac{1}{\log n}$ . Así que esto no va a ser igual a una distribución de $N(0,1)$ porque la varianza no es igual.

A menos que me esté perdiendo algo, no puedes probar la afirmación que intentas probar y toda la magia con las funciones características me parece una distracción.

i-Ciencias.com

I-Ciencias es una comunidad de estudiantes y amantes de la ciencia en la que puedes resolver tus problemas y dudas.
Puedes consultar las preguntas de otros usuarios, hacer tus propias preguntas o resolver las de los demás.

Powered by:

X