3 votos

Convergencia de $\sup_{l \leq \rho \leq u} | \frac{1}{\sqrt{n}} \sum_{i=[\rho n]}^n \sum_{k=1}^i i^{-1} x_i y_k |$ en probabilidad a cero

Estoy tratando con una secuencia $\{(x_i,y_i)\}$ de variables aleatorias con media cero. Para simplicidad, podemos asumir que la secuencia es i.i.d. Definimos $Y_i := i^{-1} \sum_{k=1}^i y_k$. Me gustaría demostrar que \begin{equation} \tag{1} \label{eq:1} \sup_{l \leq \rho \leq u} \bigg| \frac{1}{\sqrt{n}} \sum_{i = [\rho n]}^n x_i Y_i \bigg| \stackrel{p}{\longrightarrow} 0 \end{equation} donde $0 < l < u < 1$ son constantes.

La prueba sería fácil si no hubiera un supremo involucrado. Podemos mostrar $$ \mathbb{E} \left[ \left( \sum_{i=[\rho n]}^n x_i Y_i \right)^2 \right] = O(\log(n / [\rho n])) = O(1) $$ y así $\frac{1}{\sqrt{n}} \sum_{i = [\rho n]}^n x_i Y_i \stackrel{p}{\longrightarrow} 0$ por la desigualdad de Markov.

No puedo demostrar \eqref{eq:1} cuando se involucra el supremo. Tenemos \begin{align*} \mathbb{P} \left( \sup_{l \leq \rho \leq u} \bigg| \frac{1}{\sqrt{n}} \sum_{i = [\rho n]}^n x_i Y_i \bigg| > \epsilon \right) &\leq \sum_{R = [ln]}^{[un]} \mathbb{P} \left( \bigg| \frac{1}{\sqrt{n}} \sum_{i = R}^n x_i Y_i \bigg| > \epsilon \right) \\ &\leq \epsilon^{-2} n^{-1} \sum_{R = [ln]}^{[un]} \log(n/R) \end{align*} y solo podemos concluir que el término más a la derecha está acotado. Parece que la primera desigualdad usa una cota que es demasiado grande.

¿Alguien puede sugerir si es posible establecer \eqref{eq:1}? ¿Quizás usando algunas otras desigualdades?

¡Gracias!

2voto

Iosif Pinelis Puntos 24742

$\newcommand{\E}{\operatorname{\mathsf E}} \newcommand{\Var}{\operatorname{\mathsf Var}} \renewcommand{\P}{\operatorname{\mathsf P}}$

Al observar el cálculo del segundo momento en la declaración de la pregunta, parece que se asumió implícitamente allí que $\E x_1^2+\E y_1^2+\E x_1^2y_1^2 <\infty$, lo cual asumimos también. Luego vamos a mostrar algo más de lo que se pidió: para cualquier secuencia $(b_n)$ de números reales tal que $b_n/\ln n\to\infty$, \begin{equation*} \tag{0} \frac1{b_n}\,\max_{1\le r\le n} |S_r| \stackrel{P}{\longrightarrow} 0 \end{equation*} a medida que $n\to\infty$, donde \begin{equation*}\tag{1} S_r:=\sum_{i = 1}^r x_i Y_i=T_r+U_r,\quad T_r:=\sum_{i = 1}^r \frac{x_i}i\,y_i ,\quad U_r:=\sum_{i = 1}^r \frac{x_i}i\,Z_i, \quad Z_i:=\sum_{k=1}^{i-1} y_k. \end{equation*} Tenemos \begin{equation*}\tag{2} \max_{1\le r\le n}\E|T_r|\ll\sum_{i = 1}^n \frac1i\ll\ln n=o(b_n). \end{equation*} Además, por la desigualdad martingala de Doob,
\begin{equation*} \E\max_{1\le r\le n}(T_r-\E T_r)^2\le2\Var T_n\ll\sum_{i = 1}^n \frac1{i^2}\ll1=o(b_n^2). \end{equation*} Entonces, por (2) e la desigualdad de Markov, \begin{equation*} \tag{3} \frac1{b_n}\,\max_{1\le r\le n} |T_r| \stackrel{P}{\longrightarrow} 0.

Siguiente, \begin{multline*} \E U_n^2=\sum_{1\le k El punto clave de esta respuesta es que $(U_r)$ es una martingala. Por lo tanto, nuevamente por la desigualdad martingala de Doob tenemos
\begin{equation*} \E\max_{1\le r\le n}U_r^2\le2\E U_n^2\ll\ln n=o(b_n^2). Entonces, nuevamente por la desigualdad de Markov, \begin{equation*} \tag{4} \frac1{b_n}\,\max_{1\le r\le n} |U_r| \stackrel{P}{\longrightarrow} 0.

Ahora (0) sigue de (1), (3), (4).

i-Ciencias.com

I-Ciencias es una comunidad de estudiantes y amantes de la ciencia en la que puedes resolver tus problemas y dudas.
Puedes consultar las preguntas de otros usuarios, hacer tus propias preguntas o resolver las de los demás.

Powered by:

X