6 votos

Una Convergencia Resultado Conjetura

Cuando estaba haciendo mi propia investigación, estoy tentado a probar la siguiente declaración.

Supongamos $\{a_n\}$ $\{b_n\}$ son secuencias de números reales tales que $\frac{1}{n}\sum_{i = 1}^n a_ib_i \to G \neq 0$. $f$ es un continuo y limitado de la función en $\mathbb{R}^1$. Fix $x_0 \in \mathbb{R}^1$, luego $$\frac{1}{n}\sum_{i = 1}^n a_ib_i\int_0^1\left[f(x_0) - f\left(x_0 + sn^{-1/2}b_i\right)\right]ds \to 0 \tag{1}$$ como $n \to \infty$. PS: Si es necesario, también se puede asumir $\max_{1 \leq i \leq n}|b_i| = O(n^{1/4})$.

Me inclino a creer que esto es cierto y pasó algún tiempo para probarlo. Sin embargo, la dificultad viene cuando traté de obligado el lado izquierdo de $(1)$ por el triángulo la desigualdad, a pesar de la integral es controlado por arbitrariamente pequeño número positivo, el valor absoluto se impone también en $a_ib_i$, lo que hace que se dificulta la aplicación de la no-absoluta-condición de valor de $\frac{1}{n}\sum_{i = 1}^n a_ib_i \to G$ (nota: no se dispone de ninguna información sobre si los sumandos son positivos o negativos.). Alguien puede darme una prueba clara de $(1)$ si es cierto? O la construcción de un contador de ejemplo para derrocarlo?


Edit: estoy feliz de ver a esta pregunta se vuelve mucho la atención. De hecho, el fondo de este problema viene de algunos teóricos de la prueba en virtud de regresión cuantil configuración. La anterior conjetura es mi propia abstracción. La cosa de la que me siento confuso están las pruebas de algunas publicaciones. Los detalles que faltan parece difícil de arreglar. En la siguiente, voy a enumerar los originales de las declaraciones de algunos documentos:

Por ejemplo, en la prueba de Gutenbrunnner, Jureckova (1992), Lema $1$, la autora afirma directamente (he simplificado el caso de homoscedstic caso para que $\sigma_{ni} \equiv 1$):

\begin{align*} \sup_{\|t\| \leq K, \varepsilon \leq \alpha \leq 1 - \varepsilon} & \left\|\frac{1}{n}\sum_{i = 1}^n x_{ni}x_{ni}'t\int_0^1\left[f\left(F^{-1}(\alpha) + n^{-1/2}x_{ni}'t\right) - f(F^{-1}(\alpha))\right]ds\right\| = o(1). \tag{2} \end{align*}

Bajo los supuestos de:

  • $f$ es el continuo de la densidad de algunas de función de distribución de $F$, que es positivo y finito en $\{t: 0 < F(t) <1\}$.

  • $x_{ni}$ son filas de una $n \times p$ diseño de la matriz de $X_n$ donde $p$ es fijo y $n \to \infty$. La primera columna de $X_n$ se compone de los unos y los otros las columnas son ortogonales a la primera.

  • $\|X_n\|_\infty = o(n^{1/2})$.

  • $Q_n = \frac{1}{n}X_n^TX_n \to Q$ donde $Q$ es positiva definida $p \times p$ matriz.

Creo $(2)$ $(1)$ tienen cierta semejanza, de modo que si $(1)$ no fuese así, podría $(2)$ ser verdad? El problema $(2)$ puede ser incluso un poco más difícil ya que para los que en realidad estamos tratando con la convergencia de una secuencia de matrices.

Otro, incluso más ambicioso de la reclamación es el Lema A. 2 de Koenker, Zhao (1996), que establece, la instrucción y la prueba tiene muchos errores tipográficos confusos, aquí se me presentó la versión corregida):

Si $\{g_t\}$ $\{H_t\}$ son secuencias de random $p$-vectores tales que $E\|g_t\|^{2 + \delta} \leq S < \infty$, $E\|H_t\|^{2 + \delta} \leq S < \infty$ para algunos $\delta > 0$. $\{u_t\}$ es una secuencia de yo.yo.d. variables aleatorias con continua y acotada de la densidad $f$. $g_t$ y $H_t$ son independientes de $(u_t, u_{t - 1}, \ldots)$ y $$n^{-1}\sum_{t = 1}^n g_tH_t' \to_P G$$ para un aleatoria, nonsingular de la matriz. A continuación, $$V(\Delta) = n^{-1/2}\sum_{t = 1}^n g_t\psi_\tau(u_t - F^{-1}(\tau) - n^{-1/2}H_t'\Delta)$$ satisface $$\sup_{\|\Delta\| \leq M} \|V(\Delta) - V(0) + f(F^{-1}(\tau))G\Delta\| = o_P(1)$$ para fija $M$, $0 < M < \infty$. Aquí $\psi_\tau(x) = \tau - I(x < 0)$, $\tau \in (0, 1)$, $I$ es función del indicador.

El último paso para completar la prueba de este lema se convierte en un reclamo similar como $(1)$$(2)$, que es

$$\sup_{\|\Delta\| \leq M}\left\|n^{-1/2}\sum_{1}^n g_t(F(F^{-1}(\tau)) - F(F^{-1}(\tau) + n^{-1/2}H_t'\Delta)) + f(F^{-1}(\tau))G\Delta\right\| = o_P(1). \tag{3}$$

$(3)$ aplica en el caso de la siguiente forma como $(1)$ $$\sup_{\|\Delta\| \leq M}\left\|n^{-1}\sum_{1}^n g_tH_t'\Delta\int_0^1\left[f(F^{-1}(\tau)) - f(F^{-1}(\tau) + sn^{-1/2}H_t'\Delta)\right]ds\right\| = o_P(1) \tag{4}$$ sostiene. Pero para demostrar $(4)$, se encuentra, probablemente, el mismo problema que debe manejar en la demostración de $(1)$, por lo que si $(1)$ estaban equivocados, sería $(4)$ ser verdad?

Por supuesto, también es muy bienvenido, si alguien puede proporcionarme una prueba directa de $(2)$ $(3)$ (sin vinculación a las $(1)$).

1voto

Gregory Hill Puntos 51

La afirmación es falsa, incluso con una estricta restricción $|b_n|=O(n^{\alpha})$ donde $\alpha$ es un número real arbitrario(posiblemente negativo). El punto es:

Construir una secuencia $\{a_i b_i\}$ con grandes términos y pequeñas cantidades (por la alternancia de sgn).

Me he quedado atascado con esto por un tiempo, pero la construcción de Olivier Oloa en los comentarios me recordó. Puede que lo tome $a_n b_n=n^{1-\epsilon}$ al $n$ es impar y $a_n b_n=1-(n-1)^{1-\epsilon}$ al $n$ es incluso. Es fácil comprobar la $\frac{1}{n}\sum_{i=1}^n a_i b_i=\frac{1}{2}+O(n^{-\epsilon})$.
Set $f(x)=(x-x_0)^{\beta}$ donde $\beta$ es elegido para hacer la $f$ bien definido en $\mathbb{R}$. Entonces $$\begin{align} & \frac{1}{n}\sum_{i=1}^n a_i b_i\int_0^1\left[f(x_0)-f(x_0+sn^{-1/2}b_i)\right]ds\\ = & -\frac{1}{n}\sum_{i=1}^n\frac{1}{1+\beta} a_i b_i^{1+\beta}n^{-\beta/2} \end{align}$$ Tome $b_n=(-1)^n \cdot n^\alpha$. A continuación, $a_n$ se define desde $a_nb_n$ se define más arriba. Ahora tome $\beta=1/(2k+1),k\in\mathbb{N_+}$. Vemos $$a_n b_n^{1+\beta}=a_n b_n\cdot b_n^\beta=-n^{1-\epsilon}\cdot n^{\alpha\beta}+O(n^{\alpha\beta})$$ Tenga en cuenta que la alternancia de signo fue cancelado a través de la multiplicación por $b_n^\beta$.
Llegamos a la conclusión de que $$\begin{align} & \frac{1}{n}\sum_{i=1}^n a_i b_i\int_0^1\left[f(x_0)-f(x_0+sn^{-1/2}b_i)\right]ds\\ = & \left(\frac{1}{n(1+\beta)}\sum_{i=1}^n n^{1-\epsilon}\cdot n^{(\alpha-1/2)\beta}\right)+O(n^{(\alpha-1/2)\beta-1})\\ \geq & Cn^{1-\epsilon}\cdot n^{(\alpha-1/2)\beta}+O(n^{(\alpha-1/2)\beta-1}) \end{align}$$ Deje $k\to\infty$, lo $\beta\to 0$. Para $\epsilon$ lo suficientemente pequeño de la expresión anterior tiende a infinito.

0voto

Nobody Puntos 333

(Edit: yo inventé la mayor parte de esta última de la noche cuando el OP no tiene la restricción $\max_{1 \leq i \leq n}|b_i| = O(n^{1/4})$. Lo dejo aquí porque es demasiado grande para un comentario y porque es posible (?) ayudar a alguien con OP buena pregunta.)

Aquí está un ejemplo contrario.

Tome $f(x)=-x\sin(1/x)$ si $x\ne 0$, $f(0)=0$. Tomar $x_0=0$, $a_i=1/\sqrt{k}$, $b_k=\sqrt{k}$. A continuación,$G=1$. A continuación, observe que esto depende de (dejando $u=\sqrt{\frac{n}{k}}\frac{1}{s}$) $$-\frac{1}{n}\sum{\sqrt{\frac{n}{k}}}\int_{\sqrt{n/k}}^{\infty}u^{-3}\sin(u)\,du=-\sum{\sqrt{\frac{1}{nk}}}\int_{\sqrt{n/k}}^{\infty}u^{-3}\sin(u)\,du$$ Integrating by parts twice, it's clear that $$\frac{\sqrt{k/n} \sin \left(\sqrt{\frac{n}{k}}\right)}{2 n}+\frac{\cos \left(\sqrt{\frac{n}{k}}\right)}{2 n}\le-\sqrt{{\frac{1}{nk}}}\int_{\sqrt{n/k}}^{\infty}u^{-3}\sin(u)\,du$$

A continuación, $$\frac{1}{2}\lim_{n\to\infty}\frac{1}{n}\sum_{k=1}^{n}\left({\sqrt{\frac{k}{n}} \sin \left(\sqrt{\frac{n}{k}}\right)}+\cos \left(\sqrt{\frac{n}{k}}\right)\right)$$

es una Suma de Riemann con valor de $$0\ne\frac{1}{2}\int_{0}^{1}x\sin(1/x)+\cos(1/x)\,dx\ldotp$$

i-Ciencias.com

I-Ciencias es una comunidad de estudiantes y amantes de la ciencia en la que puedes resolver tus problemas y dudas.
Puedes consultar las preguntas de otros usuarios, hacer tus propias preguntas o resolver las de los demás.

Powered by:

X