10 votos

Contraejemplo para la suficiente condición necesaria para la consistencia

Sabemos que si un estimador es un estimador insesgado de theta y si su varianza tiende a 0 como n tiende a infinito, entonces es un estimador consistente de theta. Pero esto es suficiente y no una condición necesaria. Estoy buscando un ejemplo de un estimador que es constante pero cuya varianza no tiende a 0 como n tiende al infinito. ¿Alguna sugerencia?

7voto

Jeff Bauer Puntos 236

Me alegra ver que mi (incorrecto) respuesta generada dos más, y se volvió un muerto pregunta en un animado Q&Un hilo. Entonces, es hora de intentar ofrecer algo que vale la pena, supongo).

Considerar una serie correlación, covarianza estacionaria proceso estocástico $\{y_t\},\;\; t=1,...,n$, con una media de $\mu$ y autocovariances $\{\gamma_j\},\;\; \gamma_j\equiv \operatorname{Cov}(y_t,y_{t-j})$. Suponga que $\lim_{j\rightarrow \infty}\gamma_j= 0$ (este de los límites de la "fuerza" de autocorrelación como dos realizaciones del proceso son más y más lejos en el tiempo). Entonces tenemos que

$$\bar y_n = \frac 1n\sum_{t=1}^ny_t\rightarrow_{m.s} \mu,\;\; \text{as}\; n\rightarrow \infty$$

es decir, la media de la muestra converge en media plaza para la verdadera media del proceso, y por lo tanto también converge en probabilidad: es un estimador consistente de $\mu$.

La varianza de $\bar y_n$ puede ser encontrado

$$\operatorname{Var}(\bar y_n) = \frac 1n \gamma_0+\frac 2n \sum_{j=1}^{n-1}\left(1-\frac {j}{n}\right)\gamma_j$$

que es fácil de muestra para ir a cero, como se $n$ va al infinito.

Ahora, haciendo uso de del Cardenal comentario vamos a aleatorizar más nuestro estimador de la media, teniendo en cuenta el estimador de

$$\tilde \mu_n = \bar y_n + z_n$$

donde $\{z_t\}$ es un proceso estocástico de variables aleatorias independientes que son también independientes de la $y_i$'s, tomando el valor de $at$ (parámetro $a>0$ a ser especificado por nosotros) con una probabilidad de $1/t^2$, el valor de $-at$ con una probabilidad de $1/t^2$, y cero en caso contrario. Por lo $\{z_t\}$ valor esperado y la varianza

$$E(z_t) = at\frac 1{t^2} -at\frac 1{t^2} + 0\cdot \left (1-\frac 2{t^2}\right)= 0,\;\;\operatorname{Var}(z_t) = 2a^2$$

El valor esperado y la varianza del estimador es, por tanto,

$$E(\tilde \mu) = \mu,\;\;\operatorname{Var}(\tilde \mu) = \operatorname{Var}(\bar y_n) + 2a^2$$

Considerar la distribución de probabilidad de $|z_n|$, $P\left(|z_n| \le \epsilon\right),\;\epsilon>0$: $|z_n|$ toma el valor de $0$ con una probabilidad de $(1-2/n^2)$ y el valor de $an$ con una probabilidad de $2/n^2$. Así

$$P\left(|z_n| <\epsilon\right) \ge 1-2/n^2 = \lim_{n\rightarrow \infty}P\left(|z_n| < \epsilon\right) \ge 1 = 1$$

lo que significa que $z_n$ converge en probabilidad a $0$ (mientras que su varianza permanece finita). Por lo tanto

$$\operatorname{plim}\tilde \mu_n = \operatorname{plim}\bar y_n+\operatorname{plim} z_n = \mu$$

para este estudio aleatorizado estimador de la media del valor de la $y$-proceso estocástico sigue siendo coherente. Pero su varianza no vaya a cero, como se $n$ va al infinito, ni tampoco ir hasta el infinito.

El cierre, ¿por qué todo el aparentemente inútil elaboración con un autocorrelated proceso estocástico? Porque el Cardenal calificó su ejemplo, calificándola de "absurdo", como "sólo para mostrar que matemáticamente, podemos tener un estimador coherente con la no-cero y varianza finita".
Quería dar una pista de que no es necesariamente una curiosidad, al menos en espíritu: Hay veces en la vida real que los nuevos procesos de comenzar, procesos artificiales, que tenía que ver con la forma en que organizamos nuestras vidas y actividades. Mientras que por lo general hemos diseñado, y se puede decir mucho acerca de ellos, todavía, que pueden ser tan complejas que son razonablemente tratados como estocásticos (la ilusión de un completo control sobre dichos procesos, o de completar un conocimiento a priori sobre su evolución, de los procesos que pueden representar nuevas formas de comercio o producir, o disponer de los derechos y obligaciones de estructura entre los seres humanos, es sólo eso, una ilusión). Además de ser nuevo, no tenemos suficiente acumulado logros de ellos con el fin de hacer confiable la inferencia estadística acerca de cómo van a evolucionar. Entonces, ad hoc y tal vez "subóptima" correcciones son, sin embargo, un fenómeno real, cuando por ejemplo tenemos un proceso en el que creemos firmemente que su presente depende del pasado (de ahí la auto-correlación proceso estocástico), pero la verdad no sé cómo todavía (por lo tanto, el grupo ad hoc de la aleatorización, mientras esperamos a que los datos se acumulan en el fin de estimar las covarianzas). Y tal vez un estadístico podría encontrar una mejor manera de lidiar con este tipo de grave incertidumbre, pero muchas entidades para funcionar en un entorno incierto, sin el beneficio de tales servicios científicos.

Lo que sigue es la inicial de (mal) respuesta (véase, en particular, del Cardenal comentario)

Estimadores que convergen en probabilidad para una variable aleatoria existen: el caso de "espurio " regresión" viene a la mente, donde si intentamos retroceder dos independientes paseo aleatorio (es decir, no-estacionario procesos estocásticos) en cada uno de los otros mediante el uso de mínimos cuadrados ordinarios de estimación, el estimador OLS van a converger a una variable aleatoria.

Pero una consistente estimador con los no-cero, la varianza no existe, porque la consistencia se define como la convergencia en probabilidad de un estimador a una constante, que, por su concepción, tiene cero de la varianza.

2voto

Marc-Andre R. Puntos 789

Tomar una muestra de la distribución con esperanza finita y varianza infinita (Pareto con $\alpha\in(1,2]$ por ejemplo). Entonces la media muestral se reunirán a la expectativa debido a la ley o números grandes (que requiere solamente la existencia de media) y la varianza será infinita.

1voto

Josh Peterson Puntos 108

Permítanme darles un ejemplo de una secuencia aleatoria de la variable de la convergencia a cero de la probabilidad, pero con infinita de la varianza. En esencia, un estimador es sólo una variable aleatoria, así que con un poco de abstracción, se puede ver que la convergencia en probabilidad a una constante no implica que la varianza se aproxima a cero.

Considere la variable aleatoria $\xi_n(x):=\chi_{[0,1/n]}(x)x^{-1/2}$ $[0,1]$ donde la probabilidad de medida considerada es la medida de Lebesgue. Claramente, $P(\xi_n(x)>0)=1/n\to0$ pero $$\int\xi_n^2dP=\int_{0}^{1/n}x^{-1}dx=-x^{-2}\mid _{0}^{1/n}=\infty,$$ for all $$ n, por lo que su variación no vaya a cero.

Ahora, acaba de hacer un estimador donde como su muestra crece se puede estimar el verdadero valor de $\mu=0$ por un empate de $\xi_n$. Tenga en cuenta que este estimador no es imparcial para 0, pero para que sea imparcial sólo puede establecer $\eta_n:=\pm\xi_n$, con igual probabilidad 1/2 y usar eso como su estimador. El mismo argumento para la convergencia y la varianza sostiene claramente.

Edit: Si quieres un ejemplo en el que la varianza es finito, tomar $$\xi_n(x):=\chi_{[0,1/n]}(x)\sqrt{n},$$ and again consider $\eta_n:=\pm\xi_n$ w.p. 1/2.

i-Ciencias.com

I-Ciencias es una comunidad de estudiantes y amantes de la ciencia en la que puedes resolver tus problemas y dudas.
Puedes consultar las preguntas de otros usuarios, hacer tus propias preguntas o resolver las de los demás.

Powered by:

X