5 votos

Intuición de la diferencia en la distribución asintótica

Busco alguna intuición sobre lo siguiente: Supongamos una secuencia de variables aleatorias $\{X_n\}$ para el que sabemos que se cumple lo siguiente: $$X_n \xrightarrow{p} c \neq 0$$ $$Z_n \equiv \sqrt{n}(X_n - c) \xrightarrow{d} Z= N(0, v)$$ $$g(X_n) \xrightarrow{p} g(c)$$

donde $c$ es una constante real.

Tenemos $g(X_n)\cdot Z_n = \sqrt{n}\Big(g(X_n)X_n - g(X_n)c\Big)$

y aplicando el teorema de Slutsky obtenemos

$$\sqrt{n}\Big(g(X_n)X_n - g(X_n)c\Big)\xrightarrow{d} g(c)Z = N\big(0, [g(c)]^2v\big) ]\tag{1}$$

Pero si aplicamos el Teorema del Delta sobre $g(X_n)\cdot Z_n$ tenemos que

$$g(X_n)\cdot X_n \approx g(c)\cdot c + \big[g'(c)\cdot c+g(c)\big]\cdot [X_n-c]$$

lo que llevará a

$$\sqrt {n}\Big(g(X_n)X_n - g(c)\cdot c\Big)\xrightarrow{d} N\big(0, [g'(c)\cdot c+g(c)\big]^2v\big) \tag{2}$$

que tiene una variante diferente.

Ciertamente, el lado izquierdo de $(1)$ y $(2)$ no son lo mismo. Pero como $g(c)$ es el límite de probabilidad de $g(X_n)$ Una "intuición" errónea me venció, y conjeturé que las distribuciones asintóticas serían las mismas, antes de trabajarlas.

Queda una secuela de esta intuición errónea, así que ¿hay alguna manera de entender lo anterior aparte de simplemente derivarlo?

(En caso de que haya cometido un error tonto en alguna parte, señalarlo también sería útil, por supuesto).

NOTA: Cantidades como $g(X_n)X_n$ puede encontrarse, por ejemplo, en los modelos de respuesta binaria (logit, etc.), donde $f(\hat \beta_k)\cdot \hat \beta_k$ sería el efecto marginal estimado de un regresor $k$ sobre la probabilidad de la variable de respuesta.

4voto

Mary Puntos 21

Consideremos el caso más sencillo $g(a)=a$ .

Se aplica el teorema de Slutsky a $$ \sqrt{n}(X_n^2 - X_nc) = \sqrt{n} X_n(X_n-c) \to_d N(0,c^2\nu). $$ Pero entonces se aplica el teorema de Delta a $\sqrt{n}(X_n^2-c^2)$ . Si se le aplicara el teorema de Slutsky, se obtendría $$ \sqrt{n}(X_n^2-c^2) = \sqrt{n}(X_n+c)(X_n-c) \to_d N(0,4c^2\nu). $$ La diferencia entre estos dos es $\sqrt{n}c(X_n-c)$ que converge a $N(0,c^2\nu)$ no cero. Cuando se reemplaza $X_nc$ con $c^2$ se aumenta la varianza, porque el "error" en $X_n$ solía estar correlacionado con el "error" del primer término.

Estas dos cosas tienen efectivamente límites diferentes:

> n <- 100; m <- 1000;
> x <- rnorm(m, 1, 1/sqrt(n));
> c(sd(sqrt(n)*(x*x-1)), sd(sqrt(n)*(x*x-x)))
[1] 2.018918 1.017808

0 votos

(+1) Gracias, tu penúltima frase antes del código (sobre la correlación) parece captar toda la esencia, la intuición subyacente para la diferente varianza, que es lo que buscaba. Lo único que me preocupa es que en el caso más general, parece que la varianza podría ser menor, no mayor.

1 votos

@AlecosPapadopoulos En el caso más general lo fundamental es el signo de $cg'(c)$ frente al signo de $g(c)$ .

i-Ciencias.com

I-Ciencias es una comunidad de estudiantes y amantes de la ciencia en la que puedes resolver tus problemas y dudas.
Puedes consultar las preguntas de otros usuarios, hacer tus propias preguntas o resolver las de los demás.

Powered by:

X