Busco alguna intuición sobre lo siguiente: Supongamos una secuencia de variables aleatorias $\{X_n\}$ para el que sabemos que se cumple lo siguiente: $$X_n \xrightarrow{p} c \neq 0$$ $$Z_n \equiv \sqrt{n}(X_n - c) \xrightarrow{d} Z= N(0, v)$$ $$g(X_n) \xrightarrow{p} g(c)$$
donde $c$ es una constante real.
Tenemos $g(X_n)\cdot Z_n = \sqrt{n}\Big(g(X_n)X_n - g(X_n)c\Big)$
y aplicando el teorema de Slutsky obtenemos
$$\sqrt{n}\Big(g(X_n)X_n - g(X_n)c\Big)\xrightarrow{d} g(c)Z = N\big(0, [g(c)]^2v\big) ]\tag{1}$$
Pero si aplicamos el Teorema del Delta sobre $g(X_n)\cdot Z_n$ tenemos que
$$g(X_n)\cdot X_n \approx g(c)\cdot c + \big[g'(c)\cdot c+g(c)\big]\cdot [X_n-c]$$
lo que llevará a
$$\sqrt {n}\Big(g(X_n)X_n - g(c)\cdot c\Big)\xrightarrow{d} N\big(0, [g'(c)\cdot c+g(c)\big]^2v\big) \tag{2}$$
que tiene una variante diferente.
Ciertamente, el lado izquierdo de $(1)$ y $(2)$ no son lo mismo. Pero como $g(c)$ es el límite de probabilidad de $g(X_n)$ Una "intuición" errónea me venció, y conjeturé que las distribuciones asintóticas serían las mismas, antes de trabajarlas.
Queda una secuela de esta intuición errónea, así que ¿hay alguna manera de entender lo anterior aparte de simplemente derivarlo?
(En caso de que haya cometido un error tonto en alguna parte, señalarlo también sería útil, por supuesto).
NOTA: Cantidades como $g(X_n)X_n$ puede encontrarse, por ejemplo, en los modelos de respuesta binaria (logit, etc.), donde $f(\hat \beta_k)\cdot \hat \beta_k$ sería el efecto marginal estimado de un regresor $k$ sobre la probabilidad de la variable de respuesta.