Dado un v.r. continuo $X$ con densidad $f(x; \theta)$ y un r.v. $Y=h(X)$ donde $h(.)$ es una función diferenciable estrictamente monótona, ¿cómo se puede demostrar que el método ML para una muestra $x_1, \ldots, x_N$ proporciona el mismo estimador que el método ML para los datos transformados $h(x_1), \ldots, h(x_N)$ .
Respuesta
¿Demasiados anuncios?Esto es un boceto, dejando algunos cálculos para usted.
Denotemos las FCD de $X,Y$ por $F,G$ respectivamente; denote las PDFs por $f,g$ respectivamente. Denotemos $y_i=h(x_i)$ .
Por la monotonicidad, $G=F \circ h^{-1}$ Así que $g=(f \circ h^{-1}) \cdot (h^{-1})'$ *. Desde $h$ no depende de $\theta$ , $g_\theta=(f_\theta \circ h^{-1}) \cdot (h^{-1})'$ .
Supongamos ahora que $\theta^*$ es el MLE del vector de datos $x_i$ . Calcular $\sum_{i=1}^n \frac{g_\theta(y_i,\theta^*)}{g(y_i,\theta^*)}$ . Concluye que es cero, y luego comprueba que este punto extremo es efectivamente un máximo.
* Aquí estoy abusando de la notación componiendo funciones que realmente no pueden ser compuestas. La intención es $(f \circ h)(x,\theta) = f(h(x),\theta)$ .