[Creo que esto podría ser un ejemplo del tipo de situación que se discute en su pregunta].
Hay numerosos ejemplos de estimadores ML inconsistentes. La inconsistencia se ve comúnmente con una variedad de problemas de mezcla ligeramente complicados y problemas de censura.
[La consistencia de una prueba consiste básicamente en que la potencia de la prueba para una hipótesis falsa (fija) aumenta a uno a medida que $n\to\infty$ .]
Radford Neal da un ejemplo en su blog de 2008-08-09 Estimación de máxima verosimilitud inconsistente: Un ejemplo "ordinario" . Implica la estimación del parámetro $\theta$ en:
$$X\ |\ \theta\ \ \sim\ \ (1/2) N(0,1)\ +\ (1/2) N(\theta,\exp(-1/\theta^2)^2) $$
(Neal utiliza $t$ donde tengo $\theta$ ) donde la estimación ML de $\theta$ tenderá a $0$ como $n\to\infty$ (y de hecho la probabilidad puede ser mucho mayor en un pico cercano a 0 que en el valor verdadero para tamaños de muestra bastante modestos). No obstante, se da el caso de que hay un pico cerca del valor verdadero $\theta$ es más pequeño que el que está cerca de 0.
Imaginemos ahora dos casos relacionados con esta situación:
a) realizar una prueba de razón de verosimilitud de $H_0: \theta=\theta_0$ contra la alternativa $H_1: \theta<\theta_0$ ;
b) realizar una prueba de razón de verosimilitud de $H_0: \theta=\theta_0$ contra la alternativa $H_1: \theta\neq\theta_0$ .
En el caso (a), imagine que el verdadero $\theta<\theta_0$ (para que la alternativa sea verdadera y $0$ es la otra cara de la verdad $\theta$ ). Entonces, a pesar de que la probabilidad muy cercana a 0 superará a la de $\theta$ la probabilidad en $\theta$ no obstante, supera la probabilidad en $\theta_0$ incluso en muestras pequeñas, y la proporción seguirá aumentando a medida que $n\to\infty$ de tal manera que la probabilidad de rechazo en una prueba de razón de verosimilitudes sea 1.
De hecho, incluso en el caso (b), siempre que $\theta_0$ es fijo y está acotado fuera de $0$ También debería darse el caso de que el cociente de probabilidad crezca de tal manera que la probabilidad de rechazo en una prueba de cociente de probabilidad también se acerque a 1.
Así que esto parecería ser un ejemplo de estimación ML inconsistente, donde la potencia de un LRT debería sin embargo ir a 1 (excepto cuando $\theta_0=0$ ).
[Nota: no hay nada en esto que no esté ya en la respuesta de Whuber, que creo que es un ejemplo de claridad, y es mucho más simple para entender la diferencia entre la consistencia de la prueba y la consistencia de un estimador. El hecho de que el estimador inconsistente en el ejemplo específico no era ML no importa realmente en cuanto a la comprensión de esa diferencia - y traer en un estimador inconsistente que es específicamente ML - como he tratado de hacer aquí - no altera realmente la explicación de ninguna manera sustancial. El único punto real del ejemplo aquí es que creo que aborda su preocupación sobre el uso de un estimador ML].
0 votos
¿Qué son LR y QLR?
0 votos
Prueba de la razón de verosimilitud y de la cuasi razón de verosimilitud ;)
0 votos
La potencia debería ir a 1 en todas partes excepto en un punto. Lo que no tendrá es la tasa de error nominal de tipo 1.
0 votos
@Glen_b, ¿podrías detallar más tu comentario? Gracias ;)
0 votos
@Glen_b, lamentablemente no, y la wiki no parece tener una entrada al respecto...
0 votos
Bien. ¿Sabes lo que es una prueba sesgada?
0 votos
@Glen_b En primer lugar, permíteme decir que espero no poner a prueba tu paciencia con mi respuesta a tu pregunta. Lo que sé, es lo que está escrito aquí: es.wikipedia.org/wiki/Bias_%28statistics%29 Aunque espero que sea suficiente ;)
0 votos
Así que voy a estudiar las curvas de potencia y la definición de las pruebas sesgadas. ¿Tienes algunos enlaces que puedan ayudarme? (Donde vivo son las 12 de la noche. Me voy a la cama y continuaré esta conversación mañana. Muchas gracias por el intento. Saludos ;)
0 votos
He intentado poner un ejemplo sencillo que creo que se relaciona con lo que preguntas, espero que sin introducir demasiadas cosas que no te resulten familiares.