Planteamiento del problema: Dejemos que $Y_1, Y_2,\dots,Y_n$ denotan una muestra aleatoria de una distribución uniforme sobre el intervalo $(0,\theta).$ Encuentre un $\alpha$ -Nivel de prueba para la comprobación $H_0:\theta=\theta_0$ contra $H_a:\theta=\theta_a,$ donde $\theta_a<\theta_0.$
Primera nota: Este es el ejercicio 10.85 a en Estadística Matemática con Aplicaciones, 5ª Ed, por Wackerly, Mendenhall y Sheaffer.
Segunda nota: Esta pregunta ya se ha formulado en varias ocasiones, en particular aquí (no la misma dirección de prueba que la mía, lo cual es importante), aquí (también en sentido inverso), y aquí (la misma dirección que la mía). Esta pregunta utiliza el LRT, al que todavía no he llegado en el libro. Entonces, ¿por qué abarrotar Stats.SE con otra pregunta? Por varias razones: 1. Porque ninguna solución en ninguno de esos enlaces tiene los suficientes pasos elaborados para mi entendimiento. En particular, expresiones como $\sqrt[n]{\alpha}$ o $\sqrt[n]{1-\alpha}$ aparecen sin mucha explicación. He interactuado con varios de los autores de la solución, pero mi cabeza dura simplemente no ha sido capaz de captar lo que realmente está pasando. Sé que esta es una pregunta de auto-estudio, pero he pasado literalmente días en él, y necesito un poco de ayuda paso a paso con esto, todo explicado. 2. Me parece que el $\phi$ La notación de la palabra "no" es muy complicada, y preferiría tener una solución que no utilizara el $\phi$ notación para una prueba.
Mi trabajo hasta ahora: Utilizo la notación $Y_{(i)}$ para el $i$ de la estadística de orden. La función de distribución fundamental es $$f(y|\theta)= \begin{cases} \dfrac1\theta,&0<y<\theta\\ 0,&\text{elsewhere}. \end{cases} $$ Por lo tanto, la función de probabilidad es $$L(\theta)= \begin{cases} \dfrac{1}{\theta^n},&0<Y_{(1)}\le Y_{(n)}<\theta\\ 0,&\text{elsewhere}. \end{cases}$$ Entonces tenemos \begin{align*} L(\theta_0)&= \begin{cases} \dfrac{1}{\theta_0^n},&0<Y_{(1)}\le Y_{(n)}<\theta_0\\ 0,&\text{elsewhere}, \end{cases} \\ L(\theta_a) &= \begin{cases} \dfrac{1}{\theta_a^n},&0<Y_{(1)}\le Y_{(n)}<\theta_a\\ 0,&\text{elsewhere}. \end{cases} \end{align*} Recordamos la suposición de que $\theta_a<\theta_0.$ De ello se deduce que si $L(\theta_a)\not=0,$ entonces $L(\theta_0)\not=0.$ Por lo tanto, $$\frac{L(\theta_0)}{L(\theta_a)}= \begin{cases} \dfrac{\theta_a^n}{\theta_0^n},&0<Y_{(1)}\le Y_{(n)}<\theta_a<\theta_0\\ \text{undefined},&\text{elsewhere.} \end{cases} $$ A partir de esta información, descubrimos que la desigualdad del lema de Neyman-Pearson sólo puede satisfacerse si $Y_{(n)}<\theta_a.$ Es decir, aceptaríamos la hipótesis alternativa si $Y_{(n)}<\theta_a,$ y rechazarla si $\theta_a<Y_{(n)}.$
Mis preguntas:
- ¿Es correcto mi razonamiento hasta ahora? Si no es así, ¿por qué no?
- ¿Es este un $\alpha$ -¿una prueba de nivel? Si no es así, ¿por qué no y cómo puedo ajustarlo (¡por favor, explíquelo detalladamente!) para que sea un $\alpha$ -¿una prueba de nivel? ¿Cuál es el principio general que se utiliza para convertirlo en un $\alpha$ -¿una prueba de nivel?
- Observo que $Y_{(n)}$ es un estimador sesgado para $\theta,$ mientras que $(n+1)Y_{(n)}/n$ es imparcial. ¿Tiene esto alguna importancia en esta pregunta? ¿Por qué o por qué no?
- Si $\theta_a<Y_{(n)}<\theta_0,$ no lo hace $L(\theta_a)=0?$ Y así la fracción Neyman-Pearson sería indefinida, ¿correcto?
- Si cambiáramos el problema para que $\theta_a>\theta_0,$ ¿qué cambiaría en la solución?