1 votos

Prueba asintótica mediante estimadores de momento y aproximación gaussiana de la muestra que distribuye $U[0,\theta]$

Considere $(X_1, ... , X_n)$ una muestra n de una distribución uniforme $U[0; \theta]$ , donde $\theta > 0$ es un parámetro desconocido y $\theta_0 > 0$ . Se desea probar $H_0:\theta=\theta_0$ contra $H_1:\theta \neq \theta_0$ .

Necesito proponer una prueba asintótica de nivel $\alpha$ utilizando la estimación $\widehat{\theta}_n =2\bar{X}$ y una aproximación gaussiana.

Del Teorema Central del Límite.

\begin {equation*} \sqrt {n} \left (2 \bar {X} - \theta\right ) \xrightarrow [n \rightarrow\infty ]{(l)} \mathcal {N} \left (0, \dfrac { \theta ^2}{3} \right ) \end {equation*} Y en el caso de la máxima probabilidad tenemos

$$\sqrt{n}(\tilde{\theta}_n-\theta)\xrightarrow[n\rightarrow\infty]{(l)} 0$$

ver esta pregunta Convergencia débil con distribución uniforme $U[0;\theta]$ y el método de los momentos .

Sabemos que

Teorema(Wilks): Considere $(E,\mathcal{E},\mathbb{P}_{\theta},\theta \in \Theta), > \Theta\in\mathbb{R}^p$ un modelo regular paramétrico dominado por alguna medida de probailidad $\mu$ , con probabilidad $\mathcal{L}(x,\theta)$ . Considere también el problema de prueba $H_0:\theta=\theta_0$ contra $H_1:\theta\neq\theta_0$ . A continuación, con una notatio similar $$\Lambda_n=\frac{\mathcal{L}(X_1,...,X_n,\theta_0)}{\sup_{\theta\in\Theta}\mathcal{L}(X_1,...,X_n,\theta)}$$ Uno tiene que $$-2\ln\Lambda_n\xrightarrow[n\rightarrow\infty]{(l)}\chi^2(p)$$

La región de rechazo de esta prueba asintótica es entonces $W=\lbrace > -\ln\Lambda_n > q_{1-\alpha}\rbrace$ donde $q_{1-\alpha}$ es el $1-\alpha$ quátil de la $\chi^2(p)$ distribución

En este caso tenemos $H_0:\theta= \dfrac{\theta^2}{3}$ contra $H_1:\theta \neq \dfrac{\theta^2}{3}$ .

¿Es correcta la suposición anterior?

Cómo se puede aplicar el Teorema(Wilks) si $\sqrt{n}(\tilde{\theta}_n-\theta)\xrightarrow[n\rightarrow\infty]{(l)} 0$ ?

0voto

BruceET Puntos 7117

El MME $T = 2\bar X$ no es un buen estimador de $\theta$ para observaciones aleatorias $X_1, X_2, \dots, X_n$ de $\mathsf{Unif}(0, \theta).$ Sin embargo, puede utilizarse para probar $H_0: \theta = \theta_0$ contra $H_a: \theta \ne \theta_0,$ en el nivel 5%--aunque no sea con la potencia óptima.

La distribución nula de la estadística de la prueba $Z = \frac{T - \theta_0}{\theta_0/\sqrt{3n}}$ es casi normal para $n$ más grande que alrededor de 10. Así, para una prueba de nivel del 5%, se rechaza para $|Z| > 1.96.$

El único punto posiblemente conflictivo es la casi normalidad de $Z$ . La breve simulación que sigue ilustra la normalidad aproximada para $n = 12.$

m = 10^6;  n = 12;  th = 10;  x = runif(n*m, 0, th)
DTA = matrix(x, nrow=m) # each row a sample of size n
a = rowMeans(DTA);  t=2*a;  z = (t - th)/(th/sqrt(3*n))
hist(z, prob=T, col="skyblue2", ylim=c(0,.4))
curve(dnorm(x), lwd=2, col="red", add=T)
shapiro.test(z[1:2000])  # test the first 2000 values of z for normality

        Shapiro-Wilk normality test

data:  z[1:2000] 
W = 0.9995, p-value = 0.8788

El siguiente histograma muestra un millón de valores de $Z$ (basado en $n = 12$ y $\theta = 10$ ) junto con la normal CDF

enter image description here

Notas: (a) El CLT converge rápidamente para las observaciones uniformes del IID. Para algunos años, $Z = U_1 + U_2 + \cdots + U_{12}-6,$ donde $U_i \stackrel{iid}{\sim} \mathsf{Unif}(0,1),$ se utilizó para simular una variables aleatorias normales, principalmente con resultados satisfactorios. (Actualmente se dispone de métodos mejores.) (b) La MLE es un estimador mucho mejor de $\theta$ y tiene una distribución beta generalizada. (c) Como no está utilizando la MLE, su discusión es irrelevante para el problema que plantea.

i-Ciencias.com

I-Ciencias es una comunidad de estudiantes y amantes de la ciencia en la que puedes resolver tus problemas y dudas.
Puedes consultar las preguntas de otros usuarios, hacer tus propias preguntas o resolver las de los demás.

Powered by:

X