3 votos

Relación de verosimilitud de la distribución uniforme de dos muestras

Consideremos dos distribuciones uniformes:

$$f \left( x, \theta_i \right) =\begin{cases} \frac{1}{2\theta_i} \quad -\theta_i<x<\theta_i, -\infty<\theta_i<\infty \\ 0 \quad \text{elsewhere} \end{cases} $$

$i=1,2$ Queremos probar $H_0:\theta_1=\theta_2 $ contra $H_1:\theta_1 \neq \theta_2 $ Los estadísticos de orden de dos muestras independientes de las respectivas distribuciones son $X_1< X_2<\ldots <X_{n_1}$ y $Y_1<Y_2< \ldots< Y_{n_2} $

  1. Derivar la razón de verosimilitud , $\Lambda$
  2. Encuentre la distribución de $-2\log \Lambda$ cuando $H_0$ es cierto.

Suponemos que los tamaños de las muestras son iguales y ponemos $n=n_1=n_2$

Puedo ocuparme de una parte $1$ . El mles de esta distribución es $\hat{\theta_x} = \max \{-X_1,X_n \}$ y $\hat{\theta_y}=\max\{-Y_1,Y_n \}$ porque deseamos hacer $\theta$ lo más pequeño posible dado que la probabilidad es una función decreciente de la misma.

Por lo tanto, la Relación de Probabilidad se convierte en:

$$\frac{\hat{\theta_x}^{n} \hat{\theta_y}^{n} }{\left[ \max \{ \hat{\theta_x}, \hat{\theta_y} \} \right]^{2n} } $$

Examinando los dos casos diferentes aquí, podemos ver que es igual:

$$ \left[ \frac{\min \{ \hat{\theta_x },\hat{\theta_y } \}} {\max \{ \hat{\theta_x}, \hat{\theta_y }\}} \right]^{n}$$

Ahora, para terminar la parte $2$ tenemos que derivar la distribución conjunta del numerador y del denominador. Según mi libro: si dejamos que $U=\min \{ \hat{\theta_x}, \hat{\theta_y} \}$ y $V= \max \{\hat{\theta_x}, \hat{\theta_y} \}$ el pdf conjunto es $$g(u,v)=2n^2 u^{n-1} v^{n-1} / \theta^{2n}\quad 0<u<v<\theta $$

donde $n=n_1=n_2$

Esta es precisamente la parte que no entiendo. ¿De dónde viene esta distribución? Mis pensamientos iniciales eran que se trata de una pdf conjunta de las estadísticas de orden máximo y mínimo, pero no parece que sea así. Agradecería que me ayudaran a comprender esa parte.

Puedo terminar el ejercicio después. Es sólo ese paso intermedio el que encuentro desconcertante. La respuesta por cierto es $\chi^{2} (2) $

Gracias de antemano.

EDIT Sé que la expresión conjunta de pdf que te he lanzado es desconcertante pero es lo único que se me da. Si hay otra forma de demostrar que la distribución de $-2 \log \Lambda$ es $\chi^{2} $ Por favor, hágamelo saber.

4voto

Jeff Bauer Puntos 236

DIGRESIÓN
Este es un buen ejemplo para mostrar que las densidades deberían definirse mejor para toda la línea real utilizando funciones indicadoras y no ramas. Porque, si uno mira la probabilidad, uno podría, al menos por un momento, decir "oye, esta probabilidad se maximizará para el valor de la muestra que es positivo y más cercano a cero -¿por qué no tomar esto como el MLE?

La densidad para un uniforme típico en este caso es

$$f \left( x, \theta_x \right) =\frac{1}{2\theta_x}\cdot \mathbf 1\{x_i \in [-\theta_x,\theta_x] \},\qquad \theta_x >0$$

Obsérvese que el intervalo es (y debe ser) cerrado, y que definimos el parámetro como positivo porque, definirlo como perteneciente a la recta real a) incluiría el valor cero, lo que haría que la configuración careciera de sentido, y b) no añadiría nada al caso, salvo una pesada notación de carga muerta. La probabilidad de una muestra (ordenada) de tamaño $i=1,...,n_1$ de i.i.d tales r.v.s es

$$L(\theta_x \mid \{x_1,...,x_{n_1}\}) = \frac{1}{2^{n_1}\theta_x^{n_1}}\cdot \prod_{i=1}^{n_1}\mathbf 1\{x_i \in [-\theta_x,\theta_x] \}$$ $$=\frac{1}{2^{n_1}\theta_x^{n_1}}\cdot \min_i\left\{\mathbf 1\{x_i \in [-\theta_x,\theta_x]\}\right\}$$

La existencia de la función indicadora nos dice que si seleccionamos un $\hat \theta$ tal que incluso uno valor de muestra realizado $x_i$ estará fuera $[-\hat \theta_x,\hat \theta_x]$ la probabilidad será igual a cero. Ahora bien, respetando esta restricción, esta probabilidad es siempre mayor para valores positivos del parámetro, y tiene una singularidad en cero por lo que se "maximiza" (tiende a más infinito) como $\theta_x \rightarrow 0^+$ . Es entonces la restricción de elegir un $\theta_x$ tal que todos los valores realizados de la muestra estén dentro de $[-\hat \theta_x,\hat \theta_x]$ que nos guía para alejarnos de cero lo mínimo posible (reduciendo el valor de la probabilidad lo menos posible que permita la restricción), y esta es la verdadera razón por la que llegamos al estimador $\hat{\theta_x} = \max \{-X_1,X_{n_1} \}$ y la estimación $\hat{\theta_x} = \max \{-x_1,x_{n_1} \}$ .

TEMA PRINCIPAL
Para llegar a la distribución conjunta de $V$ y $U$ como se define en la pregunta, necesitamos primero derivar la distribución del estimador ML. La fdc de $\hat \theta_x$ respetando también la relación $X_1 \le X_{n_1}$ es

$$F_{\theta_x}(\hat{\theta_x}) = P(-X_1 \le \hat{\theta_x}, X_{n_1}\le \hat{\theta_x}\mid X_1 \le X_{n_1}) = P(-\hat{\theta_x} \le X_1 \le X_{n_1}\le \hat{\theta_x})$$

Denotando la densidad conjunta de $(X_1, X_{n_1})$ por $f_{X_1X_{n_1}}(x_1,x_{n_1})$ que se derivará en breve, la densidad de la MLE es por tanto

$$f_{\theta_x}(\hat{\theta_x}) = \frac {d}{d\hat{\theta_x}}F_{\theta_x}(\hat{\theta_x}) = \frac {d}{d\hat{\theta_x}}\int_{-\hat \theta_x}^{\hat \theta_x}\int_{-\hat \theta_x}^{x_{n_1}}f_{X_1X_{n_1}}(x_1,x_{n_1})dx_1dx_{n_1}$$

Aplicando (cuidadosamente) la regla de Leibniz tenemos

$$f_{\theta_x}(\hat{\theta_x}) = \int_{-\theta_x}^{\hat \theta_x}f_{X_1X_{n_1}}(x_1, \hat \theta_x)dx_1 -(-1)\cdot \int_{-\hat \theta_x}^{-\hat \theta_x}f_{X_1X_{n_1}}(x_1,-\hat \theta_x)dx_1 + \\ +\int_{-\hat \theta_x}^{\hat \theta_x}\left(\frac {d}{d\hat{\theta_x}}\int_{-\theta_x}^{x_{n_1}}f_{X_1X_{n_1}}(x_1,x_{n_1})dx_1\right)dx_{n_1}$$

$$= \int_{-\theta_x}^{\hat \theta_x}f_{X_1X_{n_1}}(x_1, \hat \theta_x)dx_1+0-(-1)\cdot \int_{-\hat \theta_x}^{\hat \theta_x}f_{X_1X_{n_1}}(-\hat \theta_x,x_{n_1})dx_{n_1}$$

$$\Rightarrow f_{\theta_x}(\hat{\theta_x}) =\int_{-\theta_x}^{\hat \theta_x}f_{X_1X_{n_1}}(x_1, \hat \theta_x)dx_1+\int_{-\hat \theta_x}^{\hat \theta_x}f_{X_1X_{n_1}}(-\hat \theta_x,x_{n_1})dx_{n_1}$$

La expresión general para la distribución conjunta de dos estadísticos de orden es enter image description here

En nuestro caso esto se convierte en $$f_{X_1,X_{n_1}}(x_1,x_{n_1}) = \frac {n_1!}{(n_1-2)!}f_X(x_1)f_X(x_{n_1})\cdot\left[F_X(x_{n_1})-F_X(x_1)\right]^{n_1-2}$$

$$\Rightarrow f_{X_1,X_{n_1}}(x_1,x_{n_1})=n_1(n_1-1)\left(\frac 1{2\theta_x}\right)^2 \left[\frac {x_{n_1}+\theta_x}{2\theta_x} - \frac {x_1+\theta_x}{2\theta_x}\right]^{n_1-2}$$

$$\Rightarrow f_{X_1,X_{n_1}}(x_1,x_{n_1}) = n_1(n_1-1)\left(\frac 1{2\theta_x}\right)^{n_1}(x_{n_1}-x_1)^{n_1-2}$$

Introduciendo esto en la expresión de la densidad de la MLE y realizando la integración simple obtenemos

$$f_{\theta_x}(\hat{\theta_x})=n_1\left(\frac 1{2\theta_x}\right)^{n_1}\cdot \left[-(\hat \theta_x-x_1)^{n_1-1} + (x_{n_1}+\hat \theta_x)^{n_1-1}\right]_{-\hat \theta_x}^{\hat \theta_x}$$

$$=n_1\left(\frac 1{2\theta_x}\right)^{n_1}\cdot 2\cdot (2\hat \theta_x)^{n_1-1}$$

$$\Rightarrow f_{\theta_x}(\hat{\theta_x}) = \frac {n_1}{\theta_x^{n_1}}\hat \theta_x^{n_1-1}$$

Por cierto, esta es una distribución Beta de "soporte extendido", Beta $(\alpha = n_1, \beta =1, min=0, max = \theta_x)$ . Para el $Y$ r.v.s la expresión sería la misma, utilizando $\hat \theta_y,\, \theta_y,\, n_2$ .

Pasamos ahora a la densidad conjunta $g(u,v)$ como se define en la pregunta. $U$ y $V$ se definen como las estadísticas de orden extremo de sólo ... dos variables aleatorias, $\hat \theta_x$ y $\hat \theta_y$ . Si queremos aplicar de nuevo el teorema anterior para derivar la densidad conjunta de $U$ y $V$ bajo la nula $H_0$ (que sólo hace $\theta_x = \theta_y=\theta$ ), necesitamos que las densidades de los MLEs sean idénticas, y para ello necesitamos además que $n_1=n_2=n$ (y el misterio está resuelto). Bajo estos supuestos, la aplicación del teorema (el $n$ del teorema se fija ahora igual a $2$ ) obtenemos

$$g(u,v) = 2f_{\theta}(u)f_{\theta}(v)$$

$$=2\frac {n}{\theta^{n}}u^{n-1}\frac {n}{\theta^{n}}v^{n-1} = 2n^2u^{n-1}v^{n-1}/\theta^{2n}$$

i-Ciencias.com

I-Ciencias es una comunidad de estudiantes y amantes de la ciencia en la que puedes resolver tus problemas y dudas.
Puedes consultar las preguntas de otros usuarios, hacer tus propias preguntas o resolver las de los demás.

Powered by:

X