4 votos

Media y varianza de los métodos de estimación de momentos y de estimación de máxima verosimilitud de la distribución uniforme.

Dejemos que $X_1, X_2,\ldots, X_n$ ser i.i.d. uniforme en $[0, \theta ]$ .

a. Encuentre la estimación por el método de los momentos de $\theta$ y su media y varianza

b. Encuentre el MLE de $\theta$ y su media y varianza.

Gracias por contestar, te lo agradezco mucho.

Mis respuestas fueron:

a. $\hat{\theta} = 2 \bar{X}$

b. $\hat{\theta} = X_n$

No sólo estoy seguro de mi solución, sino que no sé cómo empezar a resolver la media y la varianza teniendo en cuenta la MLE y la MME.

7voto

Xabier Domínguez Puntos 793

De acuerdo, voy a dejar caer algunas pistas.

En primer lugar: Compruebe que su estimador MLE de $\theta$ es efectivamente el máximo de la función de verosimilitud. ¡Nótese que este máximo no es detectado por la derivada!

Ahora, la media y la varianza de $\hat \theta=2\overline{X}$ pueden deducirse de las de $\overline{X}.$ La distribución de $\overline{X}$ es difícil de escribir, pero no necesitas todo el pdf, sólo necesitas $E(\overline{X})$ y Var $(\overline{X}).$ Si te han dado este problema, probablemente ya sepas cuál es la media y la varianza de la media muestral, pero por si acaso, aquí tienes: $E(\overline{X})=E(X),$ Var $(\overline{X})=$ Var $(X)/n.$

En cuanto a la MLE, probablemente tendrá que calcular primero el pdf de $\hat \theta=\max\{X_1,\cdots,X_n\}$ . Arreglar $x\in [0,\theta].$ De la definición de un máximo, $P[\hat \theta \le x]=P[X_1\le x, \;X_2\le x,\;\cdots, X_n\le x];$ ahora usamos que el $X_i$ son copias independientes de la distribución uniforme en $[0,\theta]$ Por lo tanto $P[\hat \theta \le x]=P[X\le x]^n$ donde $X$ es una distribución uniforme en $[0,\theta].$ Desde $P[X\le x]=x/\theta$ (cdf de una variable uniforme en $[0,\theta]$ ), deducimos que la fdc de $\hat\theta$ es $x^n/\theta^n$ en $[0,\theta]$ y por lo tanto el pdf es $nx^{n-1}/\theta^n$ , también en $[0,\theta]$ . Ahora utiliza este pdf para calcular $E(\hat \theta)$ y Var $\hat \theta$ de la forma habitual. Es decir, $E(\hat \theta)=\int_0^{\theta}x (nx^{n-1}/\theta^n)\,dx$ y Var $\hat \theta=\int_0^{\theta}x^2 (nx^{n-1}/\theta^n)\,dx - E(\hat\theta)^2$

4voto

Michael Hardy Puntos 128804

Su MLE está equivocado. Usted dijo $X_1,\ldots,X_n$ son i.i.d. Eso implica $X_1$ o $X_2$ etc., es tan probable que sea el valor máximo observado como lo es $X_n$ o cualquier otro. La MLE es en realidad $\max\{X_1,\ldots,X_n\}$ .

Si se utiliza la notación convencional para las estadísticas de orden, con paréntesis que encierran los subíndices, de modo que $X_{(1)}\le X_{(2)} \le \cdots\le X_{(n)}$ entonces la MLE es $X_{(n)}$ .

La densidad de la distribución uniforme en $[0,\theta]$ es $\dfrac 1 \theta$ para $0<x<\theta$ por lo que la densidad conjunta es $\dfrac{1}{\theta^n}$ para $0< x_1,\ldots,x_n<\theta$ . Mira esto como una función de $\theta$ Es $\dfrac{1}{\theta^n}$ para $\theta>\text{all }x\text{s}$ . Por lo tanto, la función de probabilidad es $$ L(\theta) = \frac{1}{\theta^n}\text{ for }\theta \ge \max\{x_1,\ldots,x_n\}$ . $$ This is a decreasing function on the whole interval $ [\max\{x_1,\ldots,x_n\},\infty) $. Thus it attains its maximum value at the left endpoint of the interval, which is $ \max\{x_1,\ldots,x_n\}$.

i-Ciencias.com

I-Ciencias es una comunidad de estudiantes y amantes de la ciencia en la que puedes resolver tus problemas y dudas.
Puedes consultar las preguntas de otros usuarios, hacer tus propias preguntas o resolver las de los demás.

Powered by:

X