5 votos

Cramér-Rao límite Inferior para Exponencial de las Familias

Estoy teniendo un problema con la aplicación de la Cramér-Rao desigualdad para identificar el límite inferior de la varianza de un estimador imparcial y esperaba que ustedes me podría ayudar. El problema es el siguiente:

Deje $X_{1},\dots,X_{n}$ ser una muestra aleatoria de la densidad $f(x|\theta)=\frac{1}{\theta}e^{-\frac{x}{\theta}}, x\geq0$, $0$ de lo contrario. Encontrar el Cramér-Rao límite inferior de la varianza de un proceso imparcial estimater de la varianza de la población $\theta^{2}$.

Ahora, el problema en sí no es demasiado difícil y encontrar el MLE para $\theta^{2}$ no era un problema. Por la búsqueda de la MLE para $\theta^{2}$ (que me pareció ser $(\frac{\sum^{n}_{i=1}Xi}{n})^{2} = \bar{X}^{2}$ si no me equivoco), ya he encontrado el registro$f(x|\theta)$ y sus derivados. Así, desde la Cramér-Rao Desigualdad (para variables aleatorias iid) está dada por

$Var_{\theta}[W(\boldsymbol{X})] \geq \frac{(\frac{d}{d\theta}E_{\theta}W(\boldsymbol{X}))^{2}}{nE_{\theta}[(\frac{\partial}{\partial\theta}\text{log}f(\boldsymbol{X}|\theta))^{2}]}$

También, desde la $f(\boldsymbol{x|\theta})$ pertenece a la exponencial de la familia,

$E_{\theta}[(\frac{\partial}{\partial\theta}\text{log}f(\boldsymbol{X|\theta}))^{2}] = -E_{\theta}[\frac{\partial^{2}}{\partial^{2}\theta^{2}}\text{log}f(\boldsymbol{X|\theta})]$

Si no estoy totalmente equivocado con la notación aquí (hemos hablado de este tema en clase muy brevemente), he encontrado los siguientes valores:

  • Para $E_{\theta}[\frac{\partial^{2}}{\partial^{2}\theta^{2}}\text{log}f(\boldsymbol{X|\theta})]$:

$ E_{\theta}[\frac{n}{\theta^{2}} - \frac{2\sum^{n}_{i=1}X_{i}}{\theta^{3}}] = \frac{n}{\theta^{2}} - \frac{2}{\theta^{3}}E[\sum^{n}_{i=1}X_{i}] \\ = \frac{n}{\theta^{2}} - \frac{2}{\theta^{3}}nE[X_{1}] = \frac{n}{\theta^{2}} - \frac{2}{\theta^{3}}n \theta = -\frac{n}{\theta^{2}}$

Por lo tanto, el término en el denominador se convierte en $\frac{n^{2}}{\theta^{2}}$

  • Para $(\frac{d}{d\theta}E_{\theta}W(\boldsymbol{X}))^{2}$:

Esta es la parte donde estoy realmente confundido. Ya que estamos hablando de un estimador de $\theta^{2}$, yo habría tomado la primera derivada con respecto a $\theta$ y cuadrado, para obtener $4\hat{\theta}^{2}$ en el numerador. Esto daría

$Var_{\theta}[\hat{\theta}^{2}] \geq \frac{4\hat{\theta}^{4}}{n^{2}}$

para mi Cramér-Rao obligado. Parece extraño, teniendo en cuenta el más que simples expresiones usualmente obtenemos como soluciones a nuestros problemas. Estoy en el camino equivocado aquí?

También lo siento por preguntar tal vez simple pregunta. El conjunto de las estadísticas de la clase era sólo un medio-curso de un semestre, por lo que hemos tratado algunos de los conceptos más superficialmente.

Gracias de antemano!

5voto

mark Puntos 232

Mientras que el período inicial de fórmulas y cálculos correcto, me estoy poniendo un poco diferente resultado para el CRLB de la imparcialidad de los peritos para $\theta^2$. Podría ser un poco difícil de obtener las derivadas con respecto a términos que no aparecen en la probabilidad permítanme mostrarles un acceso directo.

El ingrediente básico de la CRLB es el Pescador información del curso. Supongamos entonces que tenemos la Información de Fisher para un parámetro $\theta$ y queremos derivar la Información de Fisher para una función de $\theta$, decir $g(\theta)$. En su nota, queremos calcular

$$ I \left( g\left(\theta \right) \right) = E_{\theta}\left\{ \left[ \frac{\partial}{\partial g(\theta)} \log f\left(\mathbf{x};\theta\right) \right]^2 \right\} $$

¿está de acuerdo? Pero observe lo que ocurre cuando aplicamos la regla de la cadena, junto con la definición de la derivada de la función inversa,

\begin{align} I \left( g\left(\theta \right) \right) = E_{\theta}\left\{ \left[ \frac{\partial}{\partial g(\theta)} \log f\left(\mathbf{x};\theta\right) \right]^2 \right\} & = E_{\theta} \left\{ \left[ \frac{\partial}{\partial \theta} \log f\left(\mathbf{x};\theta\right) \frac{\partial \theta}{\partial g\left( \theta \right)} \right]^2 \right\} \\ & = E_{\theta} \left\{ \left[ \frac{\partial}{\partial \theta} \log f\left(\mathbf{x};\theta\right) \frac{1}{ g ^{\prime}\left( \theta \right)} \right]^2 \right\} \\ & = \frac{I(\theta)}{\left[g ^{\prime}\left( \theta \right) \right]^2} \end{align}

lo que simplifica la materia. Con esta definición, si estamos buscando la Información para $\theta^2$, entonces a partir de la $g^{\prime} (\theta) = 2\theta$$I(\theta) = \frac{1}{\theta^2}$, vemos que

$$I\left(\theta^2 \right) = \frac{1}{\theta^2} \frac{1}{4\theta^2} $$

Multiplicar por $n$ y tomar el recíproco de este para llegar a su obligación, $\frac{4 \theta^4}{n}$.

i-Ciencias.com

I-Ciencias es una comunidad de estudiantes y amantes de la ciencia en la que puedes resolver tus problemas y dudas.
Puedes consultar las preguntas de otros usuarios, hacer tus propias preguntas o resolver las de los demás.

Powered by:

X