9 votos

Hallar la información de Fisher en una distribución normal con conocimiento $\mu$ y desconocido $\sigma^{2}$

Tengo una estadística de puntos $x_{i},...,x_{n} X \in N(\mu,\sigma^{2}), \mu$ es conocido.

Tengo que aplicar el teorema de Rao-cramer pero al calcular la información de Fisher me he encontrado con este problema:

$I(\sigma)=-E(\frac{n}{\gamma}+3\sum(\frac{x_{i}-\mu)^{2}}{\sigma^{2}})=\frac{n}{\gamma}+ 3\frac{E(\sum(x_{i}-\mu)^{2})}{E\sigma^{4}}=\frac{n}{\gamma}+\frac{3}{\sigma^{4}}E(\sum(x_{i}-\mu)^{2})$

$$E(\sum(x_{i}-\mu)^{2})=?$$ ${\displaystyle \operatorname {E} [X]=\int _{\mathbb {R} }xf(x)\,dx.}$ ¿Pero qué es aquí f(x)? ¿Podría ser la propia función ${\displaystyle \operatorname {E} [X]=\int _{\mathbb {R} }x(x_i)2\,dx.}$

De wiki, sabemos que la información de Fisher es: $$( \begin{matrix} \frac{1}{\sigma^{2}} & 0 \\ 0 & \frac{1}{2\sigma^{4}} \end{matrix}) $$

Pero necesito un número, ¿qué significa esa matriz?

¿Qué es? $I(\sigma^{2})$ para una distribución normal con $\mu$ - conocido y $\sigma^{2}$ - ¿desconocido?

11voto

Wings Puntos 32

Dejemos que $\sigma ^ 2 = \theta $ Por lo tanto $ X \sim N( \mu, \theta)$ Por lo tanto $$ f_X(x; \theta) = \frac{1}{\sqrt{ 2 \pi \theta }} \exp\left( \frac {- (x - \mu ) ^ 2} { 2\theta} \right), $$

$$ l(\theta) = - \tfrac 1 2 \ln \theta - \frac {(x - \mu )^2} {2\theta} + \text {constant} $$ $$ l'(\theta) = -\frac{1}{2\theta} + \frac{(x- \mu) ^2}{2\theta ^ 2} $$ $$ - \mathbb{E} l'' (\theta) = - \mathbb{E}[ \frac{1}{2\theta ^ 2} - \frac{(x- \mu) ^2}{\theta ^ 3} ] = -\frac{1}{2\theta ^ 2} + \frac{1}{\theta^2} = \frac{1}{2 \theta ^ 2}. $$ Utilice la propiedad aditiva de la información de Fisher para obtener la Info. para la muestra de tamaño $n$ es decir, $$ I_{X_1,...,X_n}(\theta) = \frac{n}{2\theta ^ 2} = \frac{n}{2\sigma ^ 4}, $$ para que la información observada sustituya $\sigma ^2 $ con $$ S ^ 2 = \frac{\sum_{i=1}^n ( X_i - \mu) ^ 2}{n}. $$ (Y tenga en cuenta que $\operatorname{var}(X) = \mathbb{E}(X - \mu ) ^2 = \sigma ^ 2$ ).

4voto

merkuro Puntos 4077

La información de Fisher sólo es una matriz cuando tenemos 2 o más parámetros desconocidos. Dado que $\mu$ es conocido, obtendremos un único número.

Para una muestra aleatoria $X_1, \dots, X_n$ La información de Fisher para la muestra puede definirse como

$$I_X(\theta)=-n \operatorname{E}\left[\frac{\partial^2\ln f(X|\theta)}{\partial \theta^2}\right]$$

donde aquí $\theta = \sigma^2$ . Así que no necesitamos considerar al individuo $X_i$ .

i-Ciencias.com

I-Ciencias es una comunidad de estudiantes y amantes de la ciencia en la que puedes resolver tus problemas y dudas.
Puedes consultar las preguntas de otros usuarios, hacer tus propias preguntas o resolver las de los demás.

Powered by:

X