5 votos

Encontrar $\sum_{k=0}^{\infty}(1-1/n)^{2k}\frac{e^{-n\theta}(n\theta)^{k}}{k!}$ (la variación de $(1-1/n)^{X_1+\cdots+X_n}$)

Dada una muestra aleatoria $X_1,\ldots,X_n$ de la distribución de Poisson con parámetro desconocido $\theta>0$.$T:=(1-1/n)^{X_1+\cdots+X_n}$. Encontrar $\operatorname{var}(T)$.

Mi trabajo:

Me parece $T$ es un UMVUE de $e^{-\theta}$. Pero no puedo utilizar el C-R límite inferior, ya que no todos UMVUE alcanzar el límite inferior. Mi plan es el uso de la transformación para obtener el pdf de $T$. Y a continuación, obtener la varianza. ¿Hay algún otro más fáciles de resolver?

Añadió:

Deje $a=(1-1/n)$$Y=a^{X_1+\cdots+X_n}$. Entonces, uno tiene $f_{Y}(y)=\frac{e^{-n\theta}(n\theta)^{\log_a y}}{(y \ln a)(\log_a y!)}$. Pero parece demasiado complicado para mí.

2voto

Ricardo Rodrigues Puntos 729

En primer lugar demostrar que $E(T)=e^{-\theta}$ utiliza el hecho de que la suma de $n$ de poisson con parámetro de $\lambda$$\mathrm{poisson}(n\lambda)$.

Ahora mostrar $\sum_{I=1}^nX_i$ es completa suficientes estadística.

A continuación utilizar el hecho de que cualquier imparcial estimador basado en una completa suficientes estadística es una UMVUE.

Referencia : Rao -Blackwell teorema.

Para obtener la varianza. $E(T^2)=E((1-1/n)^{2\sum_{I=1}^nX_i})$

Ahora $S=\sum_{I=1}^nX_i$ siguiente $\mathrm{poisson}(n\theta)$. así, \begin{align} E(T^2) & =\sum_{i=1}^{\infty}(1-1/n)^{2s} e^{-n\theta}(n\theta)^s/s! \\ & =e^{-n\theta} \sum_{i=1}^{\infty}((n-1^2)\theta/n)^s/s! \\ & = e^{-n\theta}e^{(n-1^2)\theta/n} =e^{(2n-1)\theta/n} \end{align}

Ahora se puede calcular la varianza.

i-Ciencias.com

I-Ciencias es una comunidad de estudiantes y amantes de la ciencia en la que puedes resolver tus problemas y dudas.
Puedes consultar las preguntas de otros usuarios, hacer tus propias preguntas o resolver las de los demás.

Powered by:

X