8 votos

Encontrar UMVUE de $\theta e^{-\theta}$ donde $X_i\sim\text{Pois}(\theta)$

Supongamos que $X_1, X_2, . . . , X_n$ son i.i.d Poisson ( $\theta$ ) variables aleatorias variables aleatorias, donde $\theta\in(0,\infty)$ . Dar el UMVUE de $\theta e^{-\theta}$

He encontrado un problema similar aquí .

Tengo que la distribución de Poisson es una familia exponencial donde

$$f(x\mid\theta)=\frac{\theta^x e^{-\theta}}{x!}=\left(\frac{I_{(0,1,...,)}(x)}{x!}\right)e^{-\theta}\text{exp}\left(x\cdot\text{log}(\theta)\right)$$

donde $w(\theta)=\text{log}(\theta)$ y $t(x)=x$ . Desde

$$\{{w(\theta):\theta\in\Theta\}}=\{{\text{log}(\theta):\theta\in(0,\infty)\}}=(-\infty,\infty)$$

contiene un conjunto abierto en $\mathbb{R}$

$$T(\vec{X})=\sum_{i=1}^n t(X_i)=\sum_{i=1}^n X_i$$

es una estadística completa (Teorema de la estadística completa en la familia exponencial) y también es suficiente (Teorema de la factorización). Por tanto, $\bar{X}=\frac{T}{n}$ es suficiente para $\theta$ y, por lo tanto, para $\theta e^{-\theta}$ .

Traté de Rao-Blackwellize el estimador insesgado $\bar{X}$ . Para todos los valores posibles de $T$ tenemos que desde $\theta e^{-\theta}=\mathsf P(X_i=1)$ entonces

$$\begin{align*} \mathsf P(X_1=1\mid\bar{X}=t) &=\frac{\mathsf P(X_1=1,\sum_{i=2}^n {X_i} =nt-1)}{\mathsf P(\bar{X} = t)}\\\\ &=\frac{\frac{e^{-\theta}\theta}{1}\cdot\frac{e^{-(n-1)\theta}((n-1)\theta)^{nt-1}}{nt-1!}}{\frac{e^{-n\theta}(n\theta)^{nt}}{nt!}}\\\\ &=t\cdot\left(1-\frac{1}{n}\right)^{nt-1} \end{align*}$$

Desde $\mathsf E(X_1)=\theta$ entonces $X_1$ es un estimador insesgado de $\theta$ por lo que se deduce del teorema de Lehmann-Scheffé que $t\cdot\left(1-\frac{1}{n}\right)^{nt-1}$ es el UMVUE.

¿Es una solución válida? ¿Fueron mis justificaciones correctas y suficientes?

1 votos

Me parece correcto - y la forma es también aproximadamente de la forma $T(x)e^{T(X)-1}$ desde $(1-1/n)^n \to e$ que es lo que intuitivamente esperaríamos.

1 votos

Esta respuesta parece confirmar su trabajo

0 votos

Ha sido un día largo y realmente debería estar viendo televisión sin sentido, así que tal vez me estoy perdiendo algo, pero creo que puede tener un error. Si $\lambda = 5$ y $n = 20,$ entonces obtengo un resultado improbable. Por favor, compruebe.

5voto

Aaron Puntos 36

La distribución de Poisson es una distribución de la familia exponencial de un parámetro, con un estadístico suficiente natural dado por el total de la muestra $T(\mathbf{x}) = \sum_{i=1}^n x_i$ . La forma canónica es:

$$p(\mathbf{x}|\theta) = \exp \Big( \ln (\theta) T(\mathbf{x}) - n\theta \Big) \cdot h(\mathbf{x}) \quad \quad \quad h(\mathbf{x}) = \coprod_{i=1}^n x_i! $$

A partir de esta forma es fácil establecer que $T$ es una estadística suficiente completa para el parámetro $\theta$ . Así que el Teorema de Lehmann-Scheffé significa que para cualquier $g(\theta)$ sólo hay un estimador insesgado de esta cantidad que es función de $T$ y este es el es UMVUE de $g(\theta)$ . Una forma de encontrar este estimador (el método que usted está utilizando) es a través del teorema de Rao-Blackwell --- empezar con un estimador insesgado arbitrario de $g(\theta)$ y luego condicionar el estadístico suficiente completo para obtener el único estimador insesgado que es una función de $T$ .

Usando Rao-Blackwell para encontrar el UMVUE: En tu caso quieres encontrar el UMVUE de:

$$g(\theta) \equiv \theta \exp (-\theta).$$

Utilizando el estimador inicial $\hat{g}_*(\mathbf{X}) \equiv \mathbb{I}(X_1=1)$ puede confirmarlo,

$$\mathbb{E}(\hat{g}_*(\mathbf{X})) = \mathbb{E}(\mathbb{I}(X_1=1)) = \mathbb{P}(X_1=1) = \theta \exp(-\theta) = g(\theta),$$

por lo que se trata de un estimador insesgado. Por lo tanto, la única UMVUE obtenida de la técnica de Rao-Blackwell es:

$$\begin{equation} \begin{aligned} \hat{g}(\mathbf{X}) &\equiv \mathbb{E}(\mathbb{I}(X_1=1) | T(\mathbf{X}) = t) \\[6pt] &= \mathbb{P}(X_1=1 | T(\mathbf{X}) = t) \\[6pt] &= \mathbb{P} \Big( X_1=1 \Big| \sum_{i=1}^n X_i = t \Big) \\[6pt] &= \frac{\mathbb{P} \Big( X_1=1 \Big) \mathbb{P} \Big( \sum_{i=2}^n X_i = t-1 \Big)}{\mathbb{P} \Big( \sum_{i=1}^n X_i = t \Big)} \\[6pt] &= \frac{\text{Pois}(1| \theta) \cdot \text{Pois}(t-1| (n-1)\theta)}{\text{Pois}(t| n\theta)} \\[6pt] &= \frac{t!}{(t-1)!} \cdot \frac{ \theta \exp(-\theta) \cdot ((n-1) \theta)^{t-1} \exp(-(n-1)\theta)}{(n \theta)^t \exp(-n\theta)} \\[6pt] &= t \cdot \frac{ (n-1)^{t-1}}{n^t} \\[6pt] &= \frac{t}{n} \Big( 1- \frac{1}{n} \Big)^{t-1} \\[6pt] \end{aligned} \end{equation}$$

Tu respuesta tiene un pequeño error al confundir la media de la muestra con el total de la muestra, pero la mayor parte de tu trabajo es correcto. Como $n \rightarrow \infty$ tenemos $(1-\tfrac{1}{n})^n \rightarrow \exp(-1)$ y $t/n \rightarrow \theta$ por lo que tomando estos resultados asintóticos juntos también podemos confirmar la consistencia del estimador:

$$\hat{g}(\mathbf{X}) = \frac{t}{n} \Big[ \Big( 1- \frac{1}{n} \Big)^n \Big] ^{\frac{t}{n} - \frac{1}{n}} \rightarrow \theta [ \exp (-1) ]^\theta = \theta \exp (-\theta) = g(\theta).$$

Esta última demostración es heurística, pero proporciona una buena comprobación del funcionamiento. Es interesante aquí que se obtiene un estimador que es una aproximación finita a la función exponencial de interés.

1 votos

Gracias por la aclaración. ¿Debo eliminar la simulación?

1 votos

Creo que tu simulación es muy buena (+1) - una buena manera de mostrar al OP que su estimador está sesgado. Yo en tu lugar lo mantendría. En general, es bueno tener una respuesta teórica yuxtapuesta a una respuesta de simulación.

0 votos

Gracias, Ben. Aceptaré su respuesta una vez que la entienda completamente. Es $\mathbb{I}$ ¿su notación para la función indicadora?

2voto

manku Puntos 111

Aquí hay una simulación en R que hice usando a la media de $n = 20$ observaciones, donde $\lambda = 5.$ El parámetro par es $P(X = 1) = \lambda e^{-\lambda}.$ La estimación par.fcn que trata de estimar $P(X = 1)$ simplemente como una función de la media, está sesgada. Mi versión de su UMVUE para $P(X=1)$ utilizando una función de media a (en lugar de total) parece funcionar bien.

set.seed(2018);  m = 10^5; n = 20; lam=5; par=dpois(1, lam)
x = rpois(m*n, lam);  MAT=matrix(x, nrow=m)  # each row a sample of size 20
a = rowMeans(MAT)

lam.umvue = a;  lam;  mean(lam.umvue);  sd(lam.umvue)
[1] 5             # exact lambda
[1] 5.000788      # mean est of lambda
[1] 0.4989791     # aprx SD of est

par.fcn = exp(-lam.umvue)*lam.umvue;  par;  mean(par.fcn);  sd(par.fcn)
[1] 0.03368973    # exact P(X=1)
[1] 0.03620296    # slightly biased
[1] 0.01444379
sqrt(mean((par.fcn - par)^2))
[1] 0.01466074    # aprx root mean square error (rmse) of par.fun

par.umvue = a*(1-1/n)^(n*a - 1);  par;  mean(par.umvue);   sd(par.umvue)
[1] 0.03368973    # exact P(X=1)
[1] 0.03365454    # mean est of P(X=1), seems unbiased
[1] 0.01388531
sqrt(mean((par.umvue - par)^2))
[1] 0.01388528    # aprx rmse of umvue of P(X=1);  smaller than rmse of par.fun

0 votos

No estoy seguro de entender su respuesta, aunque reconozco que no estoy familiarizado con este lenguaje. Si $a$ es la media de la muestra, entonces $a (1-1/n)^{(n*a-1)}$ es el UMVUE que derivó, ¿no es así? Su UMVUE derivado es $\bar{X}(1-1/n)^{n \bar{X}-1}$

0 votos

Tomé t para ser $\sum_i X_i,$ no $\bar X.$

0 votos

Ya veo. Se condicionó en $\bar{X}$ así que aquí $t$ es la media de la muestra, no el total.Puedo ver la confusión sin embargo, ya que define la suma como $T$ primero para justificar el uso de la media muestral

i-Ciencias.com

I-Ciencias es una comunidad de estudiantes y amantes de la ciencia en la que puedes resolver tus problemas y dudas.
Puedes consultar las preguntas de otros usuarios, hacer tus propias preguntas o resolver las de los demás.

Powered by:

X