12 votos

Mostrando $E(S^2\mid \bar X)=\bar X$ para variables aleatorias de Poisson i.i.d. $X_i$

Dejemos que $X_1,X_2,\ldots,X_n$ ser i.i.d. $\text{P}(\lambda)$ variables aleatorias donde $\lambda(>0)$ es desconocido. Definir $$\bar X=\frac{1}{n}\sum_{i=1}^n X_i\qquad,\qquad S^2=\frac{1}{n-1}\sum_{i=1}^n(X_i-\bar X)^2$$ como la media y la varianza de la muestra, respectivamente.

Desde $\sum_{i=1}^n X_i$ y por lo tanto $\bar X$ es una estadística suficiente completa para $\lambda$ tal que $E(\bar X)=\lambda$ , $\bar X$ es el estimador insesgado de varianza mínima uniforme (UMVUE) de $\lambda$ por el teorema de Lehmann-Scheffe. De nuevo, $E(S^2)=\lambda$ para que $E(S^2\mid \bar X)$ es también el UMVUE de $\lambda$ . Como el UMVUE es único siempre que existe, debe ser que $$E(S^2\mid \bar X)=\bar X$$

La pregunta es:

¿Cómo puedo directamente demostrar que $E(S^2\mid \bar X)=\bar X$ ?

No veo cómo proceder desde

\begin{align} E(S^2\mid \bar X=t)&=E\left[\frac{1}{n-1}\sum_{i=1}^n(X_i-t)^2\mid \bar X=t\right] \\&=E\left[\frac{1}{n-1}\left(\sum_{i=1}^nX_i^2-nt^2\right)\mid \bar X=t\right] \\&=E\left[\frac{1}{n-1}\sum_{i=1}^nX_i^2\mid \bar X=t\right]-E\left[\frac{nt^2}{n-1}\mid \bar X=t\right] \\&=\frac{1}{n-1}\sum_{i=1}^nE\left(X_i^2\mid \bar X=t\right)-\frac{n}{n-1}E(\bar X^2\mid \bar X=t)\tag{1} \end{align}

Cualquier pista sería genial.


Como ha señalado correctamente Mike Earnest, la distribución condicional de $(X_1,X_2,\cdots,X_n)\mid \bar X$ es multinomial. Es decir, para un número natural $k$ ,

$$P\left(X_1=x_1,\cdots,X_n=x_n\mid \bar X=\frac{k}{n}\right)=\frac{k!}{x_1!\,x_2!\cdots x_n!}\left(\frac{1}{n}\right)^{x_1}\left(\frac{1}{n}\right)^{x_2}\cdots\left(\frac{1}{n}\right)^{x_n}\mathbf1_{x_i\in A}$$

, donde $$A=\left\{(x_1,\cdots,x_n)\in\{0,1,\cdots,k\}: \sum_{i=1}^nx_i=k\right\}$$

Desde este tenemos para cada $i$ , $$V\left(X_i\mid \bar X=t\right)=t\left(1-\frac{1}{n}\right)\qquad,\qquad E\left(X_i\mid \bar X=t\right)=t$$

Y para todos $i\ne j$ , $$E\left(X_iX_j\mid \bar X=t\right)=t\left(t-\frac{1}{n}\right)$$

Donc,

\begin{align} E\left(X_i^2\mid \bar X=t\right)&=V\left(X_i\mid \bar X=t\right)+\left[E\left(X_i\mid \bar X=t\right)\right]^2 \\&=\frac{t}{n}(n+nt-1) \end{align}

Además, como era de esperar,

\begin{align} E\left(\bar X^2\mid \bar X=t\right)&=E\left[\frac{1}{n^2}\sum_{i=1}^n\sum_{j=1}^nX_iX_j\mid \bar X=t\right] \\&=\frac{1}{n}E\left(X_1^2\mid \bar X=t\right)+\frac{1}{n^2}\sum_{i\ne j}E\left[X_iX_j\mid \bar X=t\right] \\&=\frac{1}{n}\cdot\frac{t}{n}(n-1+nt)+\frac{2}{n^2}\binom{n}{2}t\left(t-\frac{1}{n}\right) \\&=t^2 \end{align}

Así que desde $(1)$ Por fin lo consigo,

\begin{align} E(S^2\mid \bar X=t)&=\frac{n}{n-1}\cdot\frac{t}{n}(n+nt-1)-\frac{n}{n-1}\cdot t^2 \\&=t \end{align}

Por lo tanto, se ha demostrado.

(Gracias a Mike Earnest en particular).

2 votos

Sugerencia: Puede demostrar que siempre que $X_i\sim \text{Poi}(\lambda)$ son iid, entonces $$ P(X_1=x_1,\dots,X_n=x_n|X_1+\dots+X_n=k)=\frac1{n^k}\binom{k}{x_1,x_2,\dots,x_n} $$ Es decir, condicionado a $\overline X=k/n$ el vector $(X_1,\dots,X_n)$ tiene un distribución multinomial .

0 votos

@MikeEarnest Sí puedo mostrar eso. Déjame ver cómo eso ayuda aquí.

0 votos

Voy a editar un poco más mi respuesta, tal vez hoy o mañana, y luego la desharé.

5voto

Michael Hardy Puntos 128804

$\newcommand{\e}{\operatorname{E}}$ \begin{align} & \Pr(X_1=x_1 \mid \overline X = x/n) = \Pr(X_1=x_1\mid X_1+\cdots+X_n = x) \\[10pt] = {} & \frac{\Pr(X_1=x_1\ \&\ X_1+\cdots+X_n = x)}{\Pr(X_1+\cdots+X_n = x)} \\[10pt] = {} & \frac{\Pr(X_1=x_1\ \&\ X_2+\cdots+X_n = x-x_1)}{\Pr(X_1+\cdots+X_n = x)} \\[10pt] = {} & \frac{\dfrac{\lambda^{x_1} e^{-\lambda}}{(x-x_1)!} \cdot \dfrac{((n-1)\lambda)^{x-x_1} e^{-((n-1)\lambda)}} {x_1!}}{\left( \dfrac{(n\lambda)^x e^{-n\lambda}} {x!} \right)} = \binom x {x_1} \left( \frac 1 n \right)^x \left( 1 - \frac 1 n \right)^{x-x_1} \end{align} En otras palabras, $$ X_1\mid \overline X \sim \operatorname{Binomial} \left(n\overline X, \frac 1 n \right). $$ Por lo tanto, $$ \operatorname E\left((X_1-\overline X)^2 \mid \overline X\right) = \overline X\left( 1 - \frac 1 n \right). $$ En consecuencia, $$ \operatorname E\left( (X_1-\overline X)^2 + \cdots + (X_n-\overline X)^2 \mid \overline X\right) = (n-1)\overline X. $$

0 votos

Sí, una opción válida era encontrar la distribución condicional. Se me debería haber ocurrido que $X_i\mid \bar X$ es binomial desde el principio, ya que es bien sabido que $X_i\mid \sum X_i$ es binomial.

i-Ciencias.com

I-Ciencias es una comunidad de estudiantes y amantes de la ciencia en la que puedes resolver tus problemas y dudas.
Puedes consultar las preguntas de otros usuarios, hacer tus propias preguntas o resolver las de los demás.

Powered by:

X