2 votos

Expectativa condicional de la media dado el valor extremo para el uniforme en el conjunto discreto.

Digamos que tenemos $X \sim unif\{1,\dots,\theta\}$ . Estoy interesado en entender cómo se puede calcular $E[\bar{X}|X_{(n)}]$ . Donde $\bar{X} = \frac{1}{n}\sum_{i=1}^{\theta}X_i$ y $X_{(n)} = max(X_i)$

$$E[\bar{X}|X_{(n)}] = E[\frac{1}{n}\sum_{i=1}^{n}X_i | X_{(n)}]=\frac{1}{n}\sum_{i=1}^{n}E[X_i|X_{(n)}] = E[X|X_{(n)}]$$

Así que nos interesa: $E[X|X_{(n)}] = \sum xP(x|X_{(n)})$

Estoy confundido en cuanto a cómo podemos encontrar $P(x|X_{(n)})$

Aquí tienes un intento: $P(x|x \leq X_{(n)}) = \frac{P(x , x \leq X_{(n)})}{P(x \leq X_{(n)})} = \frac{P(x)}{P(x \leq X_{(n)})} = \frac{1/\theta}{X_{n}/\theta} = \frac{1}{X_{(n)}}$

Lo que nos dará finalmente para la expectativa condicional $E[X|X_{(n)}] = \frac{X_{(n)}+1}{2} = E[\bar{X}|X_{(n)}]$

Mi problema con esto es que si tenemos alguna estadística $U = 2\bar{X}-1$ que es imparcial, y observando que $X_{(n)}$ es suficiente y completa. Por el teorema de Lehmann Scheffe, $E[U|X_{(n)}]$ debe ser UMVUE en particular debe ser imparcial.

Sin embargo, observamos que $E[U|X_(n)] = X_{(n)}$ que es en sí mismo parcial, dado $E[X_{(n)}] = \theta - (\frac{\theta -1}{\theta})^n - \dots -(\frac{1}{\theta})^n$

Gracias por su visión.

4voto

Michael Puntos 5270

Supongo que tienes $\{X_1, ..., X_n\}$ i.i.d. y uniforme sobre $\{1, ..., \theta\}$ para un número entero dado $\theta$ . Definir $M = \max[X_1, ..., X_n]$ . Así que quieres calcular $E[X_1 | M=m]$ para todos $m \in \{1, ..., \theta\}$ . Se puede utilizar primero la regla de Baye para obtener $P[X_1=i | M=m]$ para todos $i \in \{1, ..., \theta\}$ .

Para $i > m$ obtenemos $P[X_1=i|M=m]=0$ . Para $i \in \{1, ..., m\}$ nos encontramos con que: $$ P[X_1=i|M=m] = \frac{P[M=m|X_1=i]P[X_1=i]}{P[M=m]} $$ Usted sabe $P[X_1=i]=1/\theta$ también se puede calcular $P[M=m]$ fácilmente. Lo difícil es calcular $P[M=m|X_1=i]$ de forma diferente para $i=m$ y $i<m$ . Verás que la probabilidad es la misma para todos $i \in \{1, ..., m-1\}$ y sólo es diferente para $i=m$ .

Entonces $$ E[X_1|M=m] = \sum_{i=1}^m i P[X_1=i|M=m] $$

i-Ciencias.com

I-Ciencias es una comunidad de estudiantes y amantes de la ciencia en la que puedes resolver tus problemas y dudas.
Puedes consultar las preguntas de otros usuarios, hacer tus propias preguntas o resolver las de los demás.

Powered by:

X