8 votos

Expectativa condicional de variable aleatoria uniforme dadas estadísticas de orden

Suponga que X = $(X_1, ..., X_n)$ ~ $U(\theta, 2\theta)$, donde $\theta \in \Bbb{R}^+$.

¿Cómo calcular la esperanza condicional de $E[X_1|X_{(1)},X_{(n)}]$, donde $X_{(1)}$ e $X_{(n)}$ es el más pequeño y el más grande de estadísticas de orden respectivamente?

Mi primer pensamiento sería que, dado que las estadísticas de orden de límite de la gama, es simplemente $(X_{(1)}+X_{(n)})/2$, pero no estoy seguro de si esto es correcto!

10voto

jldugger Puntos 7490

Considere el caso de un alcoholímetro de la muestra $X_1, X_2, \ldots, X_n$ a partir de un Uniforme de$(0,1)$ distribución. La ampliación de estas variables por $\theta$ y traducir por $\theta$ de los dota de un Uniforme de$(\theta, 2\theta)$ distribución. Todo lo relevante a este problema de los cambios de la misma manera: el orden de las estadísticas y el condicional expectativas. Por lo tanto, la respuesta que se obtiene en este caso especial que se celebrará en general.

Deje $1\lt k\lt n.$ al emular el razonamiento en https://stats.stackexchange.com/a/225990/919 (o en otro lugar), encontramos que la distribución conjunta de $(X_{(1)}, X_{(k)}, X_{(n)})$ tiene función de densidad de

$$f_{k;n}(x,y,z) = \mathcal{I}(0\le x\le y\le z \le 1) (y-x)^{k-2}(z-y)^{n-k-1}.$$

La fijación de $(x,z)$ y viendo esto como una función de $y,$ esto es reconocible como un Beta$(k-1, n-k)$ distribución que se ha reducido y se tradujo en el intervalo de $[x,z].$ por Lo tanto, el factor de escala debe ser $z-x$ y la traducción se lleva a $0$ a $x.$

Dado que la expectativa de una Beta$(k-1,n-k)$ distribución es $(k-1)/(n-1),$ nos encontramos con que la esperanza condicional de $X_{(k)}$ debe ser de la escala, traducido expectativa; es decir,

$$\mathbb{E}\left(X_{(k)}\mid X_{(1)}, X_{(n)}\right) = X_{(1)} + \left(X_{(n)}-X_{(1)}\right) \frac{k-1}{n-1}.$$

Los casos de $k=1$ e $k=n$ son triviales: sus condicional expectativas son, respectivamente, $X_{(1)}$ e $X_{(k)}.$

Vamos a encontrar la expectativa de que la suma de todas las estadísticas de orden:

$$\mathbb{E}\left(\sum_{k=1}^n X_{(k)}\right) = X_{(1)} + \sum_{k=2}^{n-1} \left(X_{(1)} + \left(X_{(n)}-X_{(1)}\right) \frac{k-1}{n-1}\right) + X_{(n)}.$$

El álgebra se reduce a la obtención de la suma de $$\sum_{k=2}^{n-1}(k-1) = (n-1)(n-2)/2.$$

Así

$$\eqalign{ \mathbb{E}\left(\sum_{k=1}^n X_{(k)}\right) &= (n-1)X_{(1)} + \left(X_{(n)}-X_{(1)}\right) \frac{(n-1)(n-2)}{2(n-1)} + X_{(n)} \\ &= \frac{n}{2}\left(X_{(n)}+X_{(1)}\right). }$$

Finalmente, debido a que el $X_i$ son idénticamente distribuidas, todos ellos tienen la misma expectativa, de donde

$$\eqalign{n\mathbb{E}\left(X_1,\mid X_{(1)}, X_{(n)}\right) &= \mathbb{E}\left(X_1,\right) + \mathbb{E}\left(X_2\right) + \cdots + \mathbb{E}\left(X_n\right)\\ &= \mathbb{E}\left(X_{(1)}\right) + \mathbb{E}\left(X_{(2)}\right) + \cdots + \mathbb{E}\left(X_{(n)}\right) \\ &= \frac{n}{2}\left(X_{(n)}+X_{(1)}\right), }$$

con la solución única

$$\mathbb{E}\left(X_1\mid X_{(1)}, X_{(n)}\right) = \left(X_{(n)}+X_{(1)}\right)/2.$$


Parece que la pena destacar que este resultado no es una única consecuencia de la simetría de la distribución uniforme: es especial para el uniforme de la familia de distribuciones. Para algunos la intuición, considere los datos extraídos de una Beta$(a,a)$ distribución $a \lt 1.$ Esta distribución de probabilidades se concentran cerca de $0$ e $1$ (su densidad tiene una forma de U o de "bañera" de la forma). Cuando $X_{(n)}\lt 1/2,$ podemos estar seguros de que la mayoría de los datos están amontonados cerca de $X_{(1)}$ y por lo tanto tienden a tener expectativas menor que el punto medio de la $(X_{(1)}+X_{(n)})/2;$ e al $X_{(1)}\gt 1/2,$ sucede lo contrario y la mayoría de los datos son probablemente amontonados cerca de $X_{(n)}.$

1voto

user119261 Puntos 1

Las siguientes no es una prueba, sino una verificación de los resultados deseados una vez que usted sabe que $(X_{(1)},X_{(n)})$ es una completa estadística de $\theta$ :

Conjunto pdf de $X_1,X_2,\ldots,X_n$ es

\begin{align} f_{\theta}(x_1,\ldots,x_n)&=\frac{1}{\theta^n}\mathbf1_{\theta<x_{(1)},x_{(n)}<2\theta} \\&=\frac{1}{\theta^n}\mathbf1_{\frac{1}{2}x_{(n)}<\theta<x_{(1)}}\quad,\,\theta\in\mathbb R^+ \end{align}

Por lo $T=(X_{(1)},X_{(n)})$ es una estadística suficiente para $\theta$. Se puede demostrar que $T$ también es una completa estadística de proceder a lo largo de estas líneas.

Entonces por Lehmann-teorema de Scheffe, $E\,[X_1\mid T]$ es el UMVUE de $E(X_1)=\frac{3\theta}{2}$.

Ahora, $\frac{1}{\theta}(X_i-\theta)\stackrel{\text{i.i.d}}\sim \mathsf U(0,1)$, por lo que $\frac{1}{\theta}(X_{(n)}-\theta)\sim\mathsf{Beta}(n,1)$ e $\frac{1}{\theta}(X_{(1)}-\theta)\sim \mathsf{Beta}(1,n)$.

Por lo tanto, $E(X_{(n)})=\frac{n\theta}{n+1}+\theta=\frac{(2n+1)\theta}{n+1}$ e $E(X_{(1)})=\frac{\theta}{n+1}+\theta=\frac{(n+2)\theta}{n+1}$.

Por lo tanto,

$$E\left[\frac{1}{2}(X_{(1)}+X_{(n)})\right]=\frac{1}{2(n+1)}\left((n+2)\theta+(2n+1)\theta\right)=\frac{3\theta}{2}$$

Esto demuestra que $\frac{1}{2}(X_{(1)}+X_{(n)})$ es el UMVUE de $\frac{3\theta}{2}$ por Lehmann-de Scheffe.

Desde UMVUE es único cuando existe, se comprueba la afirmación de que $E\,[X_1\mid T]=\frac{1}{2}(X_{(1)}+X_{(n)})$.

i-Ciencias.com

I-Ciencias es una comunidad de estudiantes y amantes de la ciencia en la que puedes resolver tus problemas y dudas.
Puedes consultar las preguntas de otros usuarios, hacer tus propias preguntas o resolver las de los demás.

Powered by:

X