Considere el caso de un alcoholímetro de la muestra $X_1, X_2, \ldots, X_n$ a partir de un Uniforme de$(0,1)$ distribución. La ampliación de estas variables por $\theta$ y traducir por $\theta$ de los dota de un Uniforme de$(\theta, 2\theta)$ distribución. Todo lo relevante a este problema de los cambios de la misma manera: el orden de las estadísticas y el condicional expectativas. Por lo tanto, la respuesta que se obtiene en este caso especial que se celebrará en general.
Deje $1\lt k\lt n.$ al emular el razonamiento en https://stats.stackexchange.com/a/225990/919 (o en otro lugar), encontramos que la distribución conjunta de $(X_{(1)}, X_{(k)}, X_{(n)})$ tiene función de densidad de
$$f_{k;n}(x,y,z) = \mathcal{I}(0\le x\le y\le z \le 1) (y-x)^{k-2}(z-y)^{n-k-1}.$$
La fijación de $(x,z)$ y viendo esto como una función de $y,$ esto es reconocible como un Beta$(k-1, n-k)$ distribución que se ha reducido y se tradujo en el intervalo de $[x,z].$ por Lo tanto, el factor de escala debe ser $z-x$ y la traducción se lleva a $0$ a $x.$
Dado que la expectativa de una Beta$(k-1,n-k)$ distribución es $(k-1)/(n-1),$ nos encontramos con que la esperanza condicional de $X_{(k)}$ debe ser de la escala, traducido expectativa; es decir,
$$\mathbb{E}\left(X_{(k)}\mid X_{(1)}, X_{(n)}\right) = X_{(1)} + \left(X_{(n)}-X_{(1)}\right) \frac{k-1}{n-1}.$$
Los casos de $k=1$ e $k=n$ son triviales: sus condicional expectativas son, respectivamente, $X_{(1)}$ e $X_{(k)}.$
Vamos a encontrar la expectativa de que la suma de todas las estadísticas de orden:
$$\mathbb{E}\left(\sum_{k=1}^n X_{(k)}\right) = X_{(1)} + \sum_{k=2}^{n-1} \left(X_{(1)} + \left(X_{(n)}-X_{(1)}\right) \frac{k-1}{n-1}\right) + X_{(n)}.$$
El álgebra se reduce a la obtención de la suma de $$\sum_{k=2}^{n-1}(k-1) = (n-1)(n-2)/2.$$
Así
$$\eqalign{
\mathbb{E}\left(\sum_{k=1}^n X_{(k)}\right) &= (n-1)X_{(1)} + \left(X_{(n)}-X_{(1)}\right) \frac{(n-1)(n-2)}{2(n-1)} + X_{(n)} \\
&= \frac{n}{2}\left(X_{(n)}+X_{(1)}\right).
}$$
Finalmente, debido a que el $X_i$ son idénticamente distribuidas, todos ellos tienen la misma expectativa, de donde
$$\eqalign{n\mathbb{E}\left(X_1,\mid X_{(1)}, X_{(n)}\right) &= \mathbb{E}\left(X_1,\right) + \mathbb{E}\left(X_2\right) + \cdots + \mathbb{E}\left(X_n\right)\\
&= \mathbb{E}\left(X_{(1)}\right) + \mathbb{E}\left(X_{(2)}\right) + \cdots + \mathbb{E}\left(X_{(n)}\right) \\
&= \frac{n}{2}\left(X_{(n)}+X_{(1)}\right),
}$$
con la solución única
$$\mathbb{E}\left(X_1\mid X_{(1)}, X_{(n)}\right) = \left(X_{(n)}+X_{(1)}\right)/2.$$
Parece que la pena destacar que este resultado no es una única consecuencia de la simetría de la distribución uniforme: es especial para el uniforme de la familia de distribuciones. Para algunos la intuición, considere los datos extraídos de una Beta$(a,a)$ distribución $a \lt 1.$ Esta distribución de probabilidades se concentran cerca de $0$ e $1$ (su densidad tiene una forma de U o de "bañera" de la forma). Cuando $X_{(n)}\lt 1/2,$ podemos estar seguros de que la mayoría de los datos están amontonados cerca de $X_{(1)}$ y por lo tanto tienden a tener expectativas menor que el punto medio de la $(X_{(1)}+X_{(n)})/2;$ e al $X_{(1)}\gt 1/2,$ sucede lo contrario y la mayoría de los datos son probablemente amontonados cerca de $X_{(n)}.$