16 votos

Valor esperado de la mediana de la muestra dada la media de la muestra

Dejemos que $Y$ denota la mediana y deja que $\bar{X}$ denotan la media, de una muestra aleatoria de tamaño $n=2k+1$ de una distribución que es $N(\mu,\sigma^2)$ . ¿Cómo puedo calcular $E(Y|\bar{X}=\bar{x})$ ?

Intuitivamente, debido al supuesto de normalidad, tiene sentido afirmar que $E(Y|\bar{X}=\bar{x})=\bar{x}$ y, efectivamente, esa es la respuesta correcta. Pero, ¿se puede demostrar con rigor?

Mi idea inicial era abordar este problema utilizando la distribución normal condicional, que es un resultado generalmente conocido. El problema es que, como no conozco el valor esperado y, por consiguiente, la varianza de la mediana, tendría que calcularlos utilizando la $k+1$ estadística de orden. Pero eso es muy complicado y prefiero no ir allí a menos que sea absolutamente necesario.

3 votos

Creo que esto es una consecuencia inmediata de la generalización que acabo de publicar en stats.stackexchange.com/a/83887 . La distribución de los residuos $x_i-\bar{x}$ es claramente simétrica respecto a $0$ por lo que su mediana tiene una distribución simétrica, por lo que su media es cero. Por tanto, la expectativa de la propia mediana (no sólo de los residuos) es igual a $0 + E(\bar{X}\ |\ \bar{X}=\bar{x}) = \bar{x}$ , QED.

0 votos

@whuber Lo siento, ¿residuos?

0 votos

Las definí en mi comentario: son las diferencias entre cada $x_i$ y su media.

8voto

David Pearce Puntos 2242

Dejemos que $X$ denotan la muestra original y $Z$ el vector aleatorio con entradas $Z_k=X_k-\bar X$ . Entonces $Z$ está centrada en la normalidad (pero sus entradas no son independientes, como puede verse por el hecho de que su suma es cero con toda probabilidad). Como función lineal de $X$ el vector $(Z,\bar X)$ es normal, por lo que el cálculo de su matriz de covarianza basta para demostrar que $Z$ es independiente de $\bar X$ .

En cuanto a $Y$ se ve que $Y=\bar X+T$ donde $T$ es la mediana de $Z$ . En particular, $T$ depende de $Z$ sólo por lo tanto $T$ es independiente de $\bar X$ y la distribución de $Z$ es simétrico, por lo que $T$ está centrado.

Finalmente, $$E(Y\mid\bar X)=\bar X+E(T\mid\bar X)=\bar X+E(T)=\bar X.$$

0 votos

Gracias, esto se preguntó hace casi un año y me alegro mucho de que por fin alguien lo aclare.

7voto

Jeff Bauer Puntos 236

La mediana de la muestra es un estadístico de orden y tiene una distribución no normal, por lo que la distribución conjunta de muestra finita de la mediana de la muestra y la media de la muestra (que tiene una distribución normal) no sería normal bivariada. Recurriendo a aproximaciones, asintóticamente se cumple lo siguiente (véase mi respuesta aquí ):

$$\sqrt n\Big [\left (\begin{matrix} \bar X_n \\ Y_n \end{matrix}\right) - \left (\begin{matrix} \mu \\ \mathbb v \end{matrix}\right)\Big ] \rightarrow_{\mathbf L}\; N\Big [\left (\begin{matrix} 0 \\ 0 \end{matrix}\right) , \Sigma \Big]$$

con

$$\Sigma = \left (\begin{matrix} \sigma^2 & E\left( |X-\mathbb v|\right)\left[2f(\mathbb v)\right]^{-1} \\ E\left(|X-\mathbb v|\right)\left[2f(\mathbb v)\right]^{-1} & \left[2f(\mathbb v)\right]^{-2} \end{matrix}\right)$$

donde $\bar X_n$ es la media de la muestra y $\mu$ la media de la población, $Y_n$ es la mediana de la muestra y $\mathbb v$ la mediana de la población, $f()$ es la densidad de probabilidad de las variables aleatorias implicadas y $\sigma^2$ es la varianza.

Así que aproximadamente para muestras grandes, su distribución conjunta es normal bivariada, por lo que tenemos que

$$E(Y_n \mid \bar X_n=\bar x) = \mathbb v + \rho\frac {\sigma_{\mathbb v}}{\sigma_{\bar X}}(\bar x -\mu)$$

donde $\rho$ es el coeficiente de correlación.

Manipulando la distribución asintótica para convertirla en la distribución conjunta aproximada de la media y la mediana muestrales (y no de las cantidades estandarizadas), tenemos $$\rho = \frac {\frac 1nE\left(|X-\mathbb v|\right)\left[2f(\mathbb v)\right]^{-1}}{\frac 1n \sigma \left[2f(\mathbb v)\right]^{-1}} = \frac {E\left(|X-\mathbb v|\right)}{\sigma }$$

Así que $$E(Y_n \mid \bar X_n=\bar x) = \mathbb v + \frac {E\left(|X-\mathbb v|\right)}{\sigma }\frac {\left[2f(\mathbb v)\right]^{-1}}{\sigma}(\bar x -\mu)$$

Tenemos que $2f(\mathbb v) = 2/\sigma\sqrt{2\pi}$ debido a la simetría de la densidad normal por lo que llegamos a

$$E(Y_n \mid \bar X_n=\bar x) = \mathbb v + \sqrt{\frac {\pi}{2}}E\left(\left|\frac {X-\mu}{\sigma}\right|\right)(\bar x -\mu)$$

donde hemos utilizado $\mathbb v = \mu$ . Ahora la variable estandarizada es una normal estándar, por lo que su valor absoluto es una distribución seminormal con valor esperado igual a $\sqrt{2/\pi}$ (ya que la varianza subyacente es la unidad). Por tanto,

$$E(Y_n \mid \bar X_n=\bar x) = \mathbb v + \sqrt{\frac {\pi}{2}}\sqrt{\frac {2}{\pi}}(\bar x -\mu) = \mathbb v + \bar x -\mu = \bar x$$

2 votos

Como siempre, buena respuesta +1. Sin embargo, como no tenemos información sobre el tamaño de la muestra, la distribución asintótica podría no cumplirse. No obstante, si no hay forma de obtener la distribución exacta, supongo que tendré que conformarme. Muchas gracias.

6voto

jldugger Puntos 7490

La respuesta es $\bar{x}$.

Deje $x = (x_1, x_2, \ldots, x_n)$ tienen una distribución multivariante $F$ para que todos los marginales son simétricas respecto a un valor común a $\mu$. (No importa si son independientes o incluso son idénticamente distribuidas.) Definir $\bar{x}$ a la media aritmética de los $x_i,$ $\bar{x} = (x_1+x_2+\cdots+x_n)/n$ y escribir $x-\bar{x} = (x_1-\bar{x}, x_2-\bar{x}, \ldots, x_n-\bar{x})$ para el vector de residuos. La simetría de la asunción en $F$ implica la distribución de la $x - \bar{x}$ es simétrico con respecto al $0$; es decir, cuando $E\subset\mathbb{R}^n$ es cualquier evento,

$${\Pr}_F(x - \bar{x}\in E) = {\Pr}_F(x - \bar{x}\in -E).$$

La aplicación de la generalización de resultados en http://stats.stackexchange.com/a/83887 muestra que la mediana de $x-\bar{x}$ tiene una distribución simétrica alrededor de $0$. Suponiendo que su expectativa existe (que es ciertamente el caso cuando las distribuciones marginales de la $x_i$ son Normales), que expectativa tiene que ser $0$ (debido a la simetría implica que sea igual a su propia negativa).

Ahora ya restando el mismo valor de $\bar{x}$ a partir de cada conjunto de valores de no cambiar su orden, $Y$ (la mediana de la $x_i$) es igual a $\bar{x}$ más de la media de $x-\bar{x}$. Por lo tanto, su expectativa condicional en $\bar{x}$ es igual a la expectativa de $x-\bar{x}$ condicional en $\bar{x}$,$E(\bar{x}\ |\ \bar{x})$. Esto último, obviamente, es$\bar{x}$, mientras que el primero es $0$ debido a la incondicional, la expectativa es $0$. Su suma es $\bar{x},$ QED.

0 votos

Gracias por publicarlo como una respuesta completa. Ahora comprendo la esencia de su argumento, pero podría hacerle un ping si algo sigue sin estar claro.

5 votos

JohnK, tengo que alertarte para que seas precavido. Me han llamado la atención sobre un contraejemplo de este argumento. He animado a su creador a que lo publique aquí para que se siga discutiendo, pero brevemente se refiere a una distribución bivariante discreta con marginales simétricos pero marginales condicionales asimétricos. Su existencia apunta a una deducción errónea al principio de mi argumento. Actualmente espero que el argumento pueda ser rescatado imponiendo condiciones más fuertes en el $x_i$ Pero mi atención está centrada en otra cosa y es posible que no pueda pensar en esto durante un tiempo.

4 votos

Mientras tanto, le animo a que no acepte esta respuesta. Normalmente borraría cualquier respuesta mía que se sepa que es incorrecta, pero (como ya se habrá dado cuenta) me gustan las soluciones basadas en los primeros principios más que en los cálculos detallados, así que espero que se pueda rescatar este argumento. Por lo tanto, tengo la intención de dejarlo abierto a la crítica y a la mejora (y, por lo tanto, lo he hecho CW); que los votos caigan como puedan.

6voto

kjetil b halvorsen Puntos 7012

Esto es más sencillo de lo que hacen las respuestas anteriores. La media muestral es un estadístico completo y suficiente (cuando se conoce la varianza, pero nuestros resultados no dependen de la varianza, por lo que serán válidos también en la situación en que se desconozca la varianza). Entonces el Rao-Blackwell junto con los teoremas de Lehmann-Scheffe (ver wikipedia ...) implicarán que la expectativa condicional de la mediana, dada la media aritmética, es el único estimador insesgado de varianza mínima de la expectativa $\mu$ . Pero sabemos que es la media aritmética, por lo que el resultado se deduce.

También utilizamos que la mediana es un estimador insesgado, lo que se deduce de la simetría.

1 votos

Por simetría $E[Y]=\mu$ En efecto. Entonces a partir de estos dos teoremas sabemos que $E[Y|\bar{X}]$ es el estimador insesgado de mínima varianza único para $\mu$ que ya sabemos que es igual a $\bar{X}$ . Esta es una respuesta brillante, muchas gracias. La habría marcado como la correcta, si no lo hubiera hecho ya con otra respuesta.

i-Ciencias.com

I-Ciencias es una comunidad de estudiantes y amantes de la ciencia en la que puedes resolver tus problemas y dudas.
Puedes consultar las preguntas de otros usuarios, hacer tus propias preguntas o resolver las de los demás.

Powered by:

X