Tal estimador no existe.
La intuición es que la mediana puede permanecer fija mientras desplazamos libremente la densidad de probabilidad a ambos lados de ella, de modo que cualquier estimador cuyo valor medio sea la mediana para una distribución tendrá una media diferente para la distribución alterada, lo que lo convierte en sesgado. La siguiente exposición da un poco más de rigor a esta intuición.
Nos centramos en las distribuciones $F$ tener medianas únicas $m$ de modo que, por definición $F(m) \ge 1/2$ y $F(x) \lt 1/2$ para todos $x \lt m$ . Fijar un tamaño de muestra $n \ge 1$ y supongamos que $t: [0,1]^n \to [0,1]$ estimaciones $m$ . (Bastará con que $t$ sólo estar acotado, pero normalmente no se consideran seriamente los estimadores que producen valores obviamente imposibles). Hacemos no suposiciones sobre $t$ ni siquiera tiene que ser continua en ninguna parte.
El significado de $t$ siendo insesgada (para este tamaño de muestra fijo) es que
$$E_F[t(X_1, \ldots, X_n)] = m$$
para cualquier muestra iid con $X_i \sim F$ . Un "estimador insesgado" $t$ es uno con esta propiedad para todos tal $F$ .
Supongamos que existe un estimador insesgado. Deduciremos una contradicción aplicándola a un conjunto de distribuciones particularmente sencillo. Consideremos las distribuciones $F = F_{x,y,m, \varepsilon}$ que tengan estas propiedades:
-
$0 \le x \lt y \le 1$ ;
-
$0 \lt \varepsilon \lt (y-x)/4$ ;
-
$x + \varepsilon \lt m \lt y - \varepsilon$ ;
-
$\Pr(X = x) = \Pr(X = y) = (1-\varepsilon)/2$ ;
-
$\Pr(m-\varepsilon \le X \le m+\varepsilon) = \varepsilon$ y
-
$F$ es uniforme en $[m-\varepsilon, m+\varepsilon]$ .
Estas distribuciones sitúan la probabilidad $(1-\varepsilon)/2$ en cada una de $x$ y $y$ y una pequeña cantidad de probabilidad colocada simétricamente alrededor de $m$ entre $x$ y $y$ . Esto hace que $m$ la mediana única de $F$ . (Si le preocupa que no sea una distribución continua, convuélvala con una gaussiana muy estrecha y trunque el resultado en $[0,1]$ : el argumento no cambiará).
Ahora, para cualquier estimador putativo de la mediana $t$ una estimación sencilla muestra que $E[t(X_1, X_2, \ldots, X_n)]$ está estrictamente dentro de $\varepsilon$ de la media de los $2^n$ valores $t(x_1, x_2, \ldots, x_n)$ donde el $x_i$ varían entre todas las combinaciones posibles de $x$ y $y$ . Sin embargo, podemos variar $m$ entre $x + \varepsilon$ y $y - \varepsilon$ un cambio de al menos $\varepsilon$ (en virtud de las condiciones 2 y 3). Por tanto, existe una $m$ y de ahí una distribución correspondiente $F_{x,y,m,\varepsilon}$ para el que esta expectativa sí no igual a la mediana, QED.