Usted busca un lineal estimador para la media de la $\mu$ de la forma
$$\hat{\mu} = \sum_{i=1}^{n} \alpha_i x_i$$
donde el $\alpha_i$ son los pesos y $x_i$ son las observaciones. El objetivo es encontrar los valores adecuados para los pesos. Deje $\sigma_i$ ser la verdadera desviación estándar de $x_i$, que puede o no coincidir con el estimado de la desviación estándar es muy probable que tengas. Suponga que las observaciones son imparciales; es decir, sus expectativas a todos la igualdad de la media de $\mu$. En estos términos podemos calcular que la expectativa de $\hat{\mu}$ es
$$\mathbb{E}[\hat{\mu}] = \sum_{i=1}^{n} \alpha_i \mathbb{E}[x_i] = \mu \sum_{i=1}^{n} \alpha_i$$
y de la $x_i$ son no correlacionados) la varianza de este estimador es
$$Var[\hat{\mu}] = \sum_{i=1}^{n} \alpha_i^2 \sigma_i^2 .$$
En este punto muchas personas requieren que el estimador de ser imparcial; es decir, queremos que sus expectativas de igualdad de la verdadera media. Esto implica que los pesos deben sumar a la unidad. Sujeto a esta restricción, la precisión del estimador (medido con mean square error) se ha optimizado mediante la minimización de la varianza. La única solución (se obtiene fácilmente con un multiplicador de Lagrange o por la re-interpretación de la situación geométricamente como un problema de minimización de la distancia) es que los pesos $\alpha_i$ debe ser proporcional a $1/\sigma_i^2$. La suma-a-la unidad de restricción de los pines de abajo de sus valores, produciendo
$$\hat{\mu} = \frac{\sum_{i=1}^{n} x_i / \sigma_i^2}{\sum_{i=1}^{n} 1 / \sigma_i^2}.$$
En otras palabras, el mínimo de la varianza insesgada estimador de la media se obtiene haciendo que el peso inversamente proporcional a las desviaciones.
Por lo general, no conocen la verdadera variaciones $\sigma_i$. Sobre todo lo que podemos hacer es hacer que los pesos inversamente proporcional a la estimación de varianzas (los cuadrados de sus desviaciones estándar) y la confianza en que esto funcionará bien.