Un estimador en el sentido más general es un (determinista) matemática de la función de todos los posibles potenciales de datos. Es decir, si los datos de un experimento será considerado como un ordenado $n$-tupla $(x_1, x_2, \ldots, x_n)$, luego de un estimador es una función
$$t:\mathbb{R}^n \to \mathbb{R}$$
que produce un número $t(x_1, x_2, \ldots, x_n)$ (el cálculo) para cada posible elemento $(x_1, x_2, \ldots, x_n)$ $\mathbb{R}^n$ (los datos).
Cuando los datos se modelan como el resultado de un vector de valores) de la variable aleatoria $(X_1, X_2, \ldots, X_n)$, luego
$$T = t(X_1, X_2, \ldots, X_n)$$
es en sí misma una variable aleatoria (en virtud de la aleatoriedad de su argumento) proporcionado $t$ es medible (que es una importante técnica de la condición, que conceptual de los efectos puede ser ignorada). (Para obtener más información acerca de la capacidad de medición, consulte el "después" en el enlace anterior.)
El error estándar de la estimación de $t$ es la desviación estándar (SD) de $T$.
Un alcance de ejemplo es tomar una muestra aleatoria $(X_1, X_2, \ldots, X_n)$ (de forma independiente, con reemplazo) de una población media de $\mu$ y la desviación estándar $\sigma$ cuales son desconocidos. Para la estimación de $\mu$ puede utilizar la media de la muestra,
$$t(x_1, x_2, \ldots, x_n) = \frac{1}{n}(x_1 + x_2 + \cdots + x_n).$$
La teoría de la probabilidad, con apoyo de las suposiciones acerca de la muestra, nos dice que $t$ estimaciones de la media en el sentido de que
$$\mathbb{E}(T) = \mu$$
y proporciona una medida de cómo de cerca se tiende a la estimación de la media, tales como
$$\text{SD}(T) = \frac{\sigma}{\sqrt{n}}.$$
Este valor es el error estándar de la [estimación de la media, donde el término "media", describe a $T$ (la media de la muestra), no $\mu$ (la media de la población)! El hecho de que es también una desviación estándar (de la variable aleatoria $T$) puede llevar a equívocos entre los que se supone que "desviación estándar" se aplica sólo a la población.