Tal vez dos ejemplos aclaren las cosas
- Datos 1,2,3
La media es $$<Q> = \sum_{i=1}^n \frac{Q_i}{N} = \frac{6}{3} = 2$$
La fórmula de la desviación estándar es una forma de calcular una "medida de dispersión", es decir, una indicación de la dispersión de los datos. También puede ser una indicación de los errores en la medición.
Dado que algunos datos son inferiores a la media y otros superiores, se incluye el cuadrado antes de la raíz cuadrada para que todas las diferencias con respecto a la media sean positivas, ya que de lo contrario podríamos estar utilizando una fórmula que diera una dispersión de cero.
$$d=\sqrt\frac{\sum_{i=1}^n(Q-<Q>)^2}{N} =\sqrt\frac{(-1)^2+0^2+(1)^2}{3} = 0.8165$$
- Datos 10,20,30
La media es ahora $20$ y $d$ resulta ser $8.165$
La segunda serie de datos está más repartida, o el error en las mediciones es mayor.
En cada caso, es probable que el valor "verdadero" de la cosa que se mide esté en el rango $Q = <Q> \pm d$
En el segundo ejemplo, si una teoría predijera que $Q=40$ y las mediciones habían dado $20 \pm 8.165$ la probabilidad de que el $40$ podría ser cierto, se puede encontrar entonces utilizando una distribución normal y encontrando la probabilidad de que una medición sea $\frac{20}{8.165}$ es decir $2.45$ desviaciones estándar o $2.45d$ de la media.
Si no se conoce la verdadera desviación estándar, sino que se estima a partir de los datos, hay un ajuste adicional, pero eso es un tecnicismo...