Sí, la única fórmula sensata para el error total es la suma en cuadratura, $$ \Delta X_{\rm total} = \sqrt { \Delta X_{\rm syst}^2 + \Delta X_{\rm stat}^2 } $$ La hipótesis clave para la validez de la fórmula es que las dos fuentes de error son independientes, es decir, no están correlacionadas. $$ \langle \Delta X_{\rm syst} \Delta X_{\rm stat} \rangle = 0$$ Por ello, tenemos $$\langle \Delta X_{\rm total}^2 \rangle = \langle (\Delta X_{\rm syst} +\Delta X_{\rm stat} )^2 \rangle = \sigma_{\rm stat}^2 + \sigma_{\rm syst}^2$$ El término $2ab$ de $(a+b)^2=a^2+2ab+b^2$ se cae debido a la independencia citada en la ecuación anterior mostrada. La última ecuación mostrada es una prueba completa de su fórmula.
Quiero destacar que la fórmula pitagórica no depende de ninguna normalidad de las distribuciones. Es simplemente álgebra lineal utilizada en el cálculo del valor de la expectativa de una expresión bilineal en la que los términos mixtos contribuyen con cero debido a la independencia anterior. Si alguien te dice que tienes que asumir el teorema del límite central o la gaussianidad de la distribución, simplemente se equivoca.
Por supuesto, si se quiere convertir la información sobre el margen de error en $p$ -es decir, los niveles de confianza, es necesario conocer la forma de la distribución, es decir, suponer que es gaussiana. Si tanto el error sistemático como el estadístico se distribuyen a través de la distribución gaussiana, también lo hará el error total. Pero si no hablamos de $p$ -no necesitamos asumir nada en absoluto sobre la gaussianidad.
Sin embargo, es muy útil separar el error sistemático y el estadístico porque si se repite alguna medición con el mismo equipo, el error estadístico se suma en cuadratura pero el error sistemático se suma linealmente.
Esta afirmación significa que los errores estadísticos de "ejecuciones" independientes del mismo experimento no están correlacionados entre sí $$ \langle \Delta X_{\rm stat1} \Delta X_{\rm stat2} \rangle = 0$$ y siguen sin estar correlacionados con todo el error sistemático, además. Sin embargo, los errores sistemáticos están ligados al dispositivo, que sigue siendo el mismo, por lo que los errores sistemáticos de 2 "ejecuciones" repetidas están perfectamente correlacionados: $$ \langle \Delta X_{\rm syst1} \Delta X_{\rm syst2} \rangle = \sigma(\Delta X_{\rm syst1})\sigma(\Delta X_{\rm syst2}) \neq 0$$ En un $2D$ plano, la función de distribución se concentraría cerca de la línea inclinada "diagonal" $\Delta X_{\rm syst1} = k \Delta X_{\rm syst2} $ . Cuidado, en algunas condiciones, el resultado anterior necesitaría un signo menos. Esta linealidad marca la diferencia. En particular, los errores estadísticos de las "cantidades intensivas" pueden reducirse repitiendo el experimento, mientras que los errores sistemáticos no.
Imagina que el LHC mide la tasa de desintegración de una partícula como $\Gamma=CP$ donde $C$ es una constante fija sin error y $P$ es el porcentaje de sus eventos (colisiones) que tienen una determinada propiedad. Hagamos dos ejecuciones con $n_1$ y $n_2$ eventos, respectivamente. Se espera que den el mismo número $n$ y el número total es $N=2n$ .
Sin embargo, la primera carrera ha $\Delta n_1$ con un componente tanto estadístico como sistemático y lo mismo para $\Delta n_2$ . ¿Cuál es el número total de colisiones? Hemos medido $n_1+n_2$ colisiones, pero este resultado tiene un margen de error (más concretamente, hablaré del margen de error de $\Gamma$ con el coeficiente adecuado). Para el error tenemos $$ \Delta N = \Delta n_1+\Delta n_2 = \Delta n_{\rm 1stat}+\Delta n_{\rm 1syst}+\Delta n_{\rm 2stat}+\Delta n_{\rm 2syst}$$ ¿Cuál es el valor esperado de su cuadrado? $$ \langle (\Delta N)^2\rangle = (\Delta n_{\rm 1syst}+\Delta n_{\rm 2syst})^2 + (\Delta n_{\rm 1stat})^2 + (\Delta n_{\rm 2stat})^2$$ Obsérvese que los errores estadísticos de las dos series se elevaron primero al cuadrado y luego se sumaron; para los errores sistemáticos, se sumaron primero y luego se elevaron al cuadrado. Como resultado, la contribución sistemática al error de la tasa de desintegración no cambiará cuando se haga otra, la segunda corrida. El error estadístico se reducirá en el factor $1/\sqrt{2}$ . Como las distintas partes del error total se comportan de forma diferente, es bueno conocer los errores por separado.
Pero si sólo se utiliza un aparato o un montaje una vez y luego se destruye, no hay razón para recordar la separación y el margen de error total correcto se obtiene sumando en cuadratura. Eso es lo que hicieron muchos equipos experimentales de alta energía y la razón no es que sean descuidados con la estadística. El cálculo pitagórico es perfectamente válido y puede ser utilizado por quienes saben lo que hacen. Sólo se desaconseja a los "principiantes en estadística" de la escuela que combinen estas cosas en cuadratura porque podrían sumar los errores de forma incorrecta si consideran muchas mediciones con el mismo aparato.
Pero la suma de los márgenes de error sistemático y estadístico de forma lineal siempre ser erróneo porque siempre son independientes entre sí. El valor numérico del margen de error sería mayor que el de la fórmula pitagórica, y un error mayor les parece "bien" a algunas personas porque hace que los experimentadores parezcan más prudentes o "más conservadores". Pero sigue siendo un resultado erróneo, de todos modos. Si alguien encontrara una prueba/evidencia de 5 sigmas para un efecto utilizando la fórmula pitagórica para el margen de error y tú negaras su prueba/evidencia de 5 sigmas porque calcularías tu margen de error exagerado (probablemente por la simple suma de los márgenes de error sistémico y estadístico), obteniendo por tanto sólo 3 sigmas, entonces serías un negador de una prueba experimental válida de un efecto, lo cual es malo independientemente de que también puedas afirmar que eres "conservador" o "cauteloso" ;-)
Sólo hay una fórmula correcta en la ciencia y para un único error estadístico y sistemático, viene dada por su fórmula pitagórica.