Simplemente me gustaría añadir a La muy acertada respuesta de Innisfree .
Tres puntos:
No redondear en los esteos intermedios
El punto 1 de Innisfree está casi "obsoleto": No he utilizado (y apenas he visto) una calculadora desde mediados de los ochenta; creo que la última vez fue en un examen de licenciatura: cualquier cálculo hoy en día se va a poner en algo como Mathematica, Maple o Excel para que los pasos puedan ser probados y depurados sin tener que pasar por teclear los números en el teclado de una calculadora si la bomba. Aunque en casos extremos usted puede necesita tener en cuenta la 1 parte en $10^{16}$ redondeo en un número de 64 bits (que, si se quiere, se puede evitar con aritmética de precisión arbitraria en Mathematica)
Teoría general
El general La regla detrás del punto 2 de Innisfree y la explicación es la siguiente. Supongamos que su algoritmo de procesamiento de datos consiste en calcular alguna función $f(\{a_j\})$ de los datos $a_j \in \mathbb{R}$ . Hay incertidumbres en sus datos, y las fluctuaciones estadísticas en sus datos engendrarán una "nube" correspondiente de posibles valores en $f$ . Así que pensamos en el $a_j\in A_j$ vagando en pequeñas bolas abiertas $A_j \subset\mathbb{R}$ en torno a sus "supuestos" valores (imaginamos un conjunto de experimentos idénticos), y estas bolas representan la incertidumbre de tus observaciones: la precisión de tus instrumentos calculada a partir de los suelos de señal/ruido o los datos del fabricante, por ejemplo. La "nube" de valores que el resultado procesado verá plausiblemente si su teoría es cierta es el conjunto de imágenes $f(A_1,\,A_2,\,A_3\,\cdots)$ . Si las incertidumbres en $a_j$ son "pequeños" ( es decir tal que una serie de Taylor lineal de primer orden es exacta para cada valor de cada bolita $A_j$ ), entonces podemos calcular la "nube" de valores plausibles como sigue. La variación total de $f$ variaciones dadas $\delta a_j$ en sus datos son aproximadamente:
$$\delta f \approx \sum_j \frac{\partial f}{\partial a_j} \, \delta_{a_j}$$
por lo que, si los datos $a_j$ tener medios $\mu_j$ y desviaciones $\sigma_j^2$ entonces suele ser un buen modelo estadístico para la variación de $f$ es que $f$ es una variable aleatoria normalmente distribuida con media y varianza dadas por:
$$\mu = f(a_1, a_2, \, \cdots)$$ $$\sigma^2 = \sum_j \left(\frac{\partial f}{\partial a_j}\right)^2 \, \sigma_j^2$$
La adición de varianzas significa que las desviaciones estándar suman una suma pitagórica, de ahí la regla número dos de Innisfree.
Procedimiento práctico
En su mayoría, lo anterior es mucho más técnico de lo que vas a necesitar. Además, en la práctica (sobre todo con un algoritmo de procesamiento de datos de muchos pasos) si necesitas aplicarlo a tus datos, la forma de calcular las incertidumbres es con un análisis de sensibilidad utilizando la hoja de cálculo o el cuaderno de Mathmatica o lo que sea que utilices para el procesamiento. Haga que un generador de números aleatorios perturbe las entradas de su cálculo con variables pseudoaleatorias uniformemente distribuidas de varianza en línea con la relación señal/ruido de los datos o la expresión de incertidumbre del fabricante. Anota los resultados procesados y repite una y otra vez con nuevas entradas aleatorias. Después de, digamos, 100 intentos, debería ver que sus resultados siguen distribuciones normales y puede utilizar, digamos $\pm 3 \sigma$ como su incertidumbre.
Lo bueno de este método es que encontrará definitivamente cosas como recurrencias patológicas (numéricamente inestables) en un algoritmo de procesamiento de datos de muchos pasos. Esto es bastante raro, y se ve más a menudo en cosas como el trabajo numérico de cosas como las funciones de Bessel por una relación de recurrencia. Sin embargo, es totalmente desastroso cuando ocurre y hay que saber que no se puede confiar en los valores previstos de $f$ a partir de los datos experimentales cuando lo hace; además, he visto que ha sucedido una o dos veces en el procesamiento de los datos medidos anteriormente. En tal caso, hay que trabajar hacia atrás ajustando las incertidumbres (reduciéndolas) de las perturbaciones de entrada hasta que las que se ven en la variación de los resultados procesados sean razonables para tus propósitos. De este modo, sabrá la precisión de sus mediciones debe ser para hacer una conclusión significativa de su experimento. En puede bien puede ser que la conclusión sea que esa precisión es inalcanzable con los instrumentos y procedimientos que está utilizando: el experimento es por tanto y no puede ser más que inconcluso en su forma actual. A continuación, puede utilizar estas especificaciones para diseñar mejores experimentos, o para indicarle lo que puede y no puede descubrirse experimentalmente.