Así que supongamos que tenemos un valor $A$ con una incertidumbre absoluta $\pm a$ y otro valor $B$ con una incertidumbre absoluta $b$ es fácil demostrar que la regla para tratar las incertidumbres al sumar estos valores es así: $$(A\pm a)+(B\pm b)=(A+B)\pm (a+b)$$ Sin embargo, la regla para tratar las incertidumbres al multiplicar los valores es: $$(A\pm a)\times(B\pm b)=(A\times B)\pm \left[\left(\frac{a}{A}\cdot100\right)+\left(\frac{b}{B}\cdot100\right)\right]\%$$ mi pregunta es cómo se podría probar este hecho o es sólo una convención útil sin prueba lógica. Si es esto último, ¿por qué es útil tratar las incertidumbres de esta manera? Gracias de antemano :)
Respuestas
¿Demasiados anuncios?La regla es $(A \pm a) \times (B \pm b)=AB \pm Ab \pm Ba \pm ab$ que se puede verificar por el principio de distribución. A menudo lo escribimos como $(A \pm a) \times (B \pm b)=AB(1 \pm \frac bB \pm \frac aA \pm \frac {ab}{AB})$ que tiene la idea de que estás recordando que los errores fraccionarios se suman. Entonces si los errores fraccionarios son pequeños decimos $\frac {ab}{AB}$ es pequeño dos veces y puede ser ignorado, dando el más famoso $$(A \pm a) \times (B \pm b)=AB\left(1 \pm \frac aA \pm \frac bB\right)$$
Supongamos que $A, B$ son las variables y $a, b$ son sus incertidumbres absolutas, respectivamente. Podemos entonces calcular la incertidumbre absoluta de $AB$ de la siguiente manera:
$$\max(AB)= (A+a)(B+b)=AB + Ab + Ba + ab$$ $$\min(AB)= (A-a)(B-b)=AB - Ab - Ba + ab$$
Así que la incertidumbre absoluta de $AB = \frac{\max(AB) - \min(AB)}2 = \frac{2Ab + 2Ba}2 = Ab + Ba$
% de incertidumbre de $AB$ = absoluto / $AB = b/B + a/A =$ %incertidumbre de $A$ + % de incertidumbre de $B$ .