Digamos que tengo una variable normal $X$ . Me alimentan $X$ en alguna función, que le aplica varias operaciones matemáticas - por ejemplo, suma, resta, multiplicación, división, $x^r$ , $e^x$ Funciones trigonométricas, etc.
¿Qué ocurre con la desviación estándar?
La suma y la resta parecen triviales: si se imaginan los datos trazados como un gráfico de dispersión, $X+nq$ es sólo $X$ con el eje vertical desplazado por $q$ . Dado que la desviación estándar caracteriza la dispersión del punto, y que mover el eje no cambia la forma del gráfico, estas dos operaciones no cambiarán la desviación estándar.
Por la misma lógica, la multiplicación escala claramente la desviación estándar en la misma cantidad que el eje. Uno podría literalmente dibujar la distribución en un papel, marcar la desviación estándar como un segmento de línea, luego borrar las etiquetas del eje y escribir las escaladas y obtener la desviación estándar ajustada.
Sin embargo, para las potencias esto no funciona: Por ejemplo, con $e^x$ los puntos que están más alejados del eje se dispersan más, y los que están por debajo se dispersan menos. De hecho, $e^x$ cambiará la media y el sesgo de la distribución, y el histograma tendrá un aspecto completamente diferente, por lo que no es sorprendente que $std(f(x))$ no es sólo $f(std(x))$ .
Para las funciones trigonométricas, mi intuición se rompe por completo. Ni siquiera sé cómo interpretarla de forma útil. Sé que puedo simplemente escribir la ecuación que describe la distribución normal, aplicar la función trigonométrica, hacer el álgebra y partir de ahí, pero intuitivamente estoy atascado.
¿Existen clases amplias y fácilmente determinables de funciones que "dejan la desviación estándar en paz" y funciones que la deforman de forma extraña? ¿Existe una manera fácil de saber, sin hacer mucho álgebra, si la desviación estándar de una función dada puede relacionarse fácilmente con la desviación estándar de su argumento?
Motivación: En las ciencias físicas, a menudo se acaba relacionando matemáticamente alguna cantidad medida con otras cantidades medidas. Por ejemplo, el período de un péndulo que oscila se aproxima por:
$$T \approx 2\pi\sqrt{\frac{L}{g}}$$
Esto puede derivarse incluso de un simple análisis unitario. Pero si se quiere confirmar (o rechazar) experimentalmente esta regla, hay un reto práctico además de construir el aparato experimental: Ninguna de las entradas ( $L$ y $g$ Aunque $\pi$ también es problemática, aunque más exótica) puede conocerse con precisión. Hay que medirlos, y la medición tendrá algún error (que a menudo se considera de carácter normal).
La pregunta es, entonces, cómo el error en $L$ o $g$ afectan al error del valor predicho para $T$ (ignoremos el otro problema de medir realmente $T$ )? Y lo que es más importante, ¿se puede decidir esto fácilmente sin necesidad de hacer muchos cálculos? Consideremos, por ejemplo, a un experimentalista que se encuentra pensando: "¿De verdad tengo que subir a buscar la regla? ¿Arruinará todo el cálculo si sólo calculo la longitud de la cuerda?"
Obsérvese que la resolución del problema de forma analítica no es una opción en este caso: Podrías ir fácilmente a buscar la regla en una fracción de tiempo y acabar con ella, si esa fuera la mejor opción.
Otro ejemplo: La ecuación de Drake utiliza una simple multiplicación para estimar una variable desconocida a partir de cantidades conocidas (la llamada El problema de Fermi ). Supuestamente, como la ecuación es un producto, aunque haya cierta varianza en las estimaciones de los parámetros, el resultado de la ecuación puede ser muy preciso. De nuevo, la pregunta crítica es (creo), ¿cómo afecta la varianza de las entradas a la varianza de las salidas?
Dicho de otra manera, mi pregunta es: cuando se aplica un modelo matemático a los datos empíricos, ¿se puede saber fácilmente qué mediciones tienen que ser realmente muy precisas, pero cuáles están bien si se desvían un poco?