9 votos

¿Por qué la propagación de la incertidumbre es lineal?

Estoy en duda con una cosa: vamos a imaginar que tenemos una $n+1$ cantidades, $n$ de ellos se mide directamente, y la otra está relacionada con la primera, $n$ a través de una función $f : \mathbb{R}^n \to \mathbb{R}$. Si el $x_i$ es una de las cantidades que se miden directamente y si $\Delta x_i$ es la incertidumbre, entonces, he aprendido que la incertidumbre de la cantidad de $y = f(x_1, \dots x_n)$ está dada por:

$$\Delta y=\sum_{i=1}^{n}{\frac{\partial f}{\partial x_i}\Delta x_i}$$

Mi problema en la comprensión de esto es: "bien, si $f$ es una función, la derivada es la transformación lineal $df : \mathbb{R}^n \to \mathbb{R}$ da por:

$$df=\sum_{i=1}^{n}\frac{\partial f}{\partial x_i}dx_i$$

Donde $dx_i : \mathbb{R}^n \to \mathbb{R}$ está dado por $dx_i(a_1 \dots a_n) = a_i$. Por lo tanto, lo que estamos diciendo, es que $\Delta y = df ( \Delta x_1, \dots \Delta x_n)$, en otras palabras, estamos diciendo que la incertidumbre de $y$ está dado por una función lineal del vector de las incertidumbres de las cantidades $x_i$. ¿Por qué esto debe ser verdad ? Quiero decir, ¿cuál es el razonamiento detrás de esto ? Yo realmente no se consigue el punto, mi maestro acaba de dar a la ecuación sin justificar ni nada de eso.

Cualquier ayuda y de referencia es de agradecer. Muchas gracias de antemano y lo siento si esta pregunta es tonta.

16voto

barry Puntos 131

No, al menos no en el sentido estadístico. Lo que están haciendo es encontrar la (linealmente aproximado) variación en $y$ obtenido por el cambio de las aportaciones de sus desviaciones estándar. Esto está bien como una aproximación, pero se puede hacer mejor con casi ningún trabajo adicional.

Si desea que el real de la varianza y la desviación estándar de $y$, la fórmula es diferente. Supongamos que $$ y = f(x_1, \ldots, x_n) = f_0 + \sum_{i=1}^n a_i x_i + \sum_{i=1}^n \sum_{j=i}^n b_{ij} x_i x_j + \mathcal{O}(x^3). $$ En primer lugar, podemos calcular la expectativa de $y$, $E(y) \equiv \hat{y}$, muy fácilmente: $$ \hat{y} = f_0 + \sum_{i=1}^n a_i \hat{x}_i + 2 \sum_{i=1}^n \sum_{j=i+1}^n b_{ij} \hat{x}_i \hat{x}_j + \sum_{i=1}^n b_{ii} E(x_i^2) + \mathcal{O}(x^3). $$ Esto se deduce del hecho de que las expectativas son lineales. Nota aquí asumimos $x_i$ es independiente de $x_j$, a menos, claro,$i = j$; esto es, cómo la expectativa distribuye sobre el producto. Si las entradas están correlacionadas, este simple análisis de falla. Tenga en cuenta también que esto está muy cerca de lo que imagino "significa" valor de $y$ es, pero no del todo. Para los de segundo orden, tiene en cuenta las expectativas de los cuadrados de las entradas de la no coincidencia de los cuadrados de las expectativas. Al menos la máxima de "enchufe en el mejor de los valores de $x$ para obtener el mejor valor de $y$" funciona perfectamente a la primera orden en $x$.

Podemos plaza de este resultado, produciendo \begin{align} \hat{y}^2 & = f_0^2 + 2f_0 \sum_{i=1}^n a_i \hat{x}_i + 4f_0 \sum_{i=1}^n \sum_{j=i+1}^n b_{ij} \hat{x}_i \hat{x}_j \\ & \quad \qquad + 2f_0 \sum_{i=1}^n b_{ii} E(x_i^2) + \sum_{i=1}^n \sum_{j=1}^n a_i a_j \hat{x}_i \hat{x}_j + \mathcal{O}(x^3). \end{align} a lo Largo de líneas similares, tenemos \begin{align} E(y^2) & = E\left(f_0^2 + 2f_0 \sum_{i=1}^n a_i x_i + 2f_0 \sum_{i=1}^n \sum_{j=i}^n b_{ij} x_i x_j + \sum_{i=1}^n \sum_{j=1}^n a_i a_j x_i x_j\right) + \mathcal{O}(x^3) \\ & = f_0^2 + 2f_0 \sum_{i=1}^n a_i \hat{x}_i + 4f_0 \sum_{i=1}^n \sum_{j=i+1}^n b_{ij} \hat{x}_i \hat{x}_j + 2f_0 \sum_{i=1}^n b_{ii} E(x_i^2) \\ & \quad \qquad + 2 \sum_{i=1}^n \sum_{j=i+1}^n a_i a_j \hat{x}_i \hat{x}_j + \sum_{i=1}^n a_i^2 E(x_i^2) + \mathcal{O}(x^3). \end{align}

Finalmente, estamos en una posición para calcular la varianza de $y$. Esto es simplemente $$ (\Delta y)^2 \equiv E(y^2) - \hat{y}^2 = \sum_{i=1}^n a_i^2 \left(E(x_i^2) - \hat{x}_i^2\right) + \mathcal{O}(x^3). $$ De hecho, este resultado puede ser escrito enteramente en términos de la primera derivados, $a_i$, y de las variaciones de los insumos, $(\Delta x_i)^2$: $$ (\Delta y)^2 \approx \sum_{i=1}^n \left(\frac{\partial f}{\partial x_i}\right)^2 (\Delta x_i)^2. $$ La desviación estándar $\Delta y$, que es lo que esperaba al ver $y = \hat{y} \pm \Delta y$, es simplemente la raíz cuadrada de esto: $$ \Delta y \approx \left(\sum_{i=1}^n \left(\frac{\partial f}{\partial x_i}\right)^2 (\Delta x_i)^2\right)^{1/2}. $$ Es esta fórmula que la gente tiene en mente cuando dicen cosas como "hemos añadido la incertidumbre en cuadratura," ya que este resultado es muy ampliamente aplicable - se aplica cuando tenemos continuamente una función derivable de entradas independientes con medios y desviaciones estándar.

12voto

Ken Puntos 8074

La idea es sólo que si las incertidumbres son lo suficientemente pequeñas se puede aproximar la función por su serie de Taylor

ps

Si descuidamos los términos de segundo orden, la función es una función lineal y las incertidumbres se combinan como lo harían para una función lineal. Si las incertidumbres son tan grandes que los términos de orden superior importan, entonces es necesario hacer algo más complicado para propagar la incertidumbre (por ejemplo, Monte Carlo).

i-Ciencias.com

I-Ciencias es una comunidad de estudiantes y amantes de la ciencia en la que puedes resolver tus problemas y dudas.
Puedes consultar las preguntas de otros usuarios, hacer tus propias preguntas o resolver las de los demás.

Powered by:

X