No, al menos no en el sentido estadístico. Lo que están haciendo es encontrar la (linealmente aproximado) variación en $y$ obtenido por el cambio de las aportaciones de sus desviaciones estándar. Esto está bien como una aproximación, pero se puede hacer mejor con casi ningún trabajo adicional.
Si desea que el real de la varianza y la desviación estándar de $y$, la fórmula es diferente. Supongamos que
$$ y = f(x_1, \ldots, x_n) = f_0 + \sum_{i=1}^n a_i x_i + \sum_{i=1}^n \sum_{j=i}^n b_{ij} x_i x_j + \mathcal{O}(x^3). $$
En primer lugar, podemos calcular la expectativa de $y$, $E(y) \equiv \hat{y}$, muy fácilmente:
$$ \hat{y} = f_0 + \sum_{i=1}^n a_i \hat{x}_i + 2 \sum_{i=1}^n \sum_{j=i+1}^n b_{ij} \hat{x}_i \hat{x}_j + \sum_{i=1}^n b_{ii} E(x_i^2) + \mathcal{O}(x^3). $$
Esto se deduce del hecho de que las expectativas son lineales. Nota aquí asumimos $x_i$ es independiente de $x_j$, a menos, claro,$i = j$; esto es, cómo la expectativa distribuye sobre el producto. Si las entradas están correlacionadas, este simple análisis de falla. Tenga en cuenta también que esto está muy cerca de lo que imagino "significa" valor de $y$ es, pero no del todo. Para los de segundo orden, tiene en cuenta las expectativas de los cuadrados de las entradas de la no coincidencia de los cuadrados de las expectativas. Al menos la máxima de "enchufe en el mejor de los valores de $x$ para obtener el mejor valor de $y$" funciona perfectamente a la primera orden en $x$.
Podemos plaza de este resultado, produciendo
\begin{align}
\hat{y}^2 & = f_0^2 + 2f_0 \sum_{i=1}^n a_i \hat{x}_i + 4f_0 \sum_{i=1}^n \sum_{j=i+1}^n b_{ij} \hat{x}_i \hat{x}_j \\
& \quad \qquad + 2f_0 \sum_{i=1}^n b_{ii} E(x_i^2) + \sum_{i=1}^n \sum_{j=1}^n a_i a_j \hat{x}_i \hat{x}_j + \mathcal{O}(x^3).
\end{align} a lo Largo de líneas similares, tenemos
\begin{align}
E(y^2) & = E\left(f_0^2 + 2f_0 \sum_{i=1}^n a_i x_i + 2f_0 \sum_{i=1}^n \sum_{j=i}^n b_{ij} x_i x_j + \sum_{i=1}^n \sum_{j=1}^n a_i a_j x_i x_j\right) + \mathcal{O}(x^3) \\
& = f_0^2 + 2f_0 \sum_{i=1}^n a_i \hat{x}_i + 4f_0 \sum_{i=1}^n \sum_{j=i+1}^n b_{ij} \hat{x}_i \hat{x}_j + 2f_0 \sum_{i=1}^n b_{ii} E(x_i^2) \\
& \quad \qquad + 2 \sum_{i=1}^n \sum_{j=i+1}^n a_i a_j \hat{x}_i \hat{x}_j + \sum_{i=1}^n a_i^2 E(x_i^2) + \mathcal{O}(x^3).
\end{align}
Finalmente, estamos en una posición para calcular la varianza de $y$. Esto es simplemente
$$ (\Delta y)^2 \equiv E(y^2) - \hat{y}^2 = \sum_{i=1}^n a_i^2 \left(E(x_i^2) - \hat{x}_i^2\right) + \mathcal{O}(x^3). $$
De hecho, este resultado puede ser escrito enteramente en términos de la primera derivados, $a_i$, y de las variaciones de los insumos, $(\Delta x_i)^2$:
$$ (\Delta y)^2 \approx \sum_{i=1}^n \left(\frac{\partial f}{\partial x_i}\right)^2 (\Delta x_i)^2. $$
La desviación estándar $\Delta y$, que es lo que esperaba al ver $y = \hat{y} \pm \Delta y$, es simplemente la raíz cuadrada de esto:
$$ \Delta y \approx \left(\sum_{i=1}^n \left(\frac{\partial f}{\partial x_i}\right)^2 (\Delta x_i)^2\right)^{1/2}. $$
Es esta fórmula que la gente tiene en mente cuando dicen cosas como "hemos añadido la incertidumbre en cuadratura," ya que este resultado es muy ampliamente aplicable - se aplica cuando tenemos continuamente una función derivable de entradas independientes con medios y desviaciones estándar.