La primera diapositiva 2-3 es mucho menos complicada de lo que parece. El contexto es que hay un cálculo numérico que tiene lugar en algún espacio de alta dimensión. El punto de partida se denota con d y el punto final por w . Más detalladamente, el proceso tiene $K$ pasos numerados desde $1$ a $K$ . Cada paso implica algún error que se propaga desde el punto anterior al siguiente. Así, el proceso implica el error original y en cada paso ese error se escala y se añade algún error más. Se supone que el proceso se comporta lo suficientemente bien como para que linealización de la propagación del error tiene sentido. Ese es el significado de la última ecuación de la diapositiva. El $\, \delta[\tilde{v}^{(k-1)}] \,$ es el error relativo que entra en el paso $\, k \,$ donde se transforma linealmente por la matriz T $^{(k)}$ y el paso añade algún error $\eta^{(k)}$ propia.
La segunda diapositiva 2-4 es aún más sencilla. Describe el caso de un paso y una dimensión de la diapositiva anterior. Es decir, dada una función $\, y = \phi(x) \,$ donde el $\, \Delta y \,$ y $\, \Delta x \,$ son los errores absolutos de $\, y \,$ y $\, x \,$ según lo relatado por $\, y + \Delta y = \phi(x + \Delta x). \,$ El proceso de linealización utiliza una serie de Taylor truncada para $\, \phi \,$ con la aproximación resultante $\, \Delta y = x \phi'(x)\varepsilon + O(\varepsilon^2) \,$ a primer orden. La última ecuación $\, T = \frac{x}{y} \frac{dy}{dx} \,$ no es más que expresar la relación del error relativo de $\, y \,$ al error relativo de $\, x. \,$