Supongamos que tengo algunos datos de posición ${x_1, x_2, ... x_n}$ que fue muestreado en un intervalo $h$ . Si quisiera los datos de velocidad, podría aplicar un esquema de diferencias finitas:
$ v_1 = \frac{x_2 - x_1}{h} + O(h)$
$O(h)$ denota que el término de error es proporcional al tamaño del paso. ¿Qué significa exactamente esto en términos físicos? Por ejemplo, digamos que mi $x$ se tomaron a 5 muestras/segundo (por lo que $h=0.2$ ). ¿Significa esto que el error en mis datos de velocidad es $\pm$ 0.2? ¿Cómo interpreto el error en un sentido físico, y puedo escribirlo como una incertidumbre a una medición? Por ejemplo $v_1 = 10 \pm 0.2$ ¿m/s?