Este es exactamente el enfoque correcto si los errores en los coeficientes son sin correlación .
En efecto, se esperaría que el error de la pendiente, como valor absoluto, sea mayor cuando x es mayor. Una forma fácil de empezar a pensar en esto es considerar una simple parábola: $ax^2$ con algún error en a. En este caso encontramos que
$ \sigma_ {slope} = 2x \sigma_a $
Sabemos que en $x=0$ la pendiente es exactamente cero, por lo que el error debería ser cero. Con algún valor finito de x esperamos una pendiente finita y un error finito. En este simple caso, el fraccionario el error en la pendiente es constante, lo que para mí tiene sentido intuitivo:
$ \frac { \sigma_ {slope}}{slope} = \frac { \sigma_a }{a}$
Ahora bien, si los errores en los coeficientes son correlacionados es necesario un enfoque más completo. Por ejemplo, si los coeficientes polinómicos se determinaran a partir del ajuste de un conjunto de datos medidos, se esperaría que los errores en los coeficientes estuvieran altamente correlacionados.
En este caso, la fórmula para la propagación del error de una función $y = f(a,b)$ es:
$ \sigma_y $ = $ \left | \frac { \partial f}{ \partial a} \right |^2 \sigma_a ^2 + \left | \frac { \partial f}{ \partial b} \right |^2 \sigma_b ^2 + 2 \frac { \partial f}{ \partial a} \frac { \partial f}{ \partial b} \small { \mathrm {COV}}_{ab}$
donde $ \small { \mathrm {COV}}_{ab}$ es la covarianza entre $a$ y $b$ . Esto puede expandirse a muchos parámetros incluyendo cada término cruzado, que se hace bastante largo de escribir. En su ejemplo específico tendrá 10 términos cruzados para considerar.