Alfred Yerger explica por qué el factoring da raíces, pero que no explica el contrario: ¿por qué raíces dar factores?
Deje $p(x)$ ser un polinomio con una raíz de $c$. Por la división de $p(x)$$x-c$, podemos escribir $p(x)=q(x)(x-c)+r$ donde $r$ es el resto (una constante desde $x-c$ es un polinomio lineal). Ahora, sustituyendo $x=c$, obtenemos $p(c)=q(c)(c-c)+r$. Desde $p(c)=0$$c-c=0$,$0=r$. Es decir, no había ningún resto, después de todo! Por lo tanto, el resultado de la división larga es que $p(x)=q(x)(x-c)$. En otras palabras, si nos factor $x-c$$p(x)$, nos quedamos con un polinomio $q(x)$.
Algo que es fácil perderse con esto es que, en realidad, $p(c)=q(c)(c-c)+r$. Es decir, $p(c)=r$, o si no $c$ es en realidad una raíz. Por lo tanto, la división larga siempre te dará $p(x)=q(x)(x-c)+p(c)$. Esta es la base de una técnica computacional llamado la división sintética que da a la $q(x)$$p(c)$. Y, se necesita tanto esfuerzo para calcular tanto como lo hace para calcular, ya sea por su propia cuenta.