Una manera de visualizar el polinomio mínimo (y polinomio característico) es en primer lugar, se pregunta por qué es el aniquilamiento de polinomios. Esta intuición es probablemente más fácil para diagonalizable operadores así que vamos a empezar por ahí.
Si $A: V\rightarrow V$ es diagonalizable, entonces podemos escribir
$$V=\bigoplus_{i=1}^k E_{\lambda_i}$$
donde cada una de las $E_{\lambda_i}$ es el subespacio propio de $A$ correspondiente al autovalor $\lambda$. Para aniquilar a $A$, por lo tanto, es suficiente para aniquilar a $A$ en cada uno de los subespacios propios y el annihilator para cada una de las $E_{\lambda_i}$ es sólo $A-\lambda I$. Ahora tan lejos como subespacios invariantes ir, subespacios propios son casi tan simple como sea posible. Esto significa que una sola iteración de $(x-\lambda_i)$ $A$ es suficiente para eliminar el espacio $E_{\lambda_i}$. Por lo tanto, el polinomio mínimo es
$$p(x) = (x-\lambda_1)\cdots (x-\lambda_k)$$
intuitiva y esta es la razón por la mínima polinomio de un operador diagonalizable se divide en términos lineales.
Sin embargo, no todos los operadores son diagonalizable y, entonces, tenemos que hablar sobre generalizada subespacios propios en su lugar. Si usted está familiarizado con el Jordan de la forma, luego generalizada subespacios propios no necesitan presentación. Si no (que creo puede ser el caso desde Jordania formas son el capítulo 7 en Hoffman), entonces podemos resumir de la siguiente manera: así como un operador diagonalizable "descompone" en subespacios propios, cualquier operador (diagonalizable o no) se descompone en lo que se llama generalizada subespacios propios.
Normal subespacios propios $E_{\lambda_i}$ se definen como el conjunto de vectores $\mathbf{v}\in V$ para los que
$$(A-\lambda_i I)\mathbf{v} = \mathbf{0}$$
generalizada subespacios propios $W_{\lambda_i}$ se definen como el conjunto de vectores $\mathbf{v} \in V$ para los que existe algún $m\in \mathbb{N}$ tal que
$$(A-\lambda_i I)^m \mathbf{v} = \mathbf{0}$$
Y luego tenemos
$$V = \bigoplus_{i=1}^kW_{\lambda_i}$$
La representación del operador $A$ correspondiente a la anterior descomposición es entonces la Forma Normal de Jordan de la matriz.
Con cada generalizada espacio propio, podemos hacer una distinción conceptual. Podemos separar el espacio en conjuntos
$$S_j = \left\{\mathbf{v}\in V \big|\ j\ \text{is the smallest integer such that } (A-\lambda_i)^j\mathbf{v} = \mathbf{0}\right\}$$
por ejemplo, $S_1 \cup \{\mathbf{0}\} = E_{\lambda_i}$. En esta notación, podemos ver la acción del operador $A-\lambda I$ como cambiar los conjuntos de
$$S_m \rightarrow S_{m-1} \rightarrow \cdots \rightarrow S_1 = E_{\lambda_i} \rightarrow S_0 = \{\mathbf{0}\}$$
De esta manera, el exponente de $e_i$ cada factor $(x-\lambda_i)^{e_i}$ en el mínimo polinomio puede ser visto como la "profundidad" de la generalizada autoespacio $W_{\lambda_i}$.
No estoy seguro de si la explicación anterior es satisfactorio, pero esto nos da una muy áspera geométrica la intuición de que el polinomio mínimo. El mínimo polinomio puede ser visto como una secuencia de pasos que se toman para eliminar los vectores de $V$, lo que refleja la estructura de $A$. Descomponemos $V$ en invariantes generalizada subespacios propios $V = \bigoplus_{i=1}^kW_{\lambda_i}$. Para cada generalizada espacio propio, aplicamos el operador $(A-\lambda_i)$ suficiente de veces para que el espacio es eliminado. Cada aplicación del operador corresponde a un cambio de la forma $S_{i+1} \rightarrow S_i$ en el espacio. Hacer esto para todos los generalizadas subespacios propios, a continuación, elimina la totalidad del espacio vectorial.