Para el => de dirección, si $A$ es diagonalizable, entonces es fácil para rematar su argumento: Vamos a $x_1, \ldots, x_m$ ser una base de $V$ consta de los vectores propios de a $A$, entonces a partir de la $C$ es distinto de cero, algunos $Cx_i$ debe ser distinto de cero, por lo que su argumento muestra que el $\lambda$ es un autovalor de a $B$.
Si $A$ no es diagonalizable, entonces es más complicado. Es una forma de utilizar vectores propios generalizados: Un no-vector cero $v \in V$ es un autovector generalizado de $A$ si para algún entero positivo $k$ y escalares $\lambda$,$(A-\lambda I)^k v = 0$. El escalares $\lambda$ es siempre un autovalor si esta ecuación se mantiene. El hecho clave acerca de vectores propios generalizados es que para cada matriz $A$, existe una base para $V$ consta de vectores propios generalizados de $A$.
Tomar una base $x_1, \ldots, x_m$ generalizado de vectores propios de a $A$, con los correspondientes autovalores $\lambda_1, \ldots, \lambda_m$. Entonces, como antes, alguna de las $Cx_i$ es distinto de cero, y un breve cálculo utilizando la condición de $CA=BC$ muestra que $$(B-\lambda I)^k C = C (A-\lambda I)^k$$ Using this, we conclude that $Cx_i$ is a generalized eigenvector of $B$ and therefore $\lambda_i$ is an eigenvalue of $B$.
Para el <= dirección, de nuevo el diagonalizable caso es fácil: Tomar un común autovalor $\lambda$ y el mapa de un autovector de a $A$ a un autovector de a $B$, tal y como lo hizo anteriormente. El resto de la base de vectores propios de a $A$, enviar a 0. Se puede comprobar que $CA=BC$ sobre la base de vectores propios.
El caso general se realiza mediante el uso de vectores propios generalizados. Tomar un común autovalor $\lambda$. Ahora tenemos que tener cuidado: no podemos asignar un autovector $A$ a un autovector de a $B$. (Deje $A$ $$\left( \begin{matrix}
1 & 1\cr
0 & 1
\end{de la matriz} \right)$$ and $B = I$; show that every matrix $C$ satisfying $CA=BC$ must take the unique eigenspace of $UN$ to zero.) Consider the generalized eigenspaces $$V_{\mu} = \{v \in V : (A - \mu I)^k v = 0 \mbox{ for some positive integer } k\}.$$ The space $V$ is the direct sum of all the $V_{\mu}$. For $\mu \ = \lambda$, you send $V_{\mu}$ to 0. The tricky part is what to do with $V_{\lambda}$ en sí.
Ya estamos de sólo preocuparse por $V_{\lambda}$ ahora, podemos substituir $V$$V_\lambda$, por lo tanto podemos asumir que el $\lambda$ es el único autovalor de a $A$. Deje $k$ ser el menor entero positivo tal que $(A-\lambda I)^k v = 0$ todos los $v \in V$. Por falta de un término mejor, vamos a llamar a $k$ el índice de $A$$V$. Procedemos por inducción sobre $k$. Si $k=1$ estamos en el diagonalizable caso.
Si $k>1$, vamos a $v$ ser un autovector de a$A$$\lambda$. A continuación, $A$ corrige el espacio $\langle v \rangle$ y por lo tanto actúa en el cociente $\overline{V} = V/\langle v \rangle$. Ahora podemos ver que $(A-\lambda I)^{k-1}$ mata a $\overline{V}$ (ya que de lo contrario $(A - \lambda I)^k$ no mataría $V$). Así pues, el índice de $A$ $\overline{V}$ es de menos de $k$. De manera inductiva, tenemos un mapa distinto de cero $\overline{C} : \overline{V} \to W$ tal que $\overline{C} A = B \overline{C}$, y por la composición con la proyección de$V$$\overline{V}$, obtenemos un mapa distinto de cero $C : V \to W$ satisfacción $CA = BC$.
EDIT: no creo que el hecho de que el índice de $A$ $\overline{V}$ es menor que $k$ es tan trivial como que me hizo sonar por encima. Usted tiene que mirar en el Jordán bloques de $A$. O, en lugar de inducción en $k$, sólo tenga en cuenta que el $\dim \overline{V} < \dim V$ y el uso de la inducción en $\dim V$ lugar.