8 votos

$CA=BC$ fib $A$ $B$ tienen en común un autovalor

Pregunta:

Supongamos $V$ $W$ son finitos tridimensional de espacios vectoriales sobre $\mathbb{C}$. $A$ es una transformación lineal en $V$, $B$ es una transformación lineal en $W$. Entonces existe un no-cero lineal mapa de $C:V\to W$ s.t. $CA=BC$ fib $A$ $B$ tienen un mismo autovalor.

===========Esto es incorrecto==========

Claramente, si $CA=BC$, supongamos $Ax=\lambda x$,$B(Cx)=CAx=C(\lambda x)=\lambda (Cx)$, lo $A$ $B$ tienen el mismo autovalor $\lambda$. Por otro lado, si $A$ $B$ tienen un mismo autovalor $\lambda$, supongamos $Ax=\lambda x, By=\lambda y$. Definir $C:V\to W$ s.t. $Cx=y$ ,$BCx=By=\lambda y=C\lambda x=CAx$. Pero yo no kow cómo hacer $BC=CA$ todos los $x\in V$.

======================================

7voto

Homer Puntos 198

Para el => de dirección, si $A$ es diagonalizable, entonces es fácil para rematar su argumento: Vamos a $x_1, \ldots, x_m$ ser una base de $V$ consta de los vectores propios de a $A$, entonces a partir de la $C$ es distinto de cero, algunos $Cx_i$ debe ser distinto de cero, por lo que su argumento muestra que el $\lambda$ es un autovalor de a $B$.

Si $A$ no es diagonalizable, entonces es más complicado. Es una forma de utilizar vectores propios generalizados: Un no-vector cero $v \in V$ es un autovector generalizado de $A$ si para algún entero positivo $k$ y escalares $\lambda$,$(A-\lambda I)^k v = 0$. El escalares $\lambda$ es siempre un autovalor si esta ecuación se mantiene. El hecho clave acerca de vectores propios generalizados es que para cada matriz $A$, existe una base para $V$ consta de vectores propios generalizados de $A$.

Tomar una base $x_1, \ldots, x_m$ generalizado de vectores propios de a $A$, con los correspondientes autovalores $\lambda_1, \ldots, \lambda_m$. Entonces, como antes, alguna de las $Cx_i$ es distinto de cero, y un breve cálculo utilizando la condición de $CA=BC$ muestra que $$(B-\lambda I)^k C = C (A-\lambda I)^k$$ Using this, we conclude that $Cx_i$ is a generalized eigenvector of $B$ and therefore $\lambda_i$ is an eigenvalue of $B$.

Para el <= dirección, de nuevo el diagonalizable caso es fácil: Tomar un común autovalor $\lambda$ y el mapa de un autovector de a $A$ a un autovector de a $B$, tal y como lo hizo anteriormente. El resto de la base de vectores propios de a $A$, enviar a 0. Se puede comprobar que $CA=BC$ sobre la base de vectores propios.

El caso general se realiza mediante el uso de vectores propios generalizados. Tomar un común autovalor $\lambda$. Ahora tenemos que tener cuidado: no podemos asignar un autovector $A$ a un autovector de a $B$. (Deje $A$ $$\left( \begin{matrix} 1 & 1\cr 0 & 1 \end{de la matriz} \right)$$ and $B = I$; show that every matrix $C$ satisfying $CA=BC$ must take the unique eigenspace of $UN$ to zero.) Consider the generalized eigenspaces $$V_{\mu} = \{v \in V : (A - \mu I)^k v = 0 \mbox{ for some positive integer } k\}.$$ The space $V$ is the direct sum of all the $V_{\mu}$. For $\mu \ = \lambda$, you send $V_{\mu}$ to 0. The tricky part is what to do with $V_{\lambda}$ en sí.

Ya estamos de sólo preocuparse por $V_{\lambda}$ ahora, podemos substituir $V$$V_\lambda$, por lo tanto podemos asumir que el $\lambda$ es el único autovalor de a $A$. Deje $k$ ser el menor entero positivo tal que $(A-\lambda I)^k v = 0$ todos los $v \in V$. Por falta de un término mejor, vamos a llamar a $k$ el índice de $A$$V$. Procedemos por inducción sobre $k$. Si $k=1$ estamos en el diagonalizable caso.

Si $k>1$, vamos a $v$ ser un autovector de a$A$$\lambda$. A continuación, $A$ corrige el espacio $\langle v \rangle$ y por lo tanto actúa en el cociente $\overline{V} = V/\langle v \rangle$. Ahora podemos ver que $(A-\lambda I)^{k-1}$ mata a $\overline{V}$ (ya que de lo contrario $(A - \lambda I)^k$ no mataría $V$). Así pues, el índice de $A$ $\overline{V}$ es de menos de $k$. De manera inductiva, tenemos un mapa distinto de cero $\overline{C} : \overline{V} \to W$ tal que $\overline{C} A = B \overline{C}$, y por la composición con la proyección de$V$$\overline{V}$, obtenemos un mapa distinto de cero $C : V \to W$ satisfacción $CA = BC$.

EDIT: no creo que el hecho de que el índice de $A$ $\overline{V}$ es menor que $k$ es tan trivial como que me hizo sonar por encima. Usted tiene que mirar en el Jordán bloques de $A$. O, en lugar de inducción en $k$, sólo tenga en cuenta que el $\dim \overline{V} < \dim V$ y el uso de la inducción en $\dim V$ lugar.

3voto

Chris Ballance Puntos 17329

"Sólo si". También vamos a abusar de las notaciones un poco, de manera que $A,B,C$ representan tanto las transformaciones lineales y su matriz de representaciones, en virtud de algunas bases. Deje $v=\dim(V)$$w=\dim(W)$. [Edit: hubo un párrafo que explique por qué asumimos $v=w$ WLOG, pero como Ted se señaló en el comentario de abajo, esto no es necesario. Así que me cortó.]

Ahora, el "sólo si" parte ha sido demostrado en mi respuesta a una pregunta similar, pero puedo repetir la respuesta aquí. Desde $AC=CB$, tenemos $$ Un^jC = A^{j-1}(AC) = A^{j-1}CB = A^{j-2}(AC)B = A^{j-2}CB^2 = \ldots=CB^j $$ para cualquier $j\ge0$. Por lo tanto $g(A)C=Cg(B)$ para cualquier polinomio $g$. En particular, si tomamos $g$ como el polinomio mínimo de a$B$,$g(A)C=Cg(B)=0$. Si $A$ $B$ no comparten un mismo autovalor, a continuación, $g(A)$ es invertible y, por tanto,$C=0$, lo que contradice nuestra suposición.

(Edit:) "Si". Supongamos $A$ $B$ comparten un mismo autovalor $\lambda$. Elija dos ordenado bases de $\{v_1,v_2\ldots\}$$\{w_1,w_2\ldots\}$$V$$W$, de modo que la matriz de representaciones de $A$ $B$ con respecto a ellos, son Jordania formas y tanto la primera bloques de Jordan de a $A$ $B$ corresponden al autovalor $\lambda$. Deje $m$ ser el tamaño del primer bloque de Jordan de a $A$. Definir $C$$Cv_m=w_1$$Cv_i=0$$i\not=m$. Es decir, en la representación de la matriz de $C$, sólo el $(1,m)$-ésima es igual a 1 y el resto son ceros. A continuación, $C$ es un valor distinto de cero lineal mapa tal que $CA=BC$. De hecho, con respecto a las anteriores bases de $V$$W$, la representación de la matriz de $CA$ o $BC$ $w$a$v$ matriz con un $\lambda$ $(1,m)$- ésima y ceros en otros lugares.

2voto

codemac Puntos 689

Aquí es leve generalización. Deje $A$ ser un director ideal de dominio, y $V$ $W$ dos finitely genera torsión de los módulos. Entonces no es un valor distinto de cero $A$-lineal mapa de $V$ $W$si y sólo si hay un elemento irreductible $p$ tal que $pV\not=V$$pW\not=W$.

Podemos asumir $V=A/(p^r)$, $W=A/(q^s)$, donde $p$ $q$ son elementos irreductibles, y $r$ $s$ son enteros positivos, en el caso general, $V$ $W$ será finito directa sumas de los módulos de este formulario. Debemos comprobar que hay un valor distinto de cero $A$-lineal mapa de $V$ $W$si y sólo si $(p)=(q)$.

Si $(p)=(q)$ componemos la proyección canónica $A/(p^r)\to A/(p)$ $A$- lineal mapa de $A/(p)\to A/(p^s)$ inducida por la multiplicación por $p^{s-1}$.

Suponga $(p)\not=(q)$. Deje $f:A/(p^r)\to A/(q^s)$ $A$- lineal, y deje $x$$A/(q^s)$. Tenemos $p^rf(x)=f(p^rx)=f(0)=0$. Como $p^r$ es invertible mod $q^s$, la prueba está completa.

EDIT. Aquí es otra generalización. Deje $A$ ser un a priori no conmutativa anillo. "Módulo" se entenderá la izquierda $A$-módulo.

Suponga que $V$ $W$ son de longitud finita distinto de cero módulos, que $S$ $T$ son módulos sencillos, que todos los simples subquotients de $V$ son isomorfos a $S$, y que todo es sencillo subquotients de $W$ son isomorfos a $T$. A continuación, $\mathrm{Hom}(V,W)$ distinto de cero si y sólo si $S$ $T$ son isomorfos.

Esto es claro.

i-Ciencias.com

I-Ciencias es una comunidad de estudiantes y amantes de la ciencia en la que puedes resolver tus problemas y dudas.
Puedes consultar las preguntas de otros usuarios, hacer tus propias preguntas o resolver las de los demás.

Powered by:

X