6 votos

Mostrar que $B$ debe ser igual a $0$ si $A$ $C$ no tienen en común los Autovalores

Si $AB=BC$, e $A$ $C$ no tienen en común los autovalores, muestran que $B$ debe ser igual a $0$.

¿Cómo puedo hacer esto?

4voto

Mark Seemann Puntos 148

Lo siento por el primer comentario, no es tan útil para hacer esto, por definición.

No hay una respuesta basada en la $\lambda$ matriz. Deje $f_A(\lambda)=|A-\lambda E|$ ser el polinomio característico de a $A$. Es fácil mostrar, como una consecuencia de $AB=BC$ que $0=f_A(A)B=Bf_A(C)$. Lo que queda es demostrar que el $f_A(C)$ es invertable.

Deje $F_A(\lambda)=\prod_{i=1}^{dim A}(\lambda-\lambda_i)$,$F_A(C)=\prod_{i=1}^{\dim A}(C-\lambda_iE)$, $A,C$ tiene un no-comm. eig. implica que $C-\lambda_iE$ debe ser invertable. Si no, entonces $\exists X\neq0$, de tal manera que $CX=\lambda_iX$, lo que significa que $\lambda_i$ es un eig. valor de $C$, pero también es un eig. valor de $A$, contradicción!

3voto

Giulio Muscarello Puntos 150

Sólo para sonríe vamos a probar un enfoque de Kronecker (aquí es una buena fuente). Expresan $AB-BC=0$ en formato vectorial, utilizando productos de Kronecker nos da $$\mathop{\textrm{vec}}(AB-BC) = (I\otimes A-C^T\otimes I)\mathop{\textrm{vec}}(B) = 0$$ Así que si $I\otimes A-C^T\otimes I$ es nonsingular, a continuación,$B=0$. Tenga en cuenta que $$I\otimes A-C^T\otimes I=A\oplus-C^T$$ donde $\oplus$ denota la suma de Kronecker. Si los autovalores de a $A$ $\lambda_1,\dots,\lambda_n$ y los autovalores de a$C$$\mu_1,\dots,\mu_n$, los autovalores de a $A\oplus -C^T$ $$\lambda_i-\mu_j \quad \forall i,j=1,2\dots,n$$ De hecho, es fácil ver que si $A$ $C$ tienen distintos valores propios, a continuación, $I\otimes A-C^T\otimes I$ debe nonsingular, porque ninguna de las cantidades $\lambda_i-\mu_j$ sería igual a cero.

Vamos a demostrar que los valores propios de a $A\oplus -C^T$ son lo que dicen ser. Deje $v_i$ ser un derecho autovector de a $A$ correspondiente a $\lambda_i$, e $w_j$ ser una izquierda autovector de a $C$ correspondiente a $\mu_j$. Entonces

$$\begin{aligned} (I\otimes A-C^T\otimes I)(w_j\otimes v_i)&=w_j\otimes Av_i-C^Tw_j\otimes v_i\\ &=w_j\otimes\lambda_iv_i-\mu_jw_j\otimes v_i\\ &=\lambda_i(w_j\otimes v_i)-\mu_j(w_j\otimes v_i) \\ &=(\lambda_i-\mu_j)(w_j\otimes v_i)\end{aligned}$$ Por lo $w_i\otimes v_i$ es de hecho un derecho vector propio de nuestra Kronecker suma, con autovalor $\lambda_i-\mu_j$.

3voto

Jukka Dahlbom Puntos 1219

Otro enfoque: tenga en cuenta que $$ (A - \lambda I)B = AB - \lambda B = AC - \lambda B = B(C - \lambda I) $$ Supongamos que $\lambda$ es un autovalor de a $C$. De ello se sigue, ya que no hay valores en común, que $(A - \lambda I)$ es invertible. Por lo tanto, hemos $$ B = (A - \lambda I)^{-1}B(C - \lambda I) $$ En particular, esto es cierto para cada autovalor $\lambda$$C$. Así, se deduce que para los autovalores $\lambda_1,\dots,\lambda_n$$C$, tenemos $$ B = (A - \lambda_1 I)^{-1} B (C - \lambda_1 I) =\\ (A - \lambda_2 I)^{-1} \overbrace{(A - \lambda_1 I)^{-1} B (C - \lambda_1 I)}^B (C - \lambda_2 I) = \\ \vdots\\ (A - \lambda_n I)^{-1} \cdots (A - \lambda_1 I)^{-1} B (C - \lambda_1 I) \cdots (C - \lambda_n I) $$ Dejando $p_C(x)$ ser el polinomio característico de a $C$, esto se convierte en $$ B = [p_C(A)]^{-1}B[p_C(C)] $$ por el Cayley-Hamilton, teorema de, $p_C(C) = 0$, de modo que los anteriores, implica la $B = 0$.

2voto

Mark Seemann Puntos 148

$\newcommand{\VEig}{\mathrm{VEig}}$ Pero también me siga en mi primer comentario, sólo tiene que ir como @AWertheim, sólo tenemos que mostrar que si por alguna $v\in \VEig(C)$ (eig. vector spance de $C$), tenemos $Bv=0$,$B=0$.

En primer lugar, si $C$ es diagonalizable, entonces $\dim\VEig(C)=\dim C$, por lo que los resultados se sostiene. Pero ¿qué hay de $C$ no es diagonalizable?

Por la teoría estándar de LA, podemos considerar $C$ como su forma canónica de Jordan, por simplicidad, supongamos $C=\pmatrix{0&1\\0&0}$ ser un bloque de Jordan, entonces usted puede comprobar que en este caso los resultados se sostiene demasiado.

De hecho, $\VEig(C)=\left\{a\pmatrix{1\\0}|a\in R\right\}$, e $B=\pmatrix{0&b_1\\0&b_2}$. A continuación,$AB=BC=\pmatrix{0&0\\0&0}$. Supongamos $A=\pmatrix{\alpha_1\\\alpha_2}$, y deje $\beta=\pmatrix{b_1\\b_2}$, $AB=0$ implica que el $\alpha_1,\alpha_2\perp \beta$. Si $\beta\neq0$, $\alpha_1$ $\alpha_2$ debe ser lineal dependiente, lo cual implica que $A$ es de rango $1$ a más, y debe tener un valor distinto de cero solución de $AX=0$, e $0$ es un autovalor de a $A$, lo cual es imposible ya que también es un autovalor de a $C$.

Para el caso general, supongo que se puede trabajar de la misma manera.

i-Ciencias.com

I-Ciencias es una comunidad de estudiantes y amantes de la ciencia en la que puedes resolver tus problemas y dudas.
Puedes consultar las preguntas de otros usuarios, hacer tus propias preguntas o resolver las de los demás.

Powered by:

X