Si $AB=BC$, e $A$ $C$ no tienen en común los autovalores, muestran que $B$ debe ser igual a $0$.
¿Cómo puedo hacer esto?
Si $AB=BC$, e $A$ $C$ no tienen en común los autovalores, muestran que $B$ debe ser igual a $0$.
¿Cómo puedo hacer esto?
Lo siento por el primer comentario, no es tan útil para hacer esto, por definición.
No hay una respuesta basada en la $\lambda$ matriz. Deje $f_A(\lambda)=|A-\lambda E|$ ser el polinomio característico de a $A$. Es fácil mostrar, como una consecuencia de $AB=BC$ que $0=f_A(A)B=Bf_A(C)$. Lo que queda es demostrar que el $f_A(C)$ es invertable.
Deje $F_A(\lambda)=\prod_{i=1}^{dim A}(\lambda-\lambda_i)$,$F_A(C)=\prod_{i=1}^{\dim A}(C-\lambda_iE)$, $A,C$ tiene un no-comm. eig. implica que $C-\lambda_iE$ debe ser invertable. Si no, entonces $\exists X\neq0$, de tal manera que $CX=\lambda_iX$, lo que significa que $\lambda_i$ es un eig. valor de $C$, pero también es un eig. valor de $A$, contradicción!
Sólo para sonríe vamos a probar un enfoque de Kronecker (aquí es una buena fuente). Expresan $AB-BC=0$ en formato vectorial, utilizando productos de Kronecker nos da $$\mathop{\textrm{vec}}(AB-BC) = (I\otimes A-C^T\otimes I)\mathop{\textrm{vec}}(B) = 0$$ Así que si $I\otimes A-C^T\otimes I$ es nonsingular, a continuación,$B=0$. Tenga en cuenta que $$I\otimes A-C^T\otimes I=A\oplus-C^T$$ donde $\oplus$ denota la suma de Kronecker. Si los autovalores de a $A$ $\lambda_1,\dots,\lambda_n$ y los autovalores de a$C$$\mu_1,\dots,\mu_n$, los autovalores de a $A\oplus -C^T$ $$\lambda_i-\mu_j \quad \forall i,j=1,2\dots,n$$ De hecho, es fácil ver que si $A$ $C$ tienen distintos valores propios, a continuación, $I\otimes A-C^T\otimes I$ debe nonsingular, porque ninguna de las cantidades $\lambda_i-\mu_j$ sería igual a cero.
Vamos a demostrar que los valores propios de a $A\oplus -C^T$ son lo que dicen ser. Deje $v_i$ ser un derecho autovector de a $A$ correspondiente a $\lambda_i$, e $w_j$ ser una izquierda autovector de a $C$ correspondiente a $\mu_j$. Entonces
$$\begin{aligned} (I\otimes A-C^T\otimes I)(w_j\otimes v_i)&=w_j\otimes Av_i-C^Tw_j\otimes v_i\\ &=w_j\otimes\lambda_iv_i-\mu_jw_j\otimes v_i\\ &=\lambda_i(w_j\otimes v_i)-\mu_j(w_j\otimes v_i) \\ &=(\lambda_i-\mu_j)(w_j\otimes v_i)\end{aligned}$$ Por lo $w_i\otimes v_i$ es de hecho un derecho vector propio de nuestra Kronecker suma, con autovalor $\lambda_i-\mu_j$.
Otro enfoque: tenga en cuenta que $$ (A - \lambda I)B = AB - \lambda B = AC - \lambda B = B(C - \lambda I) $$ Supongamos que $\lambda$ es un autovalor de a $C$. De ello se sigue, ya que no hay valores en común, que $(A - \lambda I)$ es invertible. Por lo tanto, hemos $$ B = (A - \lambda I)^{-1}B(C - \lambda I) $$ En particular, esto es cierto para cada autovalor $\lambda$$C$. Así, se deduce que para los autovalores $\lambda_1,\dots,\lambda_n$$C$, tenemos $$ B = (A - \lambda_1 I)^{-1} B (C - \lambda_1 I) =\\ (A - \lambda_2 I)^{-1} \overbrace{(A - \lambda_1 I)^{-1} B (C - \lambda_1 I)}^B (C - \lambda_2 I) = \\ \vdots\\ (A - \lambda_n I)^{-1} \cdots (A - \lambda_1 I)^{-1} B (C - \lambda_1 I) \cdots (C - \lambda_n I) $$ Dejando $p_C(x)$ ser el polinomio característico de a $C$, esto se convierte en $$ B = [p_C(A)]^{-1}B[p_C(C)] $$ por el Cayley-Hamilton, teorema de, $p_C(C) = 0$, de modo que los anteriores, implica la $B = 0$.
$\newcommand{\VEig}{\mathrm{VEig}}$ Pero también me siga en mi primer comentario, sólo tiene que ir como @AWertheim, sólo tenemos que mostrar que si por alguna $v\in \VEig(C)$ (eig. vector spance de $C$), tenemos $Bv=0$,$B=0$.
En primer lugar, si $C$ es diagonalizable, entonces $\dim\VEig(C)=\dim C$, por lo que los resultados se sostiene. Pero ¿qué hay de $C$ no es diagonalizable?
Por la teoría estándar de LA, podemos considerar $C$ como su forma canónica de Jordan, por simplicidad, supongamos $C=\pmatrix{0&1\\0&0}$ ser un bloque de Jordan, entonces usted puede comprobar que en este caso los resultados se sostiene demasiado.
De hecho, $\VEig(C)=\left\{a\pmatrix{1\\0}|a\in R\right\}$, e $B=\pmatrix{0&b_1\\0&b_2}$. A continuación,$AB=BC=\pmatrix{0&0\\0&0}$. Supongamos $A=\pmatrix{\alpha_1\\\alpha_2}$, y deje $\beta=\pmatrix{b_1\\b_2}$, $AB=0$ implica que el $\alpha_1,\alpha_2\perp \beta$. Si $\beta\neq0$, $\alpha_1$ $\alpha_2$ debe ser lineal dependiente, lo cual implica que $A$ es de rango $1$ a más, y debe tener un valor distinto de cero solución de $AX=0$, e $0$ es un autovalor de a $A$, lo cual es imposible ya que también es un autovalor de a $C$.
Para el caso general, supongo que se puede trabajar de la misma manera.
I-Ciencias es una comunidad de estudiantes y amantes de la ciencia en la que puedes resolver tus problemas y dudas.
Puedes consultar las preguntas de otros usuarios, hacer tus propias preguntas o resolver las de los demás.