127 votos

Demostrar que las matrices simultáneamente diagonalizables conmutan

Dos $n\times n$ matrices $A, B$ se dice que son simultáneamente diagonalizable si existe una matriz no singular $S$ de manera que ambos $S^{-1}AS$ y $S^{-1}BS$ son matrices diagonales.

a) Demuestre que las matrices simultáneamente diagonalizables conmutan: $AB = BA$ .

b) Demuestre que la inversa es válida, siempre que una de las matrices no tenga valores propios múltiples. ¿Es todo par de matrices conmutables simultáneamente diagonalizable?

Mi intento:

a) Que $M=S^{-1}AS$ y $P=S^{-1}BS$ entonces se deduce que $A= S^{-1}MS$ y $B=S^{-1}PS$ . Así, $AB =S^{-1}MSS^{-1}PS = S^{-1}MPS = S^{-1}PMS$ (¿está mal que haya cambiado MP por PM?) $=S^{-1}PSS^{-1}MS=BA$ .

b) ¿Cómo puedo hacerlo?

4 votos

"¿Está mal que haya cambiado MP por PM?" ¿Las matrices diagonales conmutan? Cuidado, $M=S^{-1}AS$ implica $A=SMS^{-1}$ no $S^{-1}MS$ . Debería decir que $M$ y $P$ son diagonales. Para la segunda parte de (b), primero preguntaría: ¿toda matriz es diagonalizable? La primera parte de (b) puede deducirse de math.stackexchange.com/questions/46544/

0 votos

Todas las matrices diagonales conmutan. Y eso fue un error de mi parte que debería haber $M=SAS^{-1}$ Gracias por haberme dado cuenta. Y no , no todas las matrices son diagonalizables. Y muchas gracias por el enlace. Me pregunto cómo has podido obtener ese enlace tan fácilmente. ¿Simplemente escribiste matriz diagonalizable en la caja de búsqueda?

0 votos

Me acordaba de la pregunta (yo era uno de los que respondían), así que sabía más o menos qué buscar, y de hecho la encontré a través de una pregunta relacionada. Encontrarás otras preguntas estrechamente relacionadas utilizando los enlaces en "Linked" en la columna de la derecha de la página.

209voto

Lyra Puntos 30

Sin duda, esto ya se ha respondido aquí (probablemente varias veces), así que lo publico a riesgo de golpear un caballo muerto (y en decadencia).

Permítame primero enlazarle con este que contiene dos excelentes respuestas (recomiendo especialmente el documento expositivo de Keith Conrad enlazado en la respuesta de Pierre-Yves Gaillard). Sin embargo, permítanme ofrecer un punto de vista quizá más elemental, ya que, por experiencia, muchas personas que se inician en este tema aún no se sienten cómodas con los argumentos basados en polinomios mínimos.

Parece que has cubierto la parte a bastante adecuadamente, así que permíteme centrarme en la parte b. Me disculpo de antemano por la longitud, pero creo que este es un tema que requiere una comprensión profunda.

Lo principal que hay que recordar sobre las matrices conmutativas es el hecho de que las matrices conmutativas se respetan los espacios eigénicos de los demás . ¿Qué significa esto? Para hablar de ello, primero tenemos que introducir el tema de un subespacio invariante .

Consideremos un mapeo matricial $A:\ V \rightarrow V$ para un espacio vectorial $V$ . Si hay algún subespacio $U$ de $V$ de manera que el restricción de $A$ a $U$ sigue siendo un operador en el sentido de que $A:\ U\rightarrow U$ entonces decimos que $U$ es un subespacio invariante de $A$ . El término estable también se utiliza a veces. El significado de esto es que $A(U) \subseteq U$ la imagen de $U$ está totalmente contenida en $U$ . De este modo, tiene sentido hablar de una restricción del mapeo al espacio vectorial más pequeño $U$ .

Esto es deseable por varias razones, la principal es que los mapeos lineales en espacios vectoriales más pequeños son más fáciles de analizar. Podemos observar la acción de la cartografía en cada subespacio invariante y luego unirlos para obtener una imagen global. Esto es lo que diagonalización hace; descomponemos el espacio vectorial en subespacios invariantes más pequeños, el eigenspaces y luego juntar los hechos para obtener una imagen más sencilla de cómo funciona la cartografía. Muchas de las representaciones canónicas más sencillas dependen de este hecho (por ejemplo, la forma canónica de Jordan considera el invariante espacios eigéneos generalizados ).

Ahora, si tenemos dos matrices conmutables y diagonalizables, entonces cada eigespacio de $B$ no sólo es invariable bajo $B$ sino también bajo $A$ . Esto es lo que entendemos por preservando cada uno de los espacios eigéneos . Para ver esto, dejemos $\mathbf{v}$ sea un vector propio de $B$ bajo el valor propio $\lambda$ . Entonces $$B(A\mathbf{v}) = A(B\mathbf{v}) = \lambda A\mathbf{v}$$ para que $A\mathbf{v}$ es de nuevo un vector propio de $B$ bajo el valor propio $\lambda$ . En nuestro nuevo lenguaje, esto significa que el eigespacio $E_\lambda$ de $B$ es invariante en $A$ . Esto significa que tiene sentido mirar la restricción de $A$ a $E_\lambda$ .

Consideremos ahora la restricción de $A$ a $E_\lambda$ . Si todos los valores propios de $B$ son simples (multiplicidad uno) entonces eso significa que cada eigespacio de $B$ es unidimensional. Por lo tanto, hemos restringido $A:\ E_\lambda \rightarrow E_\lambda$ a un mapeo en un espacio vectorial unidimensional. Pero esto significa que $A$ debe tomar cada vector de $E_\lambda$ a un múltiplo escalar de sí mismo. Se puede comprobar que esto implica necesariamente que $E_\lambda$ también es un eigenspace de $A$ . Por lo tanto, para cualquier base propia de $B$ que tomamos, los vectores correspondientes también forman una base propia de $A$ . Esto significa que las dos matrices son simultáneamente diagonalizables; comparten una base propia común.

El caso general es un poco más complicado, ya que las restricciones a los subespacios invariantes son más complejas (ya no son unidimensionales), pero las ideas son idénticas.

P.D. Como parece que te interesa la física, permíteme mencionar una aplicación crucial de los operadores conmutativos. En la mecánica cuántica, tienes cantidades llamadas observables cada uno de los cuales es a grandes rasgos representado por una matriz hermitiana. A diferencia de la física clásica, los diferentes observables no tienen por qué ser medibles simultáneamente (al medir la posición, por ejemplo, no se puede medir simultáneamente el momento y viceversa), lo que se debe en última instancia al hecho de que el operador de posición y el operador de momento no conmutan (ésta es la razón subyacente de la principio de incertidumbre ). No tienen una base compartida que pueda representar los estados de un sistema. Por lo tanto, los operadores de conmutación constituyen un elemento clave de la física cuántica, ya que definen cantidades que son compatible es decir, definidos simultáneamente.

0 votos

Cuando dices But this means that A must take each vector of E(lambda) to a scalar multiple of itself. pero no veo en ningún sitio donde hayas demostrado que v es un vector propio de A. Has demostrado que (A v) es un vector propio de B. ¿No hay que demostrar ahora que v es un vector propio de A? ¿Cómo se sabe que v es un vector propio de A sin demostrar que A v=valor propio_de_A*v ? Esta es la parte que me falta en su prueba

0 votos

@nasser Efectivamente no lo he hecho. Antes he dicho explícitamente que estamos considerando el caso en el que el eigespacio es unidimensional. Mi afirmación se desprende de esa suposición. Esto sólo pretende ser un esbozo y no una prueba rigurosa.

0 votos

Bien, ahora lo veo. Acabo de notar otra pequeña cosa: Now, if we have two commuting, diagonalizable matrices A continuación, la prueba es la siguiente. Pero no veo en ninguna parte donde el diagonalizable ¿entra en juego la parte de la vida? La parte To see this, let v be an eigenvector of B under eigenvalue . Then B(Av)=A(Bv)= Av . Esto lo entiendo, pero esto podría decirse para cualquier 2 matrices A,B que conmutan sin importar si son diagonalizable o no, ¿verdad? Ayudará si puede dejar claro dónde está el diagonalizable propiedad se utilizó realmente en su prueba, ya que no lo veo todavía. gracias.

i-Ciencias.com

I-Ciencias es una comunidad de estudiantes y amantes de la ciencia en la que puedes resolver tus problemas y dudas.
Puedes consultar las preguntas de otros usuarios, hacer tus propias preguntas o resolver las de los demás.

Powered by:

X