Si tenemos una matriz diagonal D que verifica
D=A∗MA=B∗MBD=A∗MA=B∗MB
donde ∗∗ denota la transposición conjugada,
siendo A, B y M matrices unitarias
Además, B es simétrica, M es real y ninguna de estas matrices es igual a I.
¿Tenemos A=BA=B ?
Si tenemos una matriz diagonal D que verifica
D=A∗MA=B∗MBD=A∗MA=B∗MB
donde ∗∗ denota la transposición conjugada,
siendo A, B y M matrices unitarias
Además, B es simétrica, M es real y ninguna de estas matrices es igual a I.
¿Tenemos A=BA=B ?
Esto no es cierto en general.
Permítanme hacer primero un paralelismo con el Teorema espectral. Este teorema dice que para una matriz hermitiana P existe una matriz unitaria U y una matriz diagonal D tal que P=UDU∗ . Ahora, si cambiamos dos elementos diagonales en D sólo tenemos que cambiar las columnas correspondientes de U para conseguir un par ˜D,˜U de la matriz que también satisface P=˜U˜D˜U∗ . Tenga en cuenta también que si v es un vector propio de M entonces también es el caso de −v . A partir de esta observación ya se puede adivinar que la igualdad A=B no siempre es cierto. Para un ejemplo contrario, basta con elegir D=diag(a,a,b),a,b∈R y cualquier matriz unitaria A ahora se ha fijado B para ser A donde se cambian las dos primeras columnas o se multiplica una columna por −1 .
Sin embargo, como A y B son unitarios, tienen columnas linealmente independientes A(1),…,A(n) y B(1),…,B(n) Satisfaciendo a MA(i)=di,iA(i) y MB(i)=di,iB(i) por cada i . De ello se deduce que las columnas de A son vectores propios normalizados de M y lo mismo ocurre con B (nótese que una matriz de dimensión n no puede tener más de n vectores propios linealmente independientes).
De ello se desprende que A=BΔΠ donde Π es una matriz de permutación (para sustituir las columnas en el orden correcto) y Δ es una matriz diagonal con sólo 1 y −1 en su diagonal (porque si v es un vector propio normalizado de M , este es también el caso de −v ).
Por último, hay que tener en cuenta que si todos los elementos diagonales de D son distintos, entonces A(i),B(i) son ambos eigenvectores normados que pertenecen a un valor propio de multiplicidad uno y, por lo tanto A(i)=B(i) o A(i)=−B(i) es decir A=BΔ donde Δ es una matriz diagonal con 1 y −1 en su diagonal.
I-Ciencias es una comunidad de estudiantes y amantes de la ciencia en la que puedes resolver tus problemas y dudas.
Puedes consultar las preguntas de otros usuarios, hacer tus propias preguntas o resolver las de los demás.
3 votos
Dejemos que A=D=M=IA=D=M=I y que BB sea cualquier otra matriz ortogonal.
0 votos
¿Son reales estas matrices? Si no es así, ¿te refieres a la transposición conjugada o a la entrada?
0 votos
Sí, me refiero a la transposición conjugada. No son necesariamente reales
0 votos
@GitGud Gracias, he corregido mi mensaje
0 votos
Dejemos que A=[−1001],B=−A y D=M=[1002] .
0 votos
Esto no es cierto si un valor propio tiene multiplicidad >1, es decir, si los elementos diagonales de D no son todos diferentes.
0 votos
Para aclarar, debe B ser simétrico y no hermitiano? Si este es el caso, mi ejemplo no funciona porque B es real.