Si tenemos una matriz diagonal D que verifica
$D = A^*MA = B^*MB$
donde $^*$ denota la transposición conjugada,
siendo A, B y M matrices unitarias
Además, B es simétrica, M es real y ninguna de estas matrices es igual a I.
¿Tenemos $A = B$ ?
Si tenemos una matriz diagonal D que verifica
$D = A^*MA = B^*MB$
donde $^*$ denota la transposición conjugada,
siendo A, B y M matrices unitarias
Además, B es simétrica, M es real y ninguna de estas matrices es igual a I.
¿Tenemos $A = B$ ?
Esto no es cierto en general.
Permítanme hacer primero un paralelismo con el Teorema espectral. Este teorema dice que para una matriz hermitiana $P$ existe una matriz unitaria $U$ y una matriz diagonal $D$ tal que $P=UDU^*$ . Ahora, si cambiamos dos elementos diagonales en $D$ sólo tenemos que cambiar las columnas correspondientes de $U$ para conseguir un par $\tilde D,\tilde U$ de la matriz que también satisface $P=\tilde U\tilde D \tilde U^*$ . Tenga en cuenta también que si $v$ es un vector propio de $M$ entonces también es el caso de $-v$ . A partir de esta observación ya se puede adivinar que la igualdad $A=B$ no siempre es cierto. Para un ejemplo contrario, basta con elegir $D=\operatorname{diag}(a,a,b),a,b\in\Bbb R$ y cualquier matriz unitaria $A$ ahora se ha fijado $B$ para ser $A$ donde se cambian las dos primeras columnas o se multiplica una columna por $-1$ .
Sin embargo, como $A$ y $B$ son unitarios, tienen columnas linealmente independientes $A(1),\ldots,A(n)$ y $B(1),\ldots,B(n)$ Satisfaciendo a $MA(i)=d_{i,i}A(i)$ y $MB(i)=d_{i,i}B(i)$ por cada $i$ . De ello se deduce que las columnas de $A$ son vectores propios normalizados de $M$ y lo mismo ocurre con $B$ (nótese que una matriz de dimensión $n$ no puede tener más de $n$ vectores propios linealmente independientes).
De ello se desprende que $$A=B\Delta \Pi$$ donde $\Pi$ es una matriz de permutación (para sustituir las columnas en el orden correcto) y $\Delta $ es una matriz diagonal con sólo $1$ y $-1$ en su diagonal (porque si $v$ es un vector propio normalizado de $M$ , este es también el caso de $-v$ ).
Por último, hay que tener en cuenta que si todos los elementos diagonales de $D$ son distintos, entonces $A(i),B(i)$ son ambos eigenvectores normados que pertenecen a un valor propio de multiplicidad uno y, por lo tanto $A(i)= B(i)$ o $A(i) = -B(i)$ es decir $A=B\Delta$ donde $\Delta$ es una matriz diagonal con $1$ y $-1$ en su diagonal.
I-Ciencias es una comunidad de estudiantes y amantes de la ciencia en la que puedes resolver tus problemas y dudas.
Puedes consultar las preguntas de otros usuarios, hacer tus propias preguntas o resolver las de los demás.
3 votos
Dejemos que $A=D=M=I$ y que $B$ sea cualquier otra matriz ortogonal.
0 votos
¿Son reales estas matrices? Si no es así, ¿te refieres a la transposición conjugada o a la entrada?
0 votos
Sí, me refiero a la transposición conjugada. No son necesariamente reales
0 votos
@GitGud Gracias, he corregido mi mensaje
0 votos
Dejemos que $A=\begin{bmatrix}-1& 0\\ 0 & 1 \end{bmatrix}, B=-A$ y $D=M=\begin{bmatrix}1& 0\\ 0 & 2 \end{bmatrix}$ .
0 votos
Esto no es cierto si un valor propio tiene multiplicidad >1, es decir, si los elementos diagonales de $D$ no son todos diferentes.
0 votos
Para aclarar, debe $B$ ser simétrico y no hermitiano? Si este es el caso, mi ejemplo no funciona porque $B$ es real.