11 votos

Una caracterización de matrices 'ortogonales'

(Se asume que todas las matrices en esta publicación son matrices cuadradas reales).

Recientemente respondí a una pregunta en este sitio donde se pedía mostrar que si $A$ es una matriz simétrica, entonces $U^{-1}AU$ es simétrica si $U$ es ortogonal. Me pregunté si la conversa también era cierta. Concretamente:

Supongamos que $U$ es una matriz invertible tal que para cualquier matriz simétrica $A$, tenemos que $U^{-1}AU$ es simétrica. ¿Podemos concluir que $U$ es ortogonal?

Así que intenté probar esto y rápidamente me di cuenta de que casi es cierto, de hecho se puede concluir que $UU^t=\lambda Id$ para algún número real $\lambda$ (esto es lo que yo llamaría una matriz ortogonal, una matriz ortonomal es aquella para la cual $UU^t=Id$). Haré un esbozo de mi demostración a continuación:

Sea $A$ simétrica y suponga que $U^{-1}AU$ es simétrica. Entonces $(UU^t)A=A(UU^t)$. Para cualquier matriz simétrica, la igualdad $(UU^t)A=A(UU^t)$ nos permite encontrar algunas condiciones sobre $(UU^t)$. Así que elijo la base más sencilla de las matrices simétricas que se me ocurrió e introduje eso. Después de algunos cálculos, puedes concluir que $(UU^t)_{i,j}=0$ si $i\neq j$ y $(UU^t)_{i,i}=(UU^t)_{j,j}$ para todos $i,j$. Esto es lo que necesitábamos mostrar.

No hay nada mal con la prueba anterior, es simplemente un método de fuerza bruta. Me preguntaba si alguien tiene una forma conceptual divertida de demostrar esto. Me gustaría mucho ver una prueba así.

EDITAR: En particular, estoy buscando un argumento que un estudiante podría encontrar al principio de un curso de álgebra lineal. (La diagonalización y el teorema espectral son un poco avanzados para ahora).

0 votos

Creo que deberíamos poder demostrar esto utilizando la descomposición polar de matrices reales, junto con el hecho de que el centro del grupo GL$(n, \mathbb{R})$ es $\mathbb{R}$Id. En particular, consideramos la descomposición polar de la matriz invertible $U$ y luego demostramos que si se cumple tu condición, entonces la parte simétrica positiva de la descomposición polar está en el centro del grupo lineal real.

0 votos

Ver también lema de Schur.

0 votos

@AccidentalFourierTransform: Estoy muy familiarizado con el lema de Schur que básicamente dice que cualquier morfismo entre representaciones irreducibles es o bien cero o bien un isomorfismo. Pero, ¿cómo ayuda eso aquí?

9voto

Chris Ballance Puntos 17329

Dado que cada vector distinto de cero es un autovector de alguna matriz simétrica con valores propios distintos, y que las matrices diagonalizables conmutativas son diagonalizables simultáneamente, el hecho de que $UU^t$ conmute con cada matriz simétrica $A$ implica que cada vector distinto de cero es un autovector de $UU^t$.

Como mencionaste, $UU^t$ conmuta con cada matriz simétrica $A$. En particular, para cada vector distinto de cero $v$, tenemos $(UU^tv)v^{\,t}=vv^tUU^t=v(UU^tv)^t$. Por lo tanto, o bien $UU^tv=0$ o $UU^tv$ es un múltiplo escalar distinto de cero de $v$. En ambos casos, $v$ es un autovector de $UU^t$.

Entonces, el enunciado del problema se reduce a uno más fundamental y conocido: si una matriz (no necesariamente simétrica) tiene la propiedad de que cada vector distinto de cero es su autovector, entonces debe ser un múltiplo escalar de la matriz identidad.

0 votos

¡Ese es un buen argumento! Desafortunadamente, aún necesitas que $UU^t$ sea diagonalizable y, por lo tanto, el teorema espectral. No lo mencioné en la pregunta, pero estoy buscando una forma en la que un estudiante podría encontrar al comienzo de un curso de álgebra lineal.

0 votos

@Mathematician42 Podemos prescindir de la diagonalización. Mira mi nueva edición.

0 votos

Aceptado, esta es una forma agradable.

2voto

Adam Malter Puntos 96

Una matriz diagonalizable es simétrica si y solo si sus espacios propios son ortogonales. Por lo tanto, la conjugación por $U$ conserva matrices simétricas si y solo si $U$ conserva la ortogonalidad de subespacios arbitrarios de $\mathbb{R}^n$. Es claro que esto es equivalente a que $U$ conserve la ortogonalidad de vectores individuales en $\mathbb{R}^n.

Así que, todo lo que queda por verificar es que si $U$ conserva la ortogonalidad de vectores, entonces es un múltiplo de una matriz ortogonal. Ahora, observe que $$\langle v+w,v-w\rangle=\langle v,v\rangle-\langle w,w\rangle$$ entonces dos vectores $v$ y $w$ tienen la misma norma si y solo si $v+w$ y $v-w$ son ortogonales. Por lo tanto, $U$ conserva cuando los pares de vectores tienen la misma norma, lo que implica que $U$ multiplica todas las normas por alguna constante $\lambda$. Luego $\lambda^{-1}U$ conserva las normas y por lo tanto es ortogonal, por lo que $U$ es un múltiplo constante de una matriz ortogonal.

[Nota que por un argumento similar, una matriz compleja que conserva matrices hermitianas es un múltiplo de una matriz unitaria. La última parte del argumento no funciona del todo si estamos tratando con un producto interno complejo en lugar de un producto interno real, ya que la identidad del producto interno utilizada no es cierta. Sin embargo, la identidad sigue siendo cierta asumiendo que $v$ y $w$ son ortogonales, por lo que $U$ conserva pares ortogonales de vectores que tienen la misma norma. Luego puedes usar esto para mostrar que $U$ multiplica todas las normas por una constante al descomponer los vectores en piezas ortogonales.]

0 votos

Sí, estaba algo temeroso de una respuesta que enlace al teorema espectral ya que eso hace las cosas muy fáciles. Me preguntaba si puedo pedir a los estudiantes que demuestren la caracterización de matrices ortogonales antes en un curso de álgebra lineal. (Así que todavía no se han realizado diagonalizaciones). Pero quizás esta sea la forma de pensar en ello.

i-Ciencias.com

I-Ciencias es una comunidad de estudiantes y amantes de la ciencia en la que puedes resolver tus problemas y dudas.
Puedes consultar las preguntas de otros usuarios, hacer tus propias preguntas o resolver las de los demás.

Powered by:

X