23 votos

Matrices simétricas con traza cero

Dejemos que $M_n$ denotan el conjunto de matrices complejas de orden $n$ .

Es bien sabido que si $A\in M_n$ tiene traza cero entonces $A$ puede escribirse como $A=BC-CB$ , donde $B,C\in M_n$ .

¿Es cierto que toda matriz simétrica $S\in M_n$ con traza cero puede escribirse como $S=RR^t-R^tR$ para algunos $R\in M_n$ ?

Este teorema es cierto para las matrices reales. Si $S$ es una matriz simétrica real con traza cero y orden $n$ entonces existe una matriz real $R$ de orden $n$ tal que $S=RR^t-R^tR$ .

¿Es cierto para las matrices complejas?

1 votos

En el caso de las matrices complejas: por simetría, ¿se entiende Hermitiano ?

0 votos

No, me refiero a la simetría $(A=A^t)$ .

1 votos

@Omnomnomnom Para matrices hermitianas con traza cero, el teorema sería $S=RR^*-R^*R$ para algunos $R$ . Este teorema también es cierto. El problema "real" es para las matrices simétricas "complejas".

19voto

Chris Ballance Puntos 17329

Bien, aquí está la respuesta completa: toda matriz simétrica (compleja) y sin trazos $A$ puede escribirse como un conmutador de la forma $[R,R^T]$ para alguna matriz $R$ . Como se han dejado comentarios a mi antigua respuesta, en lugar de editarla, doy una nueva aquí. Una idea similar a las empleadas en mis respuestas a otros problemas relacionados (ver q95537 y q251678 ) es aplicable. La observación clave es la siguiente:

Lema. Supongamos que $A$ es un $n\times n$ matriz simétrica compleja sin trazos.

(a) Cuando $n$ es impar, $A$ es compleja ortogonalmente similar a una matriz cuya última entrada diagonal es cero.

(b) Cuando $n$ está en paz, $A$ es compleja y ortogonalmente similar a una matriz cuyo principal final es $2\times2$ submatriz y principal principal $(n-2)\times(n-2)$ submatriz son ambos sin traza.

Prueba del lema. Supongamos que $n$ es impar y ninguna de las entradas diagonales cero de $A$ es cero. Como $A$ también es sin trazos, debe tener dos entradas diagonales $x$ y $z$ tal que $x\ne\pm z$ . Si $s$ y $c$ son dos números complejos tales que $s^2+c^2=1$ entonces $$ \pmatrix{c&s\\ -s&c}\pmatrix{x&y\\ y&z}\pmatrix{c&-s\\ s&c} = \pmatrix{\ast&\ast\\ \ast&xs^2-2ysc+zc^2}. $$ Así, para demostrar el lema para el caso impar, basta con mostrar que $xs^2-2ysc+zc^2=0$ se puede resolver en $(s,c)$ . Reescribe la ecuación como $x+(z-x)c^2=2ysc$ . Elevando al cuadrado ambos lados, obtenemos $x^2 + 2x(z-x)c^2 + (z-x)^2c^4 = 4y^2(c^2-c^4)$ o $$ [(z-x)^2+4y^2]c^4 + [2x(z-x) - 4y^2]c^2 + x^2 = 0.\tag{$ \N - El brindis $} $$ Dado que el término constante $x^2$ es distinto de cero, si los coeficientes de $c^4$ y $c^2$ desaparecen, la ecuación es irresoluble. Sin embargo, esto no puede ocurrir, de lo contrario tendríamos $(z-x)^2 = -4y^2 = -2x(z-x)$ y a su vez $(z+x)(z-x)=0$ contradiciendo nuestra suposición de que $x\ne\pm z$ . Por lo tanto, $(\ast)$ es solucionable. Es decir, $A$ es ortogonalmente similar (mediante el uso de una "rotación compleja de Givens") a una matriz con una entrada diagonal cero. Realizando una transformación de similitud a través de una permutación matrtix, el resultado es el siguiente.

Supongamos ahora que $n$ es uniforme. Si $A$ tiene un par de entradas diagonales $(x,-x)$ el resultado se obtiene por similitud de permutación. Por el contrario, si $A$ tiene dos entradas diagonales $x$ y $z$ tal que $x\ne\pm z$ entonces el argumento anterior muestra que $A$ es ortogonalmente similar a una matriz cuya última entrada diagonal es cero. Pero entonces el principal $(n-1)\times(n-1)$ submatriz de $A$ no tiene trazos, es simétrico y tiene orden impar. Aplicando (a) a esta submatriz, se obtiene el resultado. $\square$


Prueba de la afirmación principal. Ahora demostramos que toda matriz simétrica compleja $A$ puede escribirse como un conmutador de la forma $[R,R^T]$ . Resulta que la construcción de $R$ es bastante simple. Dividir $R$ en la suma de su parte simétrica compleja $H$ y la parte compleja de simetría oblicua $K$ . Un cálculo sencillo muestra que $[R,R^T]=2[K,H]$ . Así que el problema se reduce a resolver $\frac A2=[K,H]$ . Nos ocuparemos incluso de $n$ e impar $n$ por separado.

Caso 1: $n$ está en paz. Demostraremos por inducción matemática que $\frac A2=[K,H]$ es solucionable con un nonsingular $K$ . El caso base es fácil: $$ \underbrace{\pmatrix{x&y\\ y&-x}}_{A/2} = \underbrace{\pmatrix{0&-1\\ 1&0}}_K \underbrace{\pmatrix{y&-\tfrac x2\\ -\tfrac x2&0}}_H - \pmatrix{y&-\tfrac x2\\ -\tfrac x2&0}\pmatrix{0&-1\\ 1&0}. $$ Ahora, supongamos que la hipótesis de inducción se mantiene hasta las matrices de orden $n-2$ . Consideremos una matriz simétrica sin trazos $A$ de orden $n$ . $$ \frac A2=\left[\begin{array}{c|c} A_{n-2}&\begin{array}{cc}\mathbf a_1&\mathbf a_2\end{array}\\ \hline \begin{array}{c}\mathbf a_1^T\\ \mathbf a_2^T\end{array}&A_2 \end{array}\right], \quad H=\left[\begin{array}{c|c} H_{n-2}&\begin{array}{cc}\mathbf h_1&\mathbf h_2\end{array}\\ \hline \begin{array}{c}\mathbf h_1^T\\ \mathbf h_2^T\end{array}&H_2 \end{array}\right], \quad K=\left[\begin{array}{c|c} K_{n-2}&0\\ \hline0&K_2\end{array}\right], $$ donde $A_{n-2},\,H_{n-2},\,K_{n-2}$ son $(n-2)\times(n-2)$ y $A_2,\,H_2,\,K_2$ son $2\times2$ . Por nuestro lema, podemos suponer que ambos $A_{n-2}$ y $A_2$ son sin rastro. Como $K_2$ es simétrica, $K_2=\alpha Q$ para algún escalar complejo $\alpha$ , donde $Q=\pmatrix{0&-1\\ 1&0}$ . Así, la ecuación $\frac A2=KH-HK$ es equivalente al siguiente sistema de ecuaciones: \begin{align} K_{n-2}H_{n-2}-H_{n-2}K_{n-2}&=A_{n-2},\tag{1}\\ K_2H_2-H_2K_2&=A_2,\tag{2}\\ \pmatrix{K_{n-2}&-\alpha I_{n-2}\\ \alpha I_{n-2}&K_{n-2}}\pmatrix{\mathbf h_1\\ \mathbf h_2} &=\pmatrix{\mathbf a_1\\ \mathbf a_2}.\tag{3} \end{align} Por hipótesis de inducción, $(1)$ y $(2)$ son resolubles y ambos $K_{n-2}, K_2$ puede elegirse como no singular. Para $(3)$ ya que $K_{n-2}$ se desplaza con $\alpha I_{n-2}$ el determinante de la matriz cuadrada del lado izquierdo de $(3)$ es $\det(K_{n-2}^2+\alpha^2 I_{n-2})$ . Como $K_2=\alpha Q$ , mediante el escalado $\alpha$ y $H_2$ adecuadamente, el valor de $\alpha$ puede elegirse de modo que sea distinto de cero y $\det(K_{n-2}^2+\alpha^2 I_{n-2})\ne0$ . Por lo tanto, $(3)$ también es solucionable y $K$ es no singular.

Caso 2: $n$ es impar. El caso $n=1$ es trivial. Supongamos ahora que $n\ge3$ . Por nuestro lema, podemos suponer que la última entrada diagonal de $A$ es cero. Sea $$ \frac A2=\left[\begin{array}{c|c}A_{n-1}&\mathbf a\\ \hline\mathbf a^T&0\end{array}\right], \quad H=\left[\begin{array}{c|c}H_{n-1}&\mathbf h\\ \hline\mathbf h^T&0\end{array}\right], \quad K=\left[\begin{array}{c|c}K_{n-1}&0\\ \hline0&0\end{array}\right], $$ donde $A_{n-1},H_{n-1},K_{n-1}$ son $(n-1)\times(n-1)$ . La ecuación $\frac A2=KH-HK$ es entonces equivalente al sistema de ecuaciones \begin{align} K_{n-1}H_{n-1}-H_{n-1}K_{n-1}&=A_{n-1},\tag{4}\\ K_{n-1}\mathbf h&=\mathbf a\tag{5}. \end{align} Por el resultado para el caso par, $(4)$ es resoluble con una matriz simétrica no singular $K_{n-1}$ . Por lo tanto, $(5)$ también es solucionable.

0 votos

Muchas gracias. Su solución es hermosa y muy creativa.

0 votos

@Daniel Gracias por detectar las erratas. Ya están corregidos y espero que no quede ninguno.

0 votos

Una respuesta muy creativa. Me gusta. +1.

6voto

Schneems Puntos 3208

Aquí puedes encontrar una prueba alternativa para el caso simétrico real. Estoy escribiendo para responder a la pregunta de Clin. Fíjate que el enfoque utilizado por el usuario1551 en su post del 13 de mayo da una solución diferente.

Dejemos que $S$ sea una matriz simétrica real de orden k y traza cero. Sea $S=\sum_{i=1}^n\lambda_iv_iv_i^t$ sea una descomposición espectral de $S$ con $\lambda_1\geq\lambda_2\geq\ldots\geq\lambda_n$ $(\lambda_i\neq 0)$ (Edición: y $v_1,\dots,v_n$ ortonormal).

Definir $\beta_i=\lambda_1+\dots+\lambda_i$ . Observe que $\beta_n=0$ .

Ahora, $\beta_i>0$ para $i<n$ Si no es así $\beta_{i+1}<0$ y $\beta_n<0$ .

Definir las matrices $V_{k\times n-1}, W_{k\times n-1}$ utilizando los vectores $v_i$ como columnas: $V=(v_1,\dots,v_{n-1})$ y $W=(v_2,\dots,v_{n})$ . Observe que $V^tV=W^tW=Id_{n-1}$ .

Definir la matriz diagonal $D_{n-1\times n-1}$ con $\beta_1,\dots,\beta_{n-1}$ en la diagonal.

Observe que $S=\sum_{i=1}^n\lambda_iv_iv_i^t=\sum_{i=1}^{n-1}\beta_iv_iv_i^t-\sum_{i=1}^{n-1}\beta_iv_{i+1}v_{i+1}^t$ . Por lo tanto, $S=VDV^t-WDW^t$ .

Finalmente $S=VD^{\frac{1}{2}}W^tWD^{\frac{1}{2}}V^t-WD^{\frac{1}{2}}V^tVD^{\frac{1}{2}}W^t=RR^t-R^tR$ , donde $R=VD^{\frac{1}{2}}W^t$ .

0 votos

Realmente agradecido por su respuesta

0 votos

@user1551 Gracias.

i-Ciencias.com

I-Ciencias es una comunidad de estudiantes y amantes de la ciencia en la que puedes resolver tus problemas y dudas.
Puedes consultar las preguntas de otros usuarios, hacer tus propias preguntas o resolver las de los demás.

Powered by:

X