Loading [MathJax]/jax/element/mml/optable/GeneralPunctuation.js

21 votos

Una matriz simétrica cuyo cuadrado es cero

Una vez me preguntaron en un examen oral si puede haber una matriz simétrica no nula cuyo cuadrado sea cero. Después de pensarlo un poco respondí que no podía haberla porque el polinomio mínimo de tal matriz está garantizado que es x2 lo que demuestra que no es diagonalizable. Tuve que aclarar que una matriz es diagonalizable si su polinomio mínimo es un producto de factores lineales distintos, y que toda matriz simétrica es diagonalizable.

Aunque todo esto es correcto, el examinador mencionó que hay un argumento más sencillo posible, pero no lo detalló. Desde entonces me he preguntado cuál podría ser ese argumento más sencillo. ¿Puede alguien dar una prueba más sencilla?

Gracias

0 votos

Por lo tanto, la matriz debe ser una inversa de sí misma.

0 votos

"Distintos" factores lineales no es del todo cierto toma la matriz como la identidad.

0 votos

@User24601: No estoy seguro de lo que quieres decir. El polinomio mínimo para la identidad es simplemente x1 y, por lo tanto, por sí mismo es un factor lineal. A menos que quieras distinguir entre "factores" y "factor".

21voto

Cagri Puntos 61

El (i,i)th componente del cuadrado de un n×n matriz simétrica A=(aij) viene dada por nj=1aijaji=nj=1a2ij Si A0 entonces algunos aij0 y luego (A2)ii0 .

0 votos

Esto es, efectivamente, más sencillo. Sin embargo, creo que las sumas se pasan de j.

6 votos

Este sencillo argumento funciona en cualquier campo ordenado independientemente del cierre algebraico. Como una inversión parcial, observe que [1ii1] es un contraejemplo en cualquier campo donde 1 tiene una raíz cuadrada.

1 votos

Esto también equivale a decir que si el i -en la columna de A se denota por Ci entonces (A2)i,i= y la norma es cero si el vector es cero por lo que los términos diagonales no pueden ser todos cero si las columnas de A no son todos cero ( A\neq0 )

14voto

Brian Hinchey Puntos 1112

Como dijo Pete he utilizado que una matriz cuadrada simétrica es ortogonalmente diagonalizable

Una matriz cuadrada simétrica es diagonalizable, por lo que A=Q^{-1} D Q Por lo tanto, A^2 =Q^{-1} D\cdot D Q Nos multiplicamos con Q^T de la derecha y con Q desde la izquierda Q A^2 Q^{-1} = D^2 Como A^2=0 tenemos 0=D^2 Así que el cuadrado de cada valor propio es 0 por lo que todos los valores propios son 0 por lo que A debe ser 0 .

0 votos

Esto es casi exactamente lo que pensé... pero no sé por qué estás escribiendo Q^T . Por la definición de diagonalizable debería ser Q^{-1} . Ahora bien, es cierto que una matriz simétrica real es diagonalizable ortogonalmente Lo que has escrito no está mal... pero escribirlo así parece añadir una complicación innecesaria.

0 votos

@PeteL.Clark si yo usaba que una matriz simétrica real es diagonalizable ortogonalmente puedo cambiarlo si quieres

10voto

Chris Ballance Puntos 17329

Esto depende realmente del campo subyacente.

  • Como ha señalado Erick Wong en un comentario a otra respuesta aquí, existen complejo matrices simétricas cuyos cuadrados son cero. El ejemplo que dio es \pmatrix{1&i\\ i&-1} .
  • Si el campo subyacente es GF(2) tenemos \pmatrix{1&1\\ 1&1}^2=0 .
  • Si se trata de real matrices simétricas, entonces A^2=0\Rightarrow A=0 . Muchas respuestas aquí han explicado por qué es así. Aquí añadiré otra: si A^2=0 entonces 0=x^TA^2x=x^TA^TAx=\|Ax\|^2 para todo vector x es decir Ax=0 para todos x . Por lo tanto, A=0 .

7voto

Jim Petkus Puntos 3447

Denote A^* el adjunto, que es simplemente la transposición en el caso real, como supongo que es el caso aquí. Así que tu suposición es A^*=A . Entonces toma el rastro:

0=\mbox{Trace}(A^2)=\mbox{Trace}(A^*A)=\sum |a_{ij}|^2\quad\Rightarrow\quad a_{ij}=0\quad\forall i,j.

Y esto funciona de forma más general para A hermitiana tal que A^2=0 .

3voto

Doy una respuesta, pero no estoy seguro de que sea un argumento más sencillo:

Por la descomposición de Dunford sabemos que S se puede escribir S=D+N donde D es una matriz diagonalizable y N es una matriz nilpotente y tenemos unicidad de descomposición pero como S=0+S entonces D debe ser 0 Por lo tanto S=0 es la única matriz simétrica que verifica la hipótesis.

0 votos

Así que la singularidad "demuestra" D=0 Por lo tanto S=N es decir S nilpotente. Ya lo sabíamos.

0 votos

@julien No por la descomposición de Dunford sabemos que S tiene los mismos valores propios de D .

0 votos

¿Y qué? Ya veo, así que estás usando a Dunford para probar que el espectro de S es \{0\} sin utilizar el polinomio mínimo. Efectivamente, no es un argumento más sencillo. Y todavía tienes que usar ese S es diagonalizable para concluir que S=0 . Pero bueno, ¡es bueno hacer algo de publicidad para la descomposición de Dunford!

i-Ciencias.com

I-Ciencias es una comunidad de estudiantes y amantes de la ciencia en la que puedes resolver tus problemas y dudas.
Puedes consultar las preguntas de otros usuarios, hacer tus propias preguntas o resolver las de los demás.

Powered by:

X