6 votos

Diagonalización de la matriz simétrica

Supongamos que tenemos una matriz simétrica $A \in \mathbb R^{n \times n}$ (por ejemplo, la matriz correspondiente a una forma cuadrática) que queremos diagonalizar.

Ahora bien, la forma habitual de hacerlo es encontrar una base ortonormal de $\mathbb R^n$ que consiste en los vectores propios de $A$ (el teorema espectral garantiza siempre su existencia) y la matriz resultante $Q \in O_n(\mathbb R)$ es tal que $QAQ^{-1}$ es diagonal.

Sin embargo, a veces la tarea consiste en diagonalizar una forma cuadrática, pero no de la manera que acabo de describir, sino realizando transformaciones simultáneas de columna y fila (podemos hacerlo gracias al teorema de inercia de Sylvester).

Ahora mis preguntas: ¿Son estos procedimientos completamente diferentes entre sí o hacen lo mismo? ¿Por qué no uso el teorema espectral para diagonalizar una forma cuadrática o por qué no uso el $2$ ¿Qué procedimiento hay que seguir para diagonalizar una matriz simétrica general?

Supongo que esto tiene que ver con la tipo de transformación, es decir, ortogonal o no, pero me gustaría tener alguna buena explicación.

0 votos

Si la matriz original es toda entera (o toda racional), la operación de filas y columnas simultáneas siempre implica números racionales, y se llega a $RAR^T = D$ donde todas las entradas de $R,A,D$ son racionales. VER math.stackexchange.com/questions/1388421/

0 votos

Un ejemplo de 4 por 4 con feos valores propios math.stackexchange.com/questions/395634/

0 votos

6voto

user32262 Puntos 2147

Esta es una buena pregunta. Desde un punto de vista más abstracto e independiente de las coordenadas, los dos procedimientos se aplican en realidad a dos objetos diferentes y dan lugar a algo distinto. Los dos escenarios son:

  1. Tienes una dimensión finita producto interno real espacio $(V, \left< \cdot, \cdot \right>)$ y un operador autoadjunto $T \colon V \rightarrow V$ . Se quiere encontrar una base ortonormal $e_1,\dots,e_n$ de $V$ (es decir, $\left< e_i, e_j \right> = \delta_{ij}$ ) tal que $Tv_i = \lambda_i v_i$ para algunos $\lambda_i \in \mathbb{C}$ . En otras palabras, se quiere encontrar una base ortonormal de vectores propios de $T$ .
  2. Se tiene un espacio vectorial de dimensión finita (sobre un campo de característica $\neq 2$ ) y un forma bilineal simétrica $B \colon V \times V \rightarrow \mathbb{F}$ . Quieres encontrar una base $e_1,\dots,e_n$ de $V$ tal que $B(v_i, v_j) = 0$ para $i \neq j$ . Dicha base se denomina $B$ -ortogonal.

Esto se vuelve confuso cuando se representan los objetos implicados como matrices porque, desafortunadamente, tanto las formas bilineales simétricas como los operadores autoadjuntos se representan como matrices por el mismo objeto: una matriz simétrica. Más concretamente:

  1. Un operador simétrico $T$ se representa con respecto a un base ortonormal $\beta$ por una matriz simétrica $A = [T]_{\beta} \in M_n(\mathbb{R})$ . Con respecto a un base ortonormal $\beta'$ será representada por una matriz diferente $[T]_{\beta'} = Q^{-1} A Q$ donde $Q$ es el cambio de matriz base entre $\beta$ y $\beta'$ . Como ambas bases son ortonormales, $Q$ es realmente ortogonal por lo que tenemos $Q^{-1} A Q = Q^T A Q$ . Si $\beta'$ consiste en los vectores propios de $T$ tenemos $Q^T A Q = D$ donde $D$ es diagonal.

    Desde el punto de vista matricial, dada una matriz simétrica $A \in M_n(\mathbb{R})$ , a diagonalizar ortogonalmente $A$ debemos encontrar un ortogonal matriz $Q$ tal que $Q^T A Q$ es diagonal. Aquí, habrá muchas matrices ortogonales diferentes $Q$ tal que $Q^T A Q$ es diagonal pero, hasta una posible reordenación, los elementos diagonales serán siempre los mismos (son los valores propios de $A$ ).

  2. Una forma bilineal simétrica $B$ se representa con respecto a un base arbitraria $\beta$ de $V$ también por una matriz simétrica $A = [B]_{\beta}$ . Con respecto a una base diferente $\beta'$ será representada por una matriz diferente $[B]_{\beta'} = Q^T A Q$ donde $Q$ es el cambio de matriz base entre $\beta$ y $\beta'$ .

    Desde el punto de vista matricial, dada una matriz simétrica $A \in M_n(\mathbb{F})$ , a diagonalizar $A$ por congruencia debemos encontrar un invertible matriz $Q$ tal que $Q^T A Q$ es diagonal. Aquí, habrá muchas matrices invertibles $Q$ tal que $Q^T A Q$ es diagonal pero las entradas diagonales no serán las mismas, incluso hasta la reordenación.

Por último, vamos a responder a sus preguntas.

  1. ¿Por qué no uso el teorema espectral para diagonalizar una forma cuadrática?

    En primer lugar, el algoritmo para diagonalizar una forma cuadrática funciona sobre cualquier campo de característica $\neq 2$ mientras que el teorema espectral sólo funciona sobre $\mathbb{R}$ por lo que no se puede utilizar el teorema espectral a menos que se trabaje con matrices reales. Incluso si se trabaja con matrices reales, utilizar el teorema espectral para diagonalizar una forma cuadrática es una exageración. De hecho, el teorema espectral garantiza una matriz ortogonal $Q$ tal que $Q^{-1} A Q = Q^T A Q = D$ pero para diagonalizar la forma cuadrática, sólo se necesita un invertible $Q$ no una ortogonal.

    Si quieres utilizar el teorema espectral, tendrás que empezar por encontrar los valores propios de $A$ que consiste en encontrar las raíces de un $n$ polinomio de grado. Como no hay una fórmula cerrada para las raíces, tendrás que aproximarlas y luego encontrar los vectores propios que también serán aproximaciones y así sucesivamente. Pero si utilizas operaciones simultáneas fila/columna, no necesitas encontrar los valores propios de $A$ ¡! Si $A$ tiene entradas racionales, obtendrás una matriz invertible $Q \in M_n(\mathbb{Q})$ que se puede calcular exactamente (suponiendo que se pueda hacer aritmética racional perfecta) tal que $Q^T A Q$ es diagonal. Por supuesto, $Q$ no serán necesariamente ortogonales pero no importa para el propósito de diagonalizar una forma cuadrática por congruencia.

    La única razón para utilizar el teorema espectral para diagonalizar una forma cuadrática es que te den una forma simétrica $B$ en un espacio de producto interno $(V, \left< \cdot, \cdot \right>)$ y quieres encontrar una base $(e_1,\dots,e_n)$ de $V$ que es a la vez $B$ -ortogonal y $\left< \cdot, \cdot \right>$ - ortonormal . Encontrando sólo un $B$ -base ortogonal es mucho más fácil utilizando operaciones simultáneas de fila/columna.

  2. ¿Por qué no utilizo el segundo procedimiento para diagonalizar (ortogonalmente) una matriz simétrica general?

    El segundo procedimiento sólo le dará una matriz invertible $Q$ tal que $Q^T A Q = D$ . No te dará una matriz ortogonal así que $Q^T \neq Q^{-1}$ y esto no es una diagonalización ortogonal (y ni siquiera una diagonalización regular). Esto no es sorprendente porque para diagonalizar $A$ , hay que conocer los valores propios de $A$ y el procedimiento de operaciones de fila/columna no te lo da.

1 votos

Impresionante respuesta, es lo que estaba buscando. Gracias por su tiempo. Nota al margen: el teorema espectral también funciona para $\mathbb C $ ¿No es así?

i-Ciencias.com

I-Ciencias es una comunidad de estudiantes y amantes de la ciencia en la que puedes resolver tus problemas y dudas.
Puedes consultar las preguntas de otros usuarios, hacer tus propias preguntas o resolver las de los demás.

Powered by:

X