8 votos

Representación matricial del producto interior

En mis lecturas he encontrado en varias ocasiones referencias a un teorema de álgebra lineal que dice lo siguiente

Dejemos que $g$ sea un producto interno no degenerado sobre el espacio vectorial real $V$ . Entonces, existe una base $e_1, \dots, e_n$ tal que la matriz de $g$ es diagonal y cuyas entradas diagonales son todas $-1$ o $1$

A pesar de haber encontrado este resultado varias veces, desgraciadamente, no he tenido la suerte de encontrar una referencia precisa de dónde se afirma/aprueba este teorema. ¿Puede alguien proporcionar una referencia que demuestre esta afirmación?

9voto

sq1020 Puntos 143

Una pequeña corrección: productos internos son siempre normalmente definida positiva, por lo que siempre hay una base respecto a la cual la matriz que representa el producto es la matriz identidad (diagonal con todas las $1$ 's). Lo que se pregunta es el hecho de que cada forma bilineal simétrica no degenerada sobre los reales se puede representar de forma relativa en alguna base por una matriz que es la matriz identidad.

Esto se desprende inmediatamente de Ortogonalización Gram-Schmidt . Dado que la forma bilineal $(\cdot,\cdot)$ es simétrico, podemos definir que dos vectores son ortogonales si $(x,y)=0$ .

Entonces, escogiendo una base arbitraria y ejecutando la ortogonalización de Gram-Schmidt se obtiene una base ortonormal relativa a esa forma, es decir, una base $\{v_i\}$ tal que $(v_i,v_j)=0$ si $i\neq j$ y $||(v_i,v_i)||=1$ . Entonces, como la matriz $M=(m_{ij})$ representando a $(\cdot,\cdot)$ en relación con una base $\{v_i\}$ tiene la propiedad de que $m_{ij}=(v_i,v_j)$ (ya que $(v_i,v_j)=(v_i^TMv_j)$ ), se deduce que $M$ es diagonal con entradas no nulas de norma $1$ . Pero sobre los reales, un número no nulo de norma $1$ son $\{1,-1\}$ .


Todo esto se generaliza a las formas bilineales simétricas (las degeneradas tienen un montón de $0$ a lo largo de la diagonal) sobre campos arbitrarios, excepto que si no se tiene una norma no se puede normalizar la base para que todos los vectores tengan norma $1$ .

Nótese que sobre el número complejo, el producto interior NO es una forma bilineal simétrica, sino una forma bilineal conjugada-simétrica; la ortogonalización de Gram-Schmidt tiene que ser modificada en consecuencia, pero aún puede hacerse funcionar.

8voto

sam Puntos 95

Este es un resultado muy conocido, así que me sorprende que no lo encuentres. Cualquier libro decente de álgebra (general) debería tenerlo. Por ejemplo Lang's Algebra, Ch. XV Estructura de las formas bilineales . O Álgebra Básica de Knapp, Formas bilineales simétricas . O el Álgebra de Mac Lane y Birkhoff, capítulo sobre Formas cuadráticas .

Como dijo André, esto se cita a menudo como la Ley de Inercia de Sylvester, y el par (o triple) de números de +1,-1 (y 0's) se llama la firma. Así que las palabras sylvester law inertia signature debería llevarle a resultados de búsqueda relevantes.

\Edit : Permítanme añadir a la respuesta de Qiaochu una prueba de la buena definición de la firma. Parece que ésta es un poco más elegante que la que se encuentra en la mayoría de los libros.

Así que sabemos de una descomposición ortogonal $V=V_+\oplus V_-$ con nuestra forma no degenerada $B$ positiva o negativa definida en $V_+$ resp. $V_-$ . Digamos que tienen dimensión $p,q$ respectivamente. Si $W$ es cualquier subespacio de $V$ en el que $B$ es positiva definida, entonces $B$ es positiva y negativa definida en $W\cap V_-$ Por lo tanto $W\cap V_-=0$ . Esto implica $\dim W\leq \dim V-q=p$ . Por lo tanto, $p$ es la dimensión máxima de los subespacios en los que $B$ es positiva definida, por lo que $p$ sólo depende de la forma $B$ .

(Si la forma es degenerada, el número de ceros es sólo el núcleo, y $p+q$ es el rango).

5voto

Matt Dawdy Puntos 5479

Aquí tienes una prueba. Sea $B : V \times V \to \mathbb{R}$ sea una forma bilineal simétrica. Basta con demostrar por inducción que podemos escribir $V = \text{span}(v) \oplus W$ para algún vector no nulo $v$ tal que $B(v, w) = 0$ para cualquier $w \in W$ y tal que $B(v, v) = 0, 1, -1$ .

Elija un producto interior $\langle \cdot, \cdot \rangle$ en $V$ (sin relación con $B$ ) y que $S^{n-1}$ denotan su esfera unitaria. Sea $v \in S^{n-1}$ sea tal que $B(v, v)$ es máxima. Sea $w$ sea un vector unitario ortogonal a $v$ Entonces

$$B(v + tw, v + tw) = B(v, v) + 2t B(v, w) + t^2 B(w, w) \le (1 + t^2) B(v, v)$$

por hipótesis, por lo que $2 B(v, w) \le t(B(v, v) - B(w, w))$ . Tomando $t = 0$ da $B(v, w) \le 0$ y aplicando este resultado a $-w$ da $B(v, w) = 0$ . Dependiendo del valor de $B(v, v)$ podemos reescalar $v$ para que $B(v, v) = 0, 1, -1$ y tomar $W$ para ser el complemento ortogonal de $v$ (con respecto al producto interior).

Tomando $B = \langle v, Aw \rangle$ donde $A$ es simétrica y definida positivamente, el contenido intuitivo de la prueba anterior es que $v$ es un eje de la elipse $B(v, v) = 1$ . Obsérvese que en realidad no he demostrado el contenido completo de la ley de la inercia, que establece además que el número de veces $0, 1, -1$ aparece no depende de la elección de la descomposición.

5voto

Oli Puntos 89

Probablemente se refiera a la Ley de Inercia de Sylvester. Tal vez busque directamente eso. Sin embargo, yo sugeriría primero buscar el teorema que dice que un la matriz simétrica es diagonalizable . Una prueba se encuentra en casi todos los libros de álgebra lineal para principiantes, y se puede encontrar información en la web en los lugares habituales.

Todo ello es una generalización del conocido procedimiento de "completar el cuadrado".

i-Ciencias.com

I-Ciencias es una comunidad de estudiantes y amantes de la ciencia en la que puedes resolver tus problemas y dudas.
Puedes consultar las preguntas de otros usuarios, hacer tus propias preguntas o resolver las de los demás.

Powered by:

X