7 votos

Diagonalización simultánea de formas bilineales

Sea $\theta$ y $\psi$ formas bilineales simétricas en un espacio vectorial real $V$ de dimensión finita, y supongamos que $\theta$ es positiva definida. Muestre que existe una base $\{v_1,\ldots,v_n\}$ para $V$ y $\lambda_1,\ldots,\lambda_n\in\mathbb{R}$ tal que $$\theta(v_i,v_j)=\delta_{i,j}\quad\text{y}\quad\psi(v_i,v_j)=\delta_{ij}\lambda_i$$ donde $\delta_{ij}$ es la función delta de Kronecker.

Creo que es suficiente elegir una base $\{w_1,\ldots,w_n\}$ para la cual las representaciones matriciales de $\theta$ y $\psi$ sean ambas diagonales. Entonces $\left\{\frac{w_1}{\sqrt{\theta(w_1,w_1)}},\ldots,\frac{w_n}{\sqrt{\theta(w_n,w_n)}}\right\}$ es la base requerida.

10voto

rck Puntos 121

Su pregunta reduce fundamentalmente al teorema espectral de formas bilineales simétricas. Utilice $\theta$, la forma definida positiva, como un producto interno. Esto hace que $(V,\theta)$ sea un espacio de producto interno (real) y, por lo tanto, el teorema espectral aplicado a $\psi$ te dará una respuesta.


Para un bosquejo de la demostración del teorema espectral, lo que podemos hacer es observar el conjunto de todos los vectores $S := \{ v\in V| \theta(v,v) = 1\}$. Note que por positividad definida cada vector $w\in V$ puede ser escrito como un múltiplo de algún $s\in S$. De hecho, $S$ es una esfera topológica y es compacta. Por lo tanto, podemos dejar que $e_1$ sea un vector en $S$ tal que $\psi(e_1,e_1) = \inf_S \psi(s,s)$. Deje $S_1 = S \cap \{e_1\}^\perp$ donde $\perp$ está definido en relación a $\theta$. Podemos definir $e_2$ como un vector en $S_1$ tal que $\psi(e_2,e_2) = \inf_{S_1} \psi(s,s)$ y así sucesivamente. Por inducción hemos llegado a una colección de vectores que son ortonormales con respecto a $\theta$. Que también son ortogonales $\psi$-ortogonales sigue por minimización: si existe $s\in S_1$ tal que $\psi(e_1,s) \neq 0$, tenemos que para $a^2 + b^2 = 1$ $$ \psi(a e_1 + b s, a e_1 + b s) = a^2 \psi(e_1,e_1) + b^2 \psi(s,s) + 2ab \psi(e_1,s) = \psi(e_1,e_1) + b^2 (\psi(s,s) - \psi(e_1,e_1) + 2ab \psi(e_1,s)$$ Eligiendo $|b| < 1/2$ lo suficientemente pequeño tal que $$ \left|\frac{1}{b}\right| > \left|\frac{\psi(s,s) - \psi(e_1,e_1)}{\psi(e_1,s)}\right| $$ y con el signo apropiado, vemos que podemos hacer que $$ \psi(a e_1 + bs, a e_1 + bs) < \psi(e_1,e_1) $$ contradiciendo la suposición de minimización. Por inducción lo mismo se puede decir de todos los $e_i$, por lo tanto, son mutuamente ortogonales con respecto a $\psi.


Es importante destacar que la suposición de que $\theta$ es definida positiva es esencial. En la prueba anterior usamos el hecho de que para una forma definida positiva, su "esfera unitaria" correspondiente es una esfera topológica y es un conjunto compacto en $V$. Para una forma indefinida o una forma degenerada, la "esfera" correspondiente no sería compacta (imagina algún tipo de hiperboloide o cilindro), por lo que puede suceder que el ínfimo de una función continua en la superficie no se alcance, rompiendo el argumento.

De hecho, dadas dos formas bilineales simétricas sin la suposición de que al menos una de ellas es definida positiva, es posible que no puedan ser diagonalizadas simultáneamente. Un ejemplo: sea $$ \theta = \begin{pmatrix} 1 & 0 \\ 0 & -1\end{pmatrix} \qquad \psi = \begin{pmatrix} 1 & -1 \\ -1 & -1\end{pmatrix}$$ Suponga que desea que $(x,y)$ y $(z,w)$ diagonalicen simultáneamente las matrices. Esto requiere en particular $$ xz = wy \qquad xz - wy - xw - zy = 0 $$ para que se anulen los términos cruzados. Por lo tanto, tenemos $$ xw + zy = 0 $$ Suponiendo $x \neq 0$ (al menos uno de $x,y$ es distinto de cero), resolvemos por sustitución $z = wy / x$ lo que implica $w(x^2 + y^2) = 0$. Dado que $x^2 + y^2 \neq 0$ si $(x,y)$ no es el vector cero, esto significa que $w = 0$. Pero la ecuación $xz = wy = 0$ implica que $xz = 0$. Por suposición, esto implica $z = 0$ y por lo tanto $(z,w)$ es el vector cero, lo que contradice nuestra suposición.

Una demostración similar se puede usar para mostrar que $$ \theta = \begin{pmatrix} 0 & 1 \\ 1 & 0\end{pmatrix} \qquad \psi = \begin{pmatrix} 1 & 2 \\ 2 & 0 \end{pmatrix} $$ tampoco pueden ser diagonalizadas simultáneamente.

3voto

Leon Katsnelson Puntos 274

El truco consiste en encontrar una base que diagonalice simultáneamente $\theta$ y $\psi$.

Toma $V = \mathbb{R}^n$ por simplicidad, y sea $\theta (x,y) = \langle x, A y \rangle$ y $\psi (x,y) = \langle x, B y \rangle$, con $A,B \in \mathbb{R}^{n\times n}$. Por la suposición $A=A^T >0$, y $B= B^T$.

Dado que $A>0$, tiene una descomposición de Cholesky $A = Q^T Q$ (con Q invertible, por supuesto). Ahora considera la matriz $Q^{-T} B Q^{-1}$. Dado que esta es simétrica, puede ser diagonalizada por una matriz ortogonal $U$ para dar $U^T Q^{-T} B Q^{-1} U = \Lambda$, donde $\Lambda$ es diagonal. También notar que $U^T Q^{-T} A Q^{-1} U = I$ (ya que $Q^{-T} A Q^{-1} = I$).

Ahora elige una base $v_i = Q^{-1} U e_i$, donde $e_i$ es la base estándar para $\mathbb{R}^n$. Entonces tenemos $$ \theta(v_i, v_j) = \langle Q^{-1} U e_i , A Q^{-1} U e_j \rangle = \langle e_i , U^T Q^{-T} A Q^{-1} U e_j \rangle = \langle e_i , e_j \rangle, $$ y de manera similar $$ \psi(v_i, v_j) = \langle Q^{-1} U e_i , B Q^{-1} U e_j \rangle = \langle e_i , U^T Q^{-T} B Q^{-1} U e_j \rangle = \langle e_i , \Lambda e_j \rangle, $$ de donde se obtiene el resultado deseado.

i-Ciencias.com

I-Ciencias es una comunidad de estudiantes y amantes de la ciencia en la que puedes resolver tus problemas y dudas.
Puedes consultar las preguntas de otros usuarios, hacer tus propias preguntas o resolver las de los demás.

Powered by:

X