La congruencia simultánea a través de una matriz ortogonal implica en particular la diagonalización ortogonal simultánea y en particular, la diagonalización simultánea. Supongamos que existe una matriz ortogonal $Q$ tal que $Q^tAQ = \mathrm{diag}(\lambda_1, \lambda_2)$ y $Q^tBQ = \mathrm{diag}(\mu_1, \mu_2)$ . Desde $Q^t = Q^{-1}$ Debemos tener que $\lambda_1,\lambda_2$ son los valores propios de $A$ y las columnas de $Q$ son una base ortonormal de vectores propios (con respecto al producto interior estándar sobre $\mathbb{R}^2$ ) de $A$ correspondiente a $\lambda_i$ . De la misma manera, $\mu_1,\mu_2$ son los valores propios de $B$ y las columnas de $Q$ debe formar una base ortonormal de vectores propios de $B$ correspondiente a $\mu_i$ . Las matrices $A$ y $B$ serán simultáneamente congruentes con matrices diagonales a través de una matriz ortogonal si y sólo si se puede encontrar una base ortonormal de $\mathbb{R}^2$ que consiste en vectores propios ambos de $A$ y $B$ .
El polinomio característico de $A$ es $\chi_A(t) = t^2 - 6t + 9$ y así $\{\lambda_1, \lambda_2 \} = \{3 - 2\sqrt{2}, 3 + 2\sqrt{2}\}$ . Los eigenspaces correspondientes son
$$ V_{3 - 2\sqrt{2}} = \mathrm{span}\{(1 + \sqrt{2}, 1)^t\}, V_{3 + 2\sqrt{2}} = \mathrm{span}\{(1 - \sqrt{2}, 1)^t\}$$ .
Desde
$$ \begin{pmatrix} -3 & 6\\ 6 & -10 \end{pmatrix} \begin{pmatrix} 1 + \sqrt{2} \\ 1 \end{pmatrix} = \begin{pmatrix} 3 + 6\sqrt{2} \\ -4 + 6\sqrt{2} \end{pmatrix} \neq (-4 + 6\sqrt{2}) \begin{pmatrix} 1 + \sqrt{2} \\ 1 \end{pmatrix}$$
vemos que un vector propio de $A$ no será un vector propio de $B$ y, por lo tanto, es imposible la congruencia simultánea a través de una matriz ortogonal.
Alternativamente, se puede demostrar que dos matrices reales simétricas son ortogonalmente diagonalizables simultáneamente si y sólo si conmutan. Como $AB \neq BA$ Esto demuestra que $A$ y $B$ no pueden ser diagonalizados simultáneamente.
2 votos
Tendrían que tener los mismos vectores propios. No los mismos valores propios, ni siquiera la misma relación de valores propios. Sólo importa la dirección de los vectores propios. Para dos por dos se puede averiguar esto con algunas raíces cuadradas en el peor de los casos.
0 votos
No es necesario que ninguna de las dos sea definida positiva para que exista una matriz $P$ como la que has encontrado, existe un algoritmo siempre que una de ellas sea invertible.
1 votos
@WillJagy - ¿puedes explicar por qué deben tener los mismos vectores propios? ¿Es una condición necesaria y suficiente? Thank you.
1 votos
@WillJagy - probablemente, pero no conozco una condición necesaria para la diagonalización simultánea (sólo sé que la condición suficiente es que una de las matrices sea definida positiva).
0 votos
En la primera edición de Horn y Johnson, Matrix Analysis, está en la tabla 4.5.15T en la página 229. La segunda edición (2013) lo hace de otra manera, yo prefiero la primera. El teorema 4.5.15 se enuncia en la página 228, y el caso II(b) se amplía en la página 231 principalmente.
0 votos
Ver estos math.stackexchange.com/questions/88022/ math.stackexchange.com/questions/88026/ math.stackexchange.com/questions/1406359/