1 votos

Transformaciones de congruencia de matrices

Del libro Mecánica Analítica de Fowles y Cassiday estoy estudiando los osciladores armónicos acoplados clásicos. Se trata de sistemas gobernados por un sistema de ecuaciones diferenciales lineales de segundo orden de la forma $\mathbf{M} \ddot{\mathbf{q}}+\mathbf{K}\mathbf{q} = 0$ . Aquí quiere resolver $\mathbf{q}$ en función del tiempo $t$ y $\mathbf{M},\mathbf{K}$ son matrices cuadradas. Intenta introducir $\mathbf{q} = \mathbf{a} \cos (\omega t - \delta)$ para indeterminado $\mathbf{a}, \omega, \delta$ para obtener el sistema de ecuaciones $(\mathbf{K}-\omega^2\mathbf{M})\mathbf{a}\cos(\omega t-\delta) = 0$ .

Para encontrar soluciones no triviales hay que encontrar las raíces $\omega^2_1, \dots, \omega^2_k$ de $\det(\mathbf{K}-\omega^2 \mathbf{M})$ como polinómico en $\omega^2$ y luego calcular $\ker(\mathbf{K}-\omega^2_i \mathbf{M})$ para $i=1,\dots, k$ .

Supongamos ahora que los núcleos $\ker(\mathbf{K}-\omega_i^2\mathbf{M}), i=1,\dots,k$ abarcan todo el espacio lineal, por lo que tienes una base de "vectores propios" $\mathbf{a}_1, \dots, \mathbf{a}_n$ (Utilizo comillas porque estrictamente hablando no son vectores propios). A continuación, puede hacer una matriz de transformación de base $\mathbf{A}$ con los vectores $\mathbf{a}_i$ como columnas.

1) A continuación, el libro afirma que las transformaciones de congruencia $\mathbf{A}^T \mathbf{K} \mathbf{A}$ y $\mathbf{A}^T \mathbf{M} \mathbf{A}$ son matrices diagonales. ¿Por qué?

Edita: se da un contraejemplo tomando $\mathbf{M} = \mathbf{K} = \begin{bmatrix} 1 & 1 \\ 1 & -1 \end{bmatrix}$ tal que $\omega^2 = 1$ es la única raíz de la ecuación determinante y $\mathbf{A} = \mathbf{I}_2$ . Entonces las transformaciones de congruencia son sólo las propias matrices: $\mathbf{A}^T \mathbf{K}\mathbf{A} = \mathbf{K}$ y $\mathbf{A}^T\mathbf{M}\mathbf{A} = \mathbf{M}$ .

Así que la pregunta de seguimiento es: ¿qué supuestos sobre $\mathbf{M}$ y $\mathbf{K}$ para que se cumpla esta afirmación?

2) ¿Cuál es la intuición que subyace a dicha transformación de congruencia? Para una transformación de semejanza a partir de una matriz $\mathbf{B}$ a $\mathbf{D}=\mathbf{P}^{-1} \mathbf{B} \mathbf{P}$ Puedo interpretar esto intuitivamente como: pasar de la base $\mathbf{P}\mathbf{e}_1, \dots, \mathbf{P}\mathbf{e}_n$ a la base $\mathbf{e}_1, \dots, \mathbf{e}_n$ . ¿Es posible una interpretación similar también para las transformaciones de congruencia?

0voto

thierryb Puntos 1269

No tengo su libro, y sería reacio a ensombrecerlo y malinterpretarlo haciendo virtualmente ingeniería inversa... El punto confuso de la transformación del eje principal que estás considerando se trata meticulosamente en el libro de Mecánica Clásica de Goldstein, capítulo 10-2. Básicamente tienes razón en que la arbitrariedad $\mathbf{M}$ y $\mathbf{K}$ falsificará su declaración. Anticipando lo que viene a continuación, estás tratando con una especie de ortogonalidad en un espacio no cartesiano, y la generalización desenfrenada apenas merece la pena.

Mi contraejemplo sería utilizar matrices de Pauli hermiteanas. Entonces, tomar a ciegas una matriz "masa" desagradable, $$\mathbf{M} = \sigma_2= \begin{bmatrix} 0 & -i \\ i & 0 \end{bmatrix}, $$ (lo que dará lugar a $\omega^2$ s!) y uno de potencial real simétrico, $ \mathbf{K}= \sigma_1 =\begin{bmatrix} 0 & 1 \\ 1 & 0 \end{bmatrix}.$ Su ecuación de movimiento $\ddot{\mathbf{q}}= - \mathbf{M}^{-1} \mathbf{K}\mathbf{q}= i\sigma_3 \mathbf{q}$ se resuelve fácilmente mediante $$ e^{\pm \sqrt{i} t} \begin{bmatrix} 1 \\ 0 \end{bmatrix} , ~\hbox {and } ~ e^{\pm \sqrt{-i}t} \begin{bmatrix} 0 \\ 1 \end{bmatrix}, $$ por lo que su matriz modal $\mathbf{A}= I= \mathbf{A}^T$ bastante pésimo para diagonalizar cualquier cosa. (Usted habría encontrado la misma matriz modal de su determinante).

Sin embargo, existen condiciones $\mathbf{M}$ al igual que en $\mathbf{K}$ . Normalmente es real, simétrica y definida positiva, y dará lugar a $^\dagger$ real $\omega^2$ . Así que primero puede diagonalizarla mediante una transformación ortogonal y, a continuación, absorber los valores propios positivos de la matriz diagonal resultante en una redefinición/reescalado de las coordenadas por su raíz cuadrada. Como resultado, la nueva $\mathbf{M}=I $ y real habitual, simétrica $\mathbf{K}$ se convierten en reales y simétricos.

Pero ahora su ecuación de valores propios se ha convertido en $\mathbf{K}\mathbf{q} = \omega^2 \mathbf{q}$ con valor propio real, cuya ecuación secular se ha convertido en $\det ( \mathbf{K} -\omega^2 I )=0$ mientras que su matriz modal $\mathbf{A}= \mathbf{R}$ es sólo una rotación ortogonal, $ \mathbf{R}^T= \mathbf{A}^{-1}$ y diagonaliza $\mathbf{K}$ dejando sólo la matriz de masa de identidad.

Ahora, la gente respetable piensa $\mathbf{M}$ como una especie de métrica efectiva del espacio de modos normales, pero, como se ha indicado, para simétricas reales $\mathbf{M}$ y $\mathbf{K}$ Si la primera tiene valores propios positivos distintos de cero, es posible que los más ingenuos piensen que la congruencia es una composición de rotaciones y un simple reescalado de coordenadas, sólo una arruga en un aburrido problema de diagonalización.

  • He aquí la ilustración más sencilla que se me ha ocurrido. Tomemos $$ \mathbf{K} =\begin{bmatrix} 0 & 1 \\ 1 & 0 \end{bmatrix}, ~\hbox{but} ~~~~ \mathbf{M} =\begin{bmatrix} 4 & 0 \\ 0 & 1 \end{bmatrix} .$$ La matriz de masa no es invariante bajo rotaciones, así que podríamos rotar ambas matrices por algo para hacerla no diagonal, pero supongamos que ya hiciste lo inverso.

Entonces parte de la deconstrucción que he esbozado. Reescala $\mathbf{q} \equiv \mathbf{S} \mathbf{x} $ con $\mathbf{S} = \mathbf{S}^T$ =diag (1/2, 1), de modo que $$ \mathbf{S}\mathbf{K}\mathbf{S}\mathbf{x}= \omega^2 \mathbf{x} $$ es ahora una auténtica ecuación de valores propios. (Se da la circunstancia de que la matriz lhs es $\mathbf{K} /2$ aquí).

Los vectores propios de la simétrica $\mathbf{S}\mathbf{K}\mathbf{S}$ son los habituales para $\sigma_1$ , $$ \frac{1}{\sqrt{2}} \begin{bmatrix} 1 \\ \mp 1 \end{bmatrix} , $$ mutuamente ortogonales, por lo que la matriz modal es ahora ortogonal, y diagonaliza esta matriz de potencial transformada, dejando la identidad $\mathbf{S}\mathbf{M}\mathbf{S}=I$ solo, por lo que también diagonal. Esencialmente trivial. ¿Cómo se presenta esto en el lenguaje de congruencia de su pregunta?

Resolviendo el mismo sistema ab initio, pero ahora sin el beneficio de la rotación y el reescalado anteriores, se obtienen los vectores nulos $$ \mathbf{a}_{1,2}= \frac{1}{\sqrt{5}} \begin{bmatrix} 1 \\ \mp 2 \end{bmatrix} , $$ con real $\omega^2$ y una matriz modal invertible $$ \mathbf{A}=\frac{1}{\sqrt{5}} \begin{bmatrix} 1 & 1\\ -2 & 2 \end{bmatrix} , $$ que no es ortogonal ( $\propto \mathbf{S}\mathbf{R}$ ); pero, por supuesto, diagonaliza tanto $\mathbf{K}$ y $\mathbf{M}$ (más bien, deja esta última diagonal) por razones evidentes, teniendo en cuenta la simple deconstrucción anterior. Una verdadera relación de equivalencia. Un cambio de base a modos normales, $$\mathbf{A}\mathbf{e}_i=\mathbf{a}_i .$$

Armado con esa intuición, podría proceder a elegir un camino formalmente aceptable para las afirmaciones del libro, probablemente en la línea de la nota a pie de página.


$\dagger$ Considere <span class="math-container">$$ \mathbf{a}_i^ \cdot (\mathbf{K}-\omega_i^2\mathbf{M})\mathbf{a}_i = 0 \implies \omega_i^2= \mathbf{a}_i^ \cdot \mathbf{K} \mathbf{a}_i / \mathbf{a}_i^ \cdot \mathbf{M}\mathbf{a}_i $$</span> sin suma implícita sobre los índices de modo <em>i </em>. Así que todos <span class="math-container">$\omega_i^2$</span> son reales. También puede mostrar los vectores nulos <span class="math-container">$\mathbf{a}_i$</span> son mutuamente ortogonales respecto a una métrica <span class="math-container">$\mathbf{M}$</span> y ortonormalizarlos s.t. <span class="math-container">$ \mathbf{a}_i^ \cdot \mathbf{M}\mathbf{a}j=\delta{ij}$</span> ,

0voto

Frknx Puntos 16

Por qué $A^T\,M\,A$ y $A^T\,K\,A$ son matrices diagonales .

queremos resolver esta ecuación diferencial vectorial

$$\,M\,\vec{\ddot q}+K\,\vec{q}=0\tag 1$$ o $$\vec{\ddot q}+M^{-1}\,K\,\vec{q}=0\tag 2$$

para resolver la ecuación (2) hacemos este Ansatz:

$\vec{q}=\Re(\vec{a}\,e^{i\omega\,t})$

por tanto, ecuación (2)

$$\underbrace{(-\omega^2\,I+M^{-1}\,K)}_{E }\,\vec{a}=0\tag 3$$

con $\det(E)=0$ se obtienen los valores propios $\omega_i^2$ y para cada $\omega_i^2$ los vectores propios $\vec{a}_i$

donde $\vec{a}_i^T\,\vec{a}_j=1 \quad \text{for } i=j$ y $\vec{a}_i^T\,\vec{a}_j=0 \quad \text{for } i\ne j$

la matriz de transformación $A$ se construye con los vectores propios $\vec{a}_i$

$$A=\left[\vec{a}_1\,,\vec{a}_2\,,\ldots\,,\vec{a}_n\right]$$

así: $$A^T\,M^{-1}\,K\,A=\Lambda$$ donde $\Lambda$ es $n\times n$ matriz diagonal

$$\Lambda=\text{diagonal}\left[\omega_1^2\,,\omega_2^2\,,\ldots\,,\omega_n^2\right]$$

podemos transformar $\vec{q}$ con la matriz $A$ a $\vec{q}=A\,\vec{q}_m$ por tanto, ecuación (1)

$$A^T\,M\,A\,\vec{\ddot q}_m+A^T\,K\,A\,\vec{q}_m=0\tag 4$$

o: $$\vec{\ddot q}_m+\left(A^T\,M\,A\right)^ {-1}\,\left(A^T\,K\,A\right)\vec{q}_m=0\tag 5$$

con:

$$\underbrace{\left(A^TM\,A\right)^{-1}}_{Q_1} \underbrace{\left(A^T\,K\,A\right)}_{Q_2}= A^TM^{-1}AA^TKA=A^T\,M^{-1}KA=\Lambda$$

porque $\Lambda$ es una matriz diagonal, por lo que $Q_1$ y $Q_2$ deben ser matrices diagonales, por lo que

$A^T\,M\,A$ y $A^T\,K\,A$ son matrices diagonales. q.e.d

Por ejemplo:

$$M=K= \left[ \begin {array}{cc} 1&1\\ 1&-1\end {array} \right] $$

$$M^{-1}K=\begin{bmatrix} 1 &0 \\ 0 & 1 \\ \end{bmatrix}$$

por lo que los valores propios son : $\omega_1^2=\omega_2^2=1$

como los valores propios son iguales, hay que utilizar la aproximación de Jordan para obtener los vectores propios, por lo que la matriz de transformación $A=[\vec{a}_1\,,\vec{a}_2]$

$$A=\left[ \begin {array}{cc} 1&0\\ 1&1\end {array} \right] $$

$$A^TMA=A^TKA=\begin{bmatrix} 2 &0 \\ 0 & -1 \\ \end{bmatrix}$$

y la solución es la parte real de esta ecuación:

$$\vec{q}(t)=(c_1\vec{a}_1+c_2\vec{a}_2)e^{i\,t}$$

donde $c_1$ y $c_2$ son constantes complejas.

con $c_1=c_{1R}+i\,c_{1I}\quad,c_2=c_{2R}+i\,c_{2I}$

obtendrá la solución

$$q_1(t)=c_{1R}\cos(t)-c_{1I}\sin(t)$$ $$q_2(t)=(c_{1R}+c_{2R})\cos(t)-(c_{1I}+c_{2I})\sin(t)$$

tienes cuatro constantes para cuatro condiciones iniciales

i-Ciencias.com

I-Ciencias es una comunidad de estudiantes y amantes de la ciencia en la que puedes resolver tus problemas y dudas.
Puedes consultar las preguntas de otros usuarios, hacer tus propias preguntas o resolver las de los demás.

Powered by:

X