2 votos

Confusión sobre la diagonalización de matrices, el problema del valor propio generalizado y las formas cuadráticas (ejemplo lagrangiano)

Pido disculpas por la longitud de esta pregunta, pero realmente quería saber dónde está el problema.

Primera parte (no esencial)

El origen del problema viene de un problema en física que consiste en diagonalizar un Lagrangiano (un tipo especial de forma cuadrática) de la forma L=12i,jmij˙xi˙xj12i,jkijxixj=12(˙x|M˙x)12(x|Kx)L=12i,jmij˙xi˙xj12i,jkijxixj=12(˙x|M˙x)12(x|Kx)

donde x=(x1x2..xn) y M=(mij) y K=(kij) y donde M y K es una matriz simétrica definida positiva

la forma física de resolver el problema sería utilizar las ecuaciones de Euler-Lagrange para obtener n ecuaciones diferenciales de segundo orden, a saber: M¨x+Kx=0 en forma de matriz, ya que M es definida positiva, entonces es invertible, por lo que escribimos ¨x+M1Kx=0 ahora deseamos encontrar algún vector a que ¨a+M1Ka=¨a+ω2aa=0 a es también conocido como el vector propio con su valor propio ω2a . Para este caso particular, la ecuación diferencial es fácil de resolver porque se convierte en la ecuación del oscilador armónico, de modo que Q1(t)=aeiωat

se trata en realidad del proceso de diagonalización de la matriz M1K lo que hacemos mediante el método estándar Lin.Alg. det(M1KλI)=0 desde M es positiva definida det(M)>0 así que por Binet-Cauchy det(M)det(M1KλI)=0 De esta forma encontramos (digamos que el sistema es no degenerado) encontramos todos aquellos ω21,ω22...ω2n y a1,...an y, por último, todas las soluciones especiales Q1(t),Q2(t),...Q3(t) para esos vectores propios (aka Modos) los ''vectores'' en nuestro ''espacio solución'' (como diría algún físico) {Q1(t),...Qn(t)} forman una base de nuestro espacio de soluciones, por lo que cualquier solución posible x(t) puede representarse como una combinación lineal de los vectores Q1(t)...Qn(t) por lo que podemos escribir (CiC)

x(t)=C1Q1(t)+C2Q2(t)+...CnQn(t)

donde Ci se determinan a partir de las condiciones iniciales. hasta aquí todo bien, no ha habido ningún cambio de base.

Segunda parte

la segunda manera de enfocar esto es volver a nuestro Lagrangiano

L=12i,jmij˙xi˙xj12i,jkijxixj=12(˙x|M˙x)12(x|Kx)

y preguntar: ¿podemos cambiar la base de tal manera que ambas matrices M y K se vuelven ortogonales? si podemos () llamemos a esas coordenadas qi (qué coincidencia) entonces obtenemos un Lagrangiano (forma cuadrática) del tipo

L=12i,jmijδij˙xi˙xj12i,jkijδijqiqj=12(˙q|DM˙q)12(q|DKq)

Este Langrangiano nos da las ecuaciones de movimiento que están completamente separadas

(m1....mn)(¨q1(t)..¨qn(t))+(k1....kn)(q1(t)..qn(t))=0

lo que significa que para cada qi obtenemos la solución qi(t)=Ceiωit ( ωi es (ki/mi) por supuesto)

así que básicamente tenemos lo mismo que en la primera parte. Escribimos nuestra solución x en la base de vectores qi lo que equivale a representarlo como xi(t)=C1ai1q1(t)+C2ai2q2(t)+...Cnainqn(t)

Podemos escribir la totalidad de x como

x=(x1x2..xn)=(C1a11q1(t)+C2a12q2(t)+...Cna1nqn(t)C1a21q1(t)+C2a22q2(t)+...Cna2nqn(t)..C1an1q1(t)+C2an2q2(t)+...Cnannqn(t))=(a11a12a21a22..ann)(C1q1(t)C2q2(t)..Cnqn(t))=AQ

ahora C1,...Cn son condiciones iniciales del sistema con base qi (¿creo?)

por lo que la matriz A compuesto de nuestros vectores propios transforma {qi}{xi} por lo que nuestro cambio inicial de base fue en realidad A1

todo tranquilo en el frente occidental

Tercera parte (empiezan a surgir problemas)

en la segunda parte () asumimos que tal cambio de base se puede hacer a entonces encontramos la matriz A1 esa era la transformación que buscábamos. Ahora intentaré demostrar que este tipo de transformación siempre se puede hacer (y confundirme por el camino..)

Podemos diagonalizar M con una matriz ortogonal U porque M es real y simetrías, así:

M=STDMS

ahora desde M es definida positiva tiene valores propios positivos por lo que existe una matriz Sij=δijμi (donde μi son valores propios de la matriz DM )

podemos ver que la matriz US transformar la matriz M en una matriz unitaria

(US)TM(US)=I

La matriz (US)TK(US) sigue siendo simétrica porque

kij=k,l(US)Tikkkl(US)lj=k,l(US)kikkl(US)Tjl=k,l(US)Tjlklk(US)ki=kji

y puesto que K es simétrica existe una matriz ortogonal V tal que VTKV=(USV)TK(USV)

Esto demuestra que la matriz (USV) diagonaliza M y K simultáneamente.

¡Por fin para las preguntas!

1.) ¿Qué hacemos realmente con S ? ¿Es un cambio de base de algún tipo que acorta cada vector base por el factor 1μi ? ¿se trata de una transformación? ¿Significa esto que hemos cambiado efectivamente todos los valores propios a 1? (lo cual no tiene sentido) ¿o significa que es un vector de nuestra base que multiplicado por su valor propio da 1?

es la matriz A del final de la segunda parte igual a la matriz (USV) ?

¿Significa la tercera parte que podemos reducir toda matriz (que sea definida positiva) a una matriz identidad, en caso afirmativo por qué? en caso negativo, ¿por qué no? y ¿qué significa geométricamente?

En la parte 3, ¿son los vectores propios de M y K ¿son los mismos vectores o son diferentes pero diagonalizables por la misma transformación? ¿Es esto posible?

En este respuesta hay basicamente una conexión entre la parte dos y la parte uno, donde @MichaelSeifert define el vector v y v y dice que los vectores base pueden no ser necesariamente ortogonales (se refiere a la base de vectores que diagonalizan el Lagrangiano) v y v no son los valores propios de la misma matriz? ¿Qué son, qué representan? ¿No son este afirmar claramente que los modos normales son ortogonales? ¿no debería deducirse esto también de la Teorema del eje principal ? ¿por qué son siempre ortogonales? (¿prueba de referencia?)

Espero que mis preguntas tengan sentido y sean comprensibles, y de nuevo perdón por la longitud del post, pero es que estoy super confusa y no me entra en la cabeza desde hace dos semanas....

Saludos

1voto

Yuanwei Chen Puntos 167

Tenga en cuenta que hay dos tipos de "diagonalización". Una es para una transformación lineal, la otra es para una forma cuadrática.

Si no he entendido mal, estás diagonalizando dos formas cuadráticas simultáneamente. El significado geométrico de este procedimiento es redefinir la medida, que es el producto interior de los vectores base. Normalmente podemos denotarlo como [(ei,ej)] . Determinará completamente el valor de las formas cuadráticas, por ejemplo podemos escribir xTAx=i,jxixjeTiAej donde xi es la i-ésima entrada de x . El producto interior habitual es xTx=i,jxixjeTiej por lo que hemos definido un nuevo producto interior <ei,ej>=eTiAej .

Si existe un P tal que PTAP=B decimos que las matrices A y B son congruentes. Toda matriz definida positiva es congruente con I . Y toda matriz definida positiva es simétrica por lo que tenemos T ortogonales tales que TTAT=T1AT=D donde D es diagonal.

Así que para hacer la diagonalización de M y K podemos elegir primero P tal que PTMP=I . A continuación, elija T tal que T es ortogonal y TT(PTKP)T=D . Sea Q=PT , x=Qy entonces tenemos ˙xTM˙x+xTKx=˙yT˙y+yTDy

En este contexto, x=Qy es sólo una sustitución que cambia la medida, y no tiene nada que ver con los vectores propios (que viene del contexto de la transformación lineal).

i-Ciencias.com

I-Ciencias es una comunidad de estudiantes y amantes de la ciencia en la que puedes resolver tus problemas y dudas.
Puedes consultar las preguntas de otros usuarios, hacer tus propias preguntas o resolver las de los demás.

Powered by:

X