6 votos

Matrices que difieren sólo en Diagonal de descomposición

Supongamos que $\mathbf A_1$ $\mathbf A_2$ $n \times n$ matrices. Existen las condiciones necesarias y suficientes de tal manera que no existe $n \times n$ matrices $\mathbf U$ $\mathbf V$ $n \times n$ diagonal de las matrices de $\mathbf D_1$ $\mathbf D_2$ que satisfacer

$$ \mathbf A_1 = \mathbf U \mathbf D_1 \mathbf V , \quad \text{and} \quad \mathbf A_2 = \mathbf U \mathbf D_2 \mathbf V?$$


Una condición suficiente es para $\mathbf A_1$ $\mathbf A_2$ a sea invertible y tienen los mismos vectores propios, entonces el resultado se sigue de la eigendecomposition. Tenía la esperanza de encontrar una condición necesaria, quizás, el LDU de descomposición.

2voto

richard Puntos 1

Voy a estar tratando con $n\times n$ matrices sobre un campo $F$. Voy a tratar de hacer una parte bastante feliz, porque me esperan los siguientes resultados parciales, pero en cuanto más sencilla y común de los casos. Voy a llamar a las matrices de $A_1$ $A_2$ simultáneamente diagonalizable la condición de que existan diagonal de las matrices $D_1$, $D_2$ y invertible matrices $U$, $V$ tal que $A_1=UD_1V$$A_2=UD_2V$. Considere la posibilidad de un polinomio matriz $A(x)=xA_1+A_2$ con elementos de $F[x]$. Deje $r$ es el rango de la matriz $A(x)$ $d_r(A(x))\ne 0$ es su $r$-ésimo factor determinante divisor. Vamos

$$d_r(A(x))=(x-x_1)^{r_1}\cdots (x-x_k)^{r_k},$$

donde $x_i$ son distintos elementos del campo $F$.

Espero poder demostrar los siguientes dos proposiciones y presentar mis ideas.

Proposición 1. Si las matrices de $A_1$ $A_2$ son simultáneamente diagonalizable entonces no primaria divisor de la matriz $A(x)$ tiene múltiples raíces.

Prueba de idea. Vamos $D_1$, $D_2$ se diagonal y $U$, $V$ ser invertible matrices tales que el$A_1=UD_1V$$A_1=UD_2V$. A continuación,$UA(x)V=D_1x+D_2\equiv D(x)$. Por lo tanto, las matrices de $A(x)$ $D(x)$ tienen el mismo Smith forma normal. A continuación, para cada $i\le r$, $i$-th determinante divisor $d_i(D(x))$ de la matriz $D(x)$ satisface la igualdad

$$d_i(D(x))= (x-x_1)^{\max\{r_1+i-r,0\}}\cdots (x-x_k)^{\max\{r_k+i-r,0\}}.$$

Así, una escuela primaria divisor $\alpha_i(A(x))= \alpha_i(D(x))=\frac{d_i(D(x))}{d_{i-1}(D(x))}$ divide a un producto de $$(x-x_1) \cdots (x-x_k).\square$$

Proposición 2. Si $|A_1|\ne 0$ y no primaria divisor de la matriz $A(x)$ tiene múltiples raíces, a continuación, las matrices de $A_1$ $A_2$ son simultáneamente diagonalizable.

Prueba de idea. Deje $D(x)\equiv D_1x+D_2$ ser una matriz diagonal que tiene una entrada $x-x_k$ exactamente $r_k$ tiempos para cada una de las $k$. Desde $\alpha_i| \alpha_{i+1}$ por cada $1\le i<r$ y no primaria divisor $\alpha_i(A(x))$ de la matriz $A(x)$ tiene múltiples raíces, podemos ver fácilmente que la matriz $D(x)$ tiene el mismo divisores elementales como la matriz de $A(x)$ $\alpha_i(A(x))=\alpha_i(D(x))$ por cada $i$. Por lo tanto las matrices de $A(x)$ $D(x)$ tienen el mismo Smith forma normal. Por lo tanto, no existen invertible matrices $U(x), V(x)$ con elementos de $F(x)$ tal que $U(x)A(x)V(x)=D(x)$. De manera similar a la prueba del Teorema 6 de [Gan, Ch. VI, $\S 4$] podemos mostrar (y aquí sólo usamos ese $|A_1|$ es distinto de cero) que existen invertible matrices $U, V\in F$ con elementos de $F$ tal que $UA(x)V=D(x)$. A continuación, $A_1=UD_1V$ y $A_1=UD_2V$. $\square$

Me detengo ahora, porque ya he llamado a mi colega que es una matriz teórico y se interesó en el problema. En el lunes se va a volver a Lviv y la próxima espero visitar para una larga conversación con el té sobre este y otros relacionados con la matriz de MSE preguntas. (Pero puede ser difícil para llegar a la felicidad plena en este mundo imperfecto, por lo que su respuesta a su pregunta por $\Bbb R[x]$ puede ser: "Desde $\Bbb R[x][y]$ no es ni siquiera un director ideal de dominio, este es un problema muy difícil (y mucho más difícil cuando se trata de singular matrices) y algunos de los resultados son sólo en casos particulares".)

Espero mejorar ambas proposiciones un poco por el uso de la matriz $A(x,y)=|A_1x+A_2y|$ en lugar de la matriz $A(x)$, al igual que en el inicio de [Gan, Ch. XII]. Por desgracia, estos resultados no son directamente aplicables a nuestro problema, ya que el autor está tratando con número de campos.

Referencias

[Gan] Félix Ruvimovich Gantmakher, La teoría de Matrices. (Ruso, inglés ediciones)

1voto

richard Puntos 1

Esta respuesta se utiliza un enfoque diferente a la de mi primera respuesta.

Voy a llamar a las matrices de $A_1$ $A_2$ simultáneamente diagonalizable la condición de que existan diagonal de las matrices $D_1$, $D_2$ y invertible matrices $U$, $V$ tal que $A_1=UD_1V$$A_2=UD_2V$.

La proposición. Deje $A_1$ ser una matriz invertible. A continuación, las matrices de $A_1$ $A_2$ son simultáneamente diagonalizable iff una matriz de $A_2A_1^{-1}$ es similar a una matriz diagonal. Por otra parte, si estamos considerando las matrices a través de una algebraicamente cerrado de campo, a continuación, estas dos condiciones son equivalentes a la diagonaility de la forma normal de Jordan de la matriz $A_2A_1^{-1}$.

Prueba. Si las matrices de $A_1$ $A_2$ son simultáneamente diagonalizable entonces

$$A_2A_1^{-1}=UD_2VV^{-1}D_1^{-1}U^{-1}= UD_2D_1^{-1}U^{-1},$$

Que es la matriz $A_2A_1^{-1}$ es similar a una matriz diagonal. Por el contrario, asumir que existe una matriz diagonal $D$ y una matriz invertible $U$ tal que $A_2A_1^{-1}=UDU^{-1}$. Poner $V=U^{-1}A_1$. Entonces

$$U^{-1}A_2V^{-1}= U^{-1} UDU^{-1}A_1A_1^{-1}U=D$$ y

$$U^{-1}A_1V^{-1}=U^{-1}A_1A_1^{-1}U=I,$$

Por lo tanto las matrices $A_1$ $A_2$ son simultáneamente diagonalizable. $\square$

i-Ciencias.com

I-Ciencias es una comunidad de estudiantes y amantes de la ciencia en la que puedes resolver tus problemas y dudas.
Puedes consultar las preguntas de otros usuarios, hacer tus propias preguntas o resolver las de los demás.

Powered by:

X