6 votos

Los vectores propios de una suma de la diagonal y anti-diagonal de las matrices

Consideremos el caso de una matriz invertible que es la suma de la diagonal y de la anti-diagonal de las matrices.

Un ejemplo $\begin{bmatrix} \color{red}1 & 0 & 0 & 0 & \color{red}6 \\ 0 & \color{red}2 & 0 & \color{red}7 & 0 \\ 0 & 0 & \color{red}3 & 0 & 0 \\ 0 & \color{red}8 & 0 & \color{red}4 & 0 \\ \color{red}9 & 0 & 0 & 0 & \color{red}5 \\ \end{bmatrix}$,

Tales matrices I nombre poco $X$-matrices (incluso más corto de $X$ - tienen más de un nombre oficial?) y es fácil comprobar que la suma de dos $X$-matrices es una $X$-matriz.

También el producto de dos matrices es una $X$-matriz como

$X_1X_2=(D_1+A_1) (D_2+A_2)=(D_1D_2+A_1A_2)+(D_1A_2+A_1D_2)$

($D,A$ denominado aquí como la diagonal y de la antidiagonal parte de $X$) y el producto de dos diagonales o dos anti-diagonal es siempre en diagonal y el producto de la diagonal y anti-diagonal es anti-diagonal.

Además si $X$-matriz es invertible, también su inverso es un $X$-de la matriz debido a la inversa puede ser presentado como un polinomio de $X$ de Cayley-Hamilton teorema.

Realizar cálculos que he encontrado uno más de la propiedad de estas matrices:
es decir, también los vectores propios $v_1, v_2, \dots $ para este tipo de matriz pueden agruparse para formar parte de $X$-matriz.
Por ejemplo, para la matriz mencionados anteriormente hemos vectores propios como colummns de

$V=\begin{bmatrix} \color{red}{-0.730} & \color{red}{0.529} & 0.000 & 0.000 & 0.000 \\ 0.000 & 0.000 & \color{red}{0.730} & \color{red}{-0.633} & 0.000 \\ 0.000 & 0.000 & 0.000 & 0.000 & \color{red}{1.000} \\ 0.000 & 0.000 & \color{red}{-0.683} & \color{red}{-0.774} & 0.000 \\ \color{red}{0.683} & \color{red}{0.848} & 0.000 & 0.000 & 0.000 \\ \end{bmatrix}$,

y es posible permutar las columnas con el fin de obtener de ellos una $X$-matriz.

  • Cómo esta última propiedad puede ser demostrado? ¿Cómo podemos demostrar que no es una permutación de los vectores propios de a $X$-matriz, la cual es también una $X$-matriz?
  • Podríamos utilizar para la prueba de la ecuación de $X=VDV^{-1}$ no obstante, cuando se $V$, si las columnas son elegidos al azar, puede ser en la forma, que no es un $X$-matriz? (pero algunos de permutación supuestamente es ...)

3voto

Ivan Neretin Puntos 2715

El X-matrices son en realidad una muy bien conocida de la familia, en el disfraz: bloque diagonal de las matrices con bloques de $2\times2$. Lea este artículo en la Wikipedia, es bastante corta, y todo lo que necesita de ella es mucho más corto, pero:

Los autovalores y autovectores de a ${A}$ son simplemente los de $A_{1}$ $A_{2}$ ... y $A_{n}$ (combinado).

De hecho, en un X-matriz, $x_1$ interactúa sólo con $x_n$, $x_2$ con $x_{n-1}$, y así sucesivamente. ¿Por qué no reordenar sus vectores de la base a la interacción queridos uno al lado del otro? Con su $5\times5$ ejemplo, esto implica la reordenación de la base como $(x_1,x_5,x_2,x_4,x_3)$. La matriz en la cual se hace que es de $$P=\begin{pmatrix}1& 0& 0& 0& 0\\ 0& 0& 0& 0& 1\\ 0& 1& 0& 0& 0\\ 0& 0& 0& 1& 0\\ 0& 0& 1& 0& 0\end{pmatrix}$$ Ahora que aplica a su matriz $X$ y obtener $$PXP^T=\begin{pmatrix}1& 6& 0& 0& 0\\ 9& 5& 0& 0& 0\\ 0& 0& 2& 7& 0\\ 0& 0& 8& 4& 0\\ 0& 0& 0& 0& 3 \end{pmatrix}$$ P. e.d.

1voto

fianchetto Puntos 186

Sugerencia. En su matriz de 5x5, usted puede fácilmente observar que no SIEMPRE existen:

una. Dos vectores propios de la forma $u=(x,0,0,0,y)$ - debido a $Au=(x',0,0,0,y')$

b. Dos vectores propios de la forma $v=(0,x,0,y,0)$ - debido a $Av=(0,x',0,y',0)$ y

c. el autovector $(0,0,1,0,0)$.

Ponerlos juntos como columnas, y obtener un X-matriz.

i-Ciencias.com

I-Ciencias es una comunidad de estudiantes y amantes de la ciencia en la que puedes resolver tus problemas y dudas.
Puedes consultar las preguntas de otros usuarios, hacer tus propias preguntas o resolver las de los demás.

Powered by:

X