32 votos

Forma rápida de encontrar los valores propios de una matriz anti-diagonal

Si $A \in M_n(\mathbb{R})$ es una matriz anti-diagonal $n \times n$, ¿hay una manera rápida de encontrar sus valores propios de manera similar a encontrar los valores propios de una matriz diagonal? La forma estándar de encontrar los valores propios para cualquier $n \times n$ suele ser directa, pero a veces puede llevar mucho tiempo de cálculo. Solo me pregunto si hay una manera más rápida de hacerlo para cualquier matriz anti-diagonal sin tener que recurrir al método estándar de encontrar el determinante de $A - \lambda I$, donde $I$ es la matriz identidad $n \times n$, y establecerlo igual a $0$ y resolver para $\lambda$.

3 votos

Si $n$ es impar, entonces uno de los autovalores seguramente será el término $\lfloor \frac{n}{2} \rfloor$-th de la matriz.

1 votos

@Ale: ¿Podrías por favor indicarme una referencia con respecto a tu comentario sobre la paridad de $n? No estaba al tanto de este hecho.

3 votos

Sí, claro, simplemente considera una matriz antidiagonal de tamaño $n$ con $n=2m+1, \text{para} m\in \Bbb{N}$. Considera el caso $n=5$ (puedes transportarlo fácilmente a cualquier número impar, pero es más fácil para mí explicarlo), entonces tienes una matriz que se ve así $$A=\begin{pmatrix}0&0&0&0&a_{15}\\0&0&0&a_{24}&0\\0&0&a_{33}&0&0\\0&a_{42}&0&0&0\\a_{51}&0&0&0&0 \end{pmatrix}$$ Puedes notar que si multiplicas $A \cdot \begin{pmatrix}0\\0\\1\\0\\0\end{pmatrix}$ obtienes $a_{33}\cdot (0,0,1,0,0)^T$ y así $a_{33}$ es un eigenvalor según definición.

35voto

Jukka Dahlbom Puntos 1219

Para mayor facilidad de formato y explicación, haré todo para el ejemplo de $5 \times 5$. Sin embargo, el mismo truco funciona para cualquier matriz antidiagonal de $n \times n$ (aunque ligeramente diferente para $n$ par).

Supongamos $$ A = \begin{pmatrix}0&0&0&0&a_{15}\\0&0&0&a_{24}&0\\0&0&a_{33}&0&0\\0&a_{42}&0&0&0\\a_{51}&0&0&0&0 \end{pmatrix} $$

Aquí hay un truco interesante: notamos que $$ A^2 = \pmatrix{ a_{15}a_{51}&&&&\\ &a_{24}a_{42}&&&\\ &&(a_{33})^2&&\\ &&&a_{24}a_{42}&\\ &&&&a_{15}a_{51}\\ } $$ Entonces, los eigenvalores de $A^2$ son precisamente $\{a_{15}a_{51}, a_{24}a_{42}, (a_{33})^2\}$.

Ahora, observa que si $\lambda$ es un eigenvalor de $A$, entonces $\lambda^2$ debe ser un eigenvalor de $A^2$. Esto te da seis candidatos para los eigenvalores de $A$.


De hecho, con un análisis más exhaustivo, podemos garantizar que los eigenvalores serán precisamente $\lambda = \pm \sqrt{a_{i,(n+1-i)}a_{(n+1-i),i}}$ para $i = 1,\dots,\lfloor n/2\rfloor$ y, para $n$ impar, $\lambda = a_{(n+1)/2,(n+1)/2}$.

Prueba de que este es el caso: Denotemos los vectores de la base estándar como $e_1,\dots,e_n$. Sea $S_{ij}$ el espacio generado por los vectores $e_i$ y $e_j$.

Observamos que $A$ es invariante sobre $S_{i(n-i)}$ para $i = 1,\dots,\lfloor n/2\rfloor$. Luego podemos considerar la restricción $A_{i(n-i)}: S_{i(n-i)} \to S_{i(n-i)}$, la cual puede ser representada por la matriz $$ \pmatrix{0 & a_{i(n-i)}\\a_{(n-i)i} & 0} $$ Basta con encontrar los eigenvalores de esta transformación.

Para el caso de un $n$ impar, es suficiente notar que $a_{(n+1)/2,(n+1)/2}$ yace en la diagonal con ceros en su fila y columna.


Otra explicación: denotemos la matriz $S = \pmatrix{e_1 & e_{n} & e_2 & e_{n-1} & \cdots}$

Observando que $S$ es ortogonal (es decir, $S^{-1} = S^{T}$), encontramos que $$ SAS^{-1} = \pmatrix{ 0&a_{1,n}\\ a_{n,1}&0\\ &&0&a_{2,n-1}\\ &&a_{n-1,2}&0\\ &&&&\ddots } $$ Esta matriz es similar, y por lo tanto tiene los mismos eigenvalores. Sin embargo, también es diagonal por bloques.

0 votos

¿Sabemos si los autovalores son positivos o negativos? Sé que podemos simplemente adivinar y comprobar los $\pm \lambda$, pero ¿podemos hacerlo sin adivinar?

0 votos

@IonSme Las segunda y tercera secciones de mi respuesta no requieren "adivinar y verificar"

0 votos

Disculpa por mi error.

9voto

Travis Puntos 30981

Supongamos que $A$ tiene un tamaño par, digamos, $2m \times 2m$. Entonces, reorganizando la base podemos producir una matriz diagonal por bloques con los mismos valores propios que la original.

$$ \left( \begin{array}{cc} 0 & a_{1,2m} \\ a_{2m,1} & 0 \\ \end{array} \right) \oplus \cdots \oplus \left( \begin{array}{cc} 0 & a_{m,m+1} \\ a_{m+1,m} & 0 \\ \end{array} \right). $$ El polinomio característico es

$$\det(\lambda I - A) = \det\left(\lambda I - \left( \begin{array}{cc} 0 & a_{1,2m} \\ a_{2m,1} & 0 \\ \end{array} \right)\right) \cdots \det\left(\lambda I - \left( \begin{array}{cc} 0 & a_{m,m+1} \\ a_{m+1,m} & 0 \\ \end{array} \right)\right) = (\lambda^2 - a_{1,2m}a_{2m,1})\cdots(\lambda^2 - a_{m,m+1}a_{m+1,m}) . $$ y por lo tanto, los valores propios son las raíces de estos polinomios factoriales, es decir, ambas raíces cuadradas de cada uno de los productos $a_{1,2m}a_{2m,1}, \ldots, a_{m,m+1} a_{m+1,m}$.

Si $A$ tiene un tamaño impar, digamos, $(2m + 1) \times (2m + 1)$ cuando cambiamos de base podemos enviar el elemento central ($(m+1)$-ésimo) al final, en cuyo caso el polinomio característico toma una forma similar al caso par (con índices $> m$ desplazados uno hacia arriba), pero con un factor adicional de $\lambda - a_{m+1, m+1}$, por lo que el valor propio adicional en este caso es simplemente la entrada central de la matriz.

6voto

Chris Ballance Puntos 17329

En realidad uno puede encontrar los valores propios de $A$ directamente sin reordenar los índices (nota: no estoy diciendo que esta sea la forma más rápida o preferida de encontrar esos valores propios -- no lo es). Los valores propios de $A$ son simplemente las raíces del polinomio característico $\det(xI-A)$. Cuando $n$ es impar, sea $m=\frac{n+1}2$ y escribimos $$ A=\left[\begin{array}{c|c|c}0&0&A_{13}\\ \hline 0&a_{mm}&0\\ \hline A_{31}&0&0\end{array}\right]\tag{$\ast$} $$ donde $A_{13}$ y $A_{31}$ son dos matrices anti diagonales de tamaño $m-1$. Al expandir por Laplace a lo largo de la fila central, obtenemos $\det(xI-A)=(x-a_{mm})\det\left[\begin{array}{c|c}xI&-A_{13}\\ \hline -A_{31}&xI\end{array}\right]$. Usando la fórmula $\det\pmatrix{X&Y\\ Z&W}=\det(XW-YZ)$ cuando $Z$ y $W$ conmutan, obtenemos además \begin{align*} \det(xI-A)&=(x-a_{mm})\det(x^2I-A_{13}A_{31})\\ &= (x-a_{mm})(x^2-a_{1n}a_{n1})(x^2-a_{2,n-1}a_{n-1,2})\cdots\left(x^2-a_{m-1,m+1}a_{m+1,m-1}\right) \end{align*} y encontrar sus raíces es un asunto trivial.

Cuando $n$ es par, el elemento central en $(\ast)$ se anula y podemos omitir el paso de la expansión por Laplace. El polinomio característico de $A$ es entonces $$ (x^2-a_{1n}a_{n1})(x^2-a_{2,n-1}a_{n-1,2})\cdots\left(x^2-a_{\frac n2,\frac n2+1}a_{\frac n2+1,\frac n2}\right). $$

0 votos

Sí, sí pensé en la línea que describiste. Mis disculpas por la edición ignorante. Por favor cámbialo de nuevo, añadiendo sin embargo una referencia a una prueba de la fórmula del determinante.

0 votos

@Hans Déjame agradecerte por tus contribuciones. Fue una edición útil, no "ignorante". Simplemente parecía sugerir que la fórmula fue originalmente probada o debería ser probada usando el complemento de Schur, lo cual creo que es un poco engañoso.

0 votos

Gracias por tu amable comentario. Pensándolo mejor, esta proposición de hecho puede ser demostrada a través de la continuación analítica por el complemento de Schur como sigue. Supongamos que $A$ conmuta con $C$. $$\det\pmatrix{A+xI&B\\ C&D}=\det(A+xI)\det\left(D-C(A+xI)^{-1}B\right)=\det\big((A+xI)(D-(A+xI)^{-1}CB)\big)=\det\big((A+xI)D-CB\big)$$ para todo $x$ con un lo suficientemente grande $|x|$ para que $A+xI$ sea no singular. Pero ambos extremos de la larga ecuación anterior existen y son analíticos con respecto a todos los $x$. La ecuación puede ser continuada analíticamente hasta $x=0$. Llegamos a la ecuación de determinante deseada.

i-Ciencias.com

I-Ciencias es una comunidad de estudiantes y amantes de la ciencia en la que puedes resolver tus problemas y dudas.
Puedes consultar las preguntas de otros usuarios, hacer tus propias preguntas o resolver las de los demás.

Powered by:

X