Loading [MathJax]/jax/element/mml/optable/BasicLatin.js

26 votos

Inversas de matriz y valores propios

Estaba trabajando en este problema aquí abajo, pero parece que no conozco una forma precisa o clara de mostrar la prueba a esta pregunta a continuación. Tenía algunas formas de hacerlo, pero las afirmaciones/operaciones se utilizaron de manera bastante laxa. El problema es el siguiente:

Mostrar que A1 existe si y solo si los autovalores λi , 1in de A son todos no nulos, y luego A1 tiene los autovalores dados por 1λi, 1in.

Gracias.

28voto

Lorin Hochstein Puntos 11816

(Suponiendo que A es una matriz cuadrada, por supuesto). Aquí hay una solución que no invoca determinantes o diagonalizabilidad, sino solo la definición de valor propio/vector propio y la caracterización de invertibilidad en términos del núcleo. (Agregado para mayor claridad: N(A)=ker(A)={xAx=0}, el núcleo de A.)

A no es invertibleN(A)0existe x0 tal que Ax=0existe x0 tal que Ax=0xexiste un vector propio de A con valor propio λ=0λ=0 es un valor propio de A.

Nota que este argumento es válido incluso en el caso en el que A no tiene valores propios (cuando se trabaja sobre un campo no algebraicamente cerrado, por supuesto), donde la condición "los valores propios de A son todos no nulos" es verdadera por vacuidad.

Para A invertible: λ0 es un valor propio de Aλ0 y existe x0 tal que Ax=λxexiste x0 tal que A(1λx)=xexiste x0 tal que A1A(1λx)=A1xexiste x0 tal que 1λx=A1x1λ es un valor propio de A1.

0 votos

N(A) es el espacio nulo de A, ¿verdad? No creo haber visto esa notación antes.

0 votos

Creo que kerA es más convencional.

2 votos

@Fabian, @Rahul: Sí, es el núcleo nulo, también conocido como el kernel. He visto N(A) en muchos libros, incluyendo Friedberg, Insel y Spence, que es el texto que estoy usando en mi curso en este momento.

8voto

rupps Puntos 151

Aquí hay una prueba corta utilizando el hecho de que los autovalores de A son precisamente las soluciones en λ a la ecuación $\det ({\bf A}-\lambda {\bf I})=0.

Supongamos que uno de los autovalores es cero, digamos λk=0. Entonces det, por lo que {\bf A} no es invertible.

Por otro lado, supongan que todos los autovalores son distintos de cero. Entonces cero no es una solución a la ecuación \det ({\bf A}-\lambda {\bf I}) = 0, de lo cual concluimos que \det({\bf A}) no puede ser cero.

Dejaré la segunda pregunta para usted.

0 votos

Gracias por la respuesta, parece ser una de las maneras en las que tuve que demostrar que el det(A) no es igual a cero a través de la inversa de Cramer.

4voto

Fabian Puntos 12538

Un enfoque diferente al de Joseph (que también muestra cuál es la forma de A^{-1})

Para simplificar, asumamos que A es diagonalizable (de lo contrario, probablemente se pueda extender la demostración utilizando la forma normal de Jordan). La matriz A puede llevarse a la forma A= T D T^{-1} con D = \text{diag}(\lambda_i) una matriz diagonal que contiene los autovalores, y T una matriz invertible. Por lo tanto, la inversa de A se escribe como A^{-1} = (T D T^{-1})^{-1} = T D^{-1} T^{-1}. Esta inversa existe si D^{-1} existe. Pero D^{-1} se puede calcular fácilmente. Está dado por D^{-1} =\text{diag}(\lambda_i^{-1}) lo cual existe siempre y cuando todos los \lambda_i sean diferentes de cero.

0 votos

Gracias por la explicación. Es muy clara y concisa. Sin embargo, quería preguntar sobre para qué se utiliza la matriz T, o con qué propósito sirve en la demostración.

1 votos

La matriz T es la matriz cuya columna i-ésima es el autovector v_i. La descomposición en autovalores te dice que puedes escribir A como A=T D T^{-1}. Teniendo esta descomposición, permite el cálculo fácil de la inversa A^{-1} como se muestra arriba.

0 votos

La descomposición de los valores propios con la diagonal D requiere una base completa de autovectores. Sin embargo, la proposición es más general, como muestra el método de demostración de Arturo, cuando un valor propio distinto de cero puede tener un "defecto" (multiplicidad algebraica mayor que la multiplicidad geométrica).

3voto

Jordan Lev Puntos 146

Aquí hay otro enfoque que proporciona más información. Muestra que las multiplicidades algebraicas coinciden también. Me remito a respuestas anteriores por el hecho de que una matriz es invertible si y solo si 0 no es un autovalor, lo que se utilizará implícitamente a continuación. Me centro en los autovalores de la inversa.

Supongamos que A es una matriz invertible de tamaño n \times n. Suponiendo (sin perder generalidad) que estamos trabajando en un campo algebraicamente cerrado, los autovalores son las raíces del polinomio \det(A-\lambda I) = \prod_{1 \leq i \leq n} (\lambda_i - \lambda). Utilizando las propiedades de los determinantes, obtenemos:

\det(A^{-1} - \lambda I) = \det(A^{-1}) \det(I - \lambda A) = \det(A^{-1}) (-\lambda)^n \det(A - \lambda^{-1}I)

= \det(A^{-1}) (-\lambda)^n \prod_{1 \leq i \leq n} (\lambda_i - \lambda^{-1}) = \det(A^{-1}) \prod_{1 \leq i \leq n} (1 - \lambda \lambda_i)

= \det(A)^{-1} \prod_{1 \leq i \leq n} \lambda_i \prod_{1 \leq i \leq n} (\lambda_i^{-1} - \lambda) = \det(A)^{-1} \det(A) \prod_{1 \leq i \leq n} (\lambda_i^{-1} - \lambda)

= \prod_{1 \leq i \leq n} (\lambda_i^{-1} - \lambda).

1voto

Weeble Puntos 6248

Me gustaría agregar algunas cosas para complementar las respuestas de Arturo y Fabian.

Si tomas el producto externo de un vector unitario, \hat{e} (\lvert e \rangle, notación de Dirac), con su dual, \hat{e}^\ast (\langle e \rvert), obtienes una matriz que proyecta vectores en el espacio definido por el vector unitario, es decir,

$$\begin{aligned}

\mathbf{P}_e &= \hat{e} \otimes \hat{e}^\ast \ &= \lvert e \rangle \langle e \rvert \ &= \left( \begin{array}{ccc} \lVert e_{1} \rVert^2 & e_{1} e_2^\ast & \ldots \\ e_2 e_1^\ast & \lVert e_{2} \rVert^2 & \ldots \\ \vdots & \vdots & \ddots \end{array} \right)

\end{aligned} $$

donde

\mathbf{P}_e \vec{v} = (\vec{v} \cdot \hat{e}) \hat{e}.

En otras palabras, \mathbf{P}_e es un operador de proyección. Utilizando esto, puedes reescribir una matriz, \mathbf{A}, en términos de sus valores propios, \lambda_i, y eigenvectores, \lvert e_i \rangle,

\mathbf{A} = \sum_i \lambda_i \lvert e_i \rangle \langle e_i \rvert

lo cual se conoce como la descomposición espectral. A partir de esto, es evidente que cualquier eigenvector, \hat{e}_i, con un valor propio de cero no contribuye a la matriz, y para cualquier componente de vector en uno de esos espacios, \mathbf{P}_{e_i}\vec{v} = \vec{v}_i, \mathbf{A} \vec{v}_i = 0.

Esto implica que la dimensionalidad del espacio en el que \mathbf{A} opera es más pequeña que la dimensión del espacio utilizado para describirlo. En otras palabras, \mathbf{A} no tiene rango completo, y no es invertible.

i-Ciencias.com

I-Ciencias es una comunidad de estudiantes y amantes de la ciencia en la que puedes resolver tus problemas y dudas.
Puedes consultar las preguntas de otros usuarios, hacer tus propias preguntas o resolver las de los demás.

Powered by:

X