26 votos

Matrices inversas y valores propios

Yo estaba trabajando en este problema aquí abajo, pero parece que no sé una manera precisa o limpia para mostrar la prueba a esta pregunta a continuación. Yo tenía unas cuantas maneras de hacerlo, pero las declaraciones / operaciones fueron bastante vagamente utilizado. El problema es el siguiente:

Demuestra que ${\bf A}^{-1}$ existe si y sólo si los valores propios $ \lambda _i$ , $1 \leq i \leq n$ de $\bf{A}$ son todas distintas de cero, y entonces ${\bf A}^{-1}$ tiene los valores propios dados por $ \frac{1}{\lambda _i}$ , $1 \leq i \leq n$ .

Gracias.

28voto

Lorin Hochstein Puntos 11816

(Suponiendo $\mathbf{A}$ es una matriz cuadrada, por supuesto). Aquí está una solución que no invoca determinantes o diagonalizability, pero sólo la definición de valor propio / vector propio, y la caracterización de la invertibilidad en términos del espacio nulo. ( Añadido para mayor claridad: $\mathbf{N}(\mathbf{A}) = \mathrm{ker}(\mathbf{A}) = \{\mathbf{x}\mid \mathbf{A}\mathbf{x}=\mathbf{0}\}$ el espacio nulo/núcleo de $\mathbf{A}$ .)

\begin{align*} \mbox{$\mathbf{A}$ is not invertible} &\Longleftrightarrow \mathbf{N}(\mathbf{A})\neq{\mathbf{0}}\\ &\Longleftrightarrow \mbox{there exists $\mathbf{x}\neq\mathbf{0}$ such that $\mathbf{A}\mathbf{x}=\mathbf{0}$}\\ &\Longleftrightarrow \mbox{there exists $\mathbf{x}\neq\mathbf{0}$ such that $\mathbf{A}\mathbf{x}=0\mathbf{x}$}\\ &\Longleftrightarrow \mbox{there exists an eigenvector of $\mathbf{A}$ with eigenvalue $\lambda=0$}\\ &\Longleftrightarrow \mbox{$\lambda=0$ is an eigenvalue of $\mathbf{A}$.} \end{align*}

Obsérvese que este argumento es válido incluso en el caso de que $\mathbf{A}$ no tiene valores propios (cuando se trabaja sobre un campo no algebraicamente cerrado, por supuesto), donde la condición "los valores propios de $\mathbf{A}$ son todas distintas de cero" es verdadera por vacuidad.

Para $\mathbf{A}$ invertible: \begin{align*} \mbox{$\lambda\neq 0$ is an eigenvalue of $\mathbf{A}$} &\Longleftrightarrow \mbox{$\lambda\neq 0$ and there exists $\mathbf{x}\neq \mathbf{0}$ such that $\mathbf{A}\mathbf{x}=\lambda\mathbf{x}$}\\ &\Longleftrightarrow\mbox{there exists $\mathbf{x}\neq\mathbf{0}$ such that $\mathbf{A}({\textstyle\frac{1}{\lambda}}\mathbf{x}) = \mathbf{x}$}\\ &\Longleftrightarrow\mbox{there exists $\mathbf{x}\neq \mathbf{0}$ such that $\mathbf{A}^{-1}\mathbf{A}({\textstyle\frac{1}{\lambda}}\mathbf{x}) = \mathbf{A}^{-1}\mathbf{x}$}\\ &\Longleftrightarrow\mbox{there exists $\mathbf{x}\neq \mathbf{0}$ such that $\frac{1}{\lambda}\mathbf{x} = \mathbf{A}^{-1}\mathbf{x}$}\\ &\Longleftrightarrow\mbox{$\frac{1}{\lambda}$ is an eigenvalue of $A^{-1}$.} \end{align*}

8voto

rupps Puntos 151

He aquí una breve demostración utilizando el hecho de que los valores propios de ${\bf A}$ son precisamente las soluciones en $\lambda$ a la ecuación $\det ({\bf A}-\lambda {\bf I})=0$ .

Supongamos que uno de los valores propios es cero, por ejemplo $\lambda_k=0$ . Entonces $\det ({\bf A}-\lambda_k {\bf I})=\det ({\bf A})=0$ Así que ${\bf A}$ no es invertible.

Por otro lado, supongamos que todos los valores propios son distintos de cero. Entonces cero es no una solución a la ecuación $\det ({\bf A}-\lambda {\bf I})=0$ de lo que se deduce que $\det({\bf A})$ no puede ser cero.

La segunda pregunta se la dejo a usted.

4voto

Fabian Puntos 12538

Un enfoque diferente al de Joseph (que también muestra cuál es la forma de $A^{-1}$ es)

Supongamos por simplicidad que $A$ es diagonalizable (de lo contrario, es muy probable que se pueda ampliar la prueba utilizando la forma normal de Jordan). La matriz $A$ en el formulario $$A= T D T^{-1}$$ con $D = \text{diag}(\lambda_i)$ una matriz diagonal que contiene los valores propios, y $T$ y matriz invertible. La inversa de $A$ por lo tanto dice $$A^{-1} = (T D T^{-1})^{-1} = T D^{-1} T^{-1}.$$ Esta inversa existe si $D^{-1}$ existir. Pero $D^{-1}$ podemos calcularlo fácilmente. Viene dado por $D^{-1} =\text{diag}(\lambda_i^{-1})$ que existe mientras todos $\lambda_i$ son distintos de cero.

3voto

Jordan Lev Puntos 146

He aquí un enfoque diferente que aporta más información. Muestra que las multiplicidades algebraicas también coinciden. Me remito a las respuestas anteriores para el hecho de que una matriz es invertible si $0$ no es un valor propio, que se utilizará implícitamente a continuación. Sólo me centro en los valores propios de la inversa.

Supongamos que $A$ es un invertible $n \times n$ matriz. Suponiendo (WLOG) que estamos trabajando en un campo algebraicamente cerrado, los valores propios son las raíces del polinomio $\det(A-\lambda I) = \prod_{1 \leq i \leq n} (\lambda_i - \lambda)$ . Usando las propiedades de los determinantes, obtenemos:

$$ \det(A^{-1} - \lambda I) = \det(A^{-1}) \det(I - \lambda A) = \det(A^{-1}) ( -\lambda)^n \det(A - \lambda^{-1}I)$$

$$ = \det(A^{-1}) ( -\lambda)^n \prod_{1 \leq i \leq n} (\lambda_i - \lambda^{-1}) = \det(A^{-1}) \prod_{1 \leq i \leq n} (1 - \lambda \lambda_i) $$

$$ = \det(A)^{-1} \prod_{1 \leq i \leq n} \lambda_i \prod_{1 \leq i \leq n} (\lambda_i^{-1} - \lambda) = \det(A)^{-1} \det(A) \prod_{1 \leq i \leq n} (\lambda_i^{-1} - \lambda)$$

$$ = \prod_{1 \leq i \leq n} (\lambda_i^{-1} - \lambda).$$

1voto

Weeble Puntos 6248

Me gustaría añadir algunas cosas para complementar Arturo's y Fabian's respuestas.

Si tomas el producto exterior de un vector unitario, $\hat{e}$ ( $\lvert e \rangle$ , Notación de Dirac ), con su doble , $\hat{e}^\ast$ ( $\langle e \rvert$ ), se obtiene una matriz que proyecta vectores sobre el espacio definido por el vector unitario, es decir

$$ \begin {aligned}

\mathbf{P}_e &= \hat{e} \otimes \hat{e}^\ast \ &= \lvert e \rangle \langle e \rvert \ &= izquierda( \begin{array}{ccc} \lVert e_{1} \rVert^2 & e_{1} e_2^\ast & \ldots \\ e_2 e_1^\ast & \lVert e_{2} \rVert^2 & \ldots \\ \vdots & \vdots & \ddots \end{array} \right)

\end {aligned} $$

donde

$$ \mathbf{P}_e \vec{v} = (\vec{v} \cdot \hat{e}) \hat{e}. $$

En otras palabras, $\mathbf{P}_e$ es un operador de proyección. Usándolo, puedes reescribir una matriz, $\mathbf{A}$ en términos de sus valores propios, $\lambda_i$ y vectores propios, $\lvert e_i \rangle$ ,

$$ \mathbf{A} = \sum_i \lambda_i \lvert e_i \rangle \langle e_i \rvert$$

que se denomina descomposición espectral . A partir de esto, es fácil ver que cualquier vector propio, $\hat{e}_i$ con un valor propio cero no contribuye a la matriz, y para cualquier componente vectorial en uno de esos espacios, $\mathbf{P}_{e_i}\vec{v} = \vec{v}_i$ , $$\mathbf{A} \vec{v}_i = 0.$$

Esto implica que la dimensionalidad del espacio que $\mathbf{A}$ es menor que la dimensión del espacio utilizado para describirlo. Dicho de otro modo, $\mathbf{A}$ no posee rango completo y no es invertible.

i-Ciencias.com

I-Ciencias es una comunidad de estudiantes y amantes de la ciencia en la que puedes resolver tus problemas y dudas.
Puedes consultar las preguntas de otros usuarios, hacer tus propias preguntas o resolver las de los demás.

Powered by:

X