6 votos

Prueba alternativa de la continuidad de la inversión de la matriz

He de demostrar que

$\mathrm{inv}: \mathrm{GL}_{n \times n}(\mathbb{R}) \to \mathrm{GL}_{n \times n}(\mathbb{R}); A \mapsto A^{-1}$

es una función continua. Lo he demostrado mostrando que el deteriminante es continuo, y que la formación del adjunto es continua, en cuyo caso se puede aplicar la fórmula

$A^{-1} = \frac{1}{\mathrm{det}(A)}\mathrm{adj}(A)$ .

Todo esto está muy bien, pero me gustaría ver una prueba más intuitiva que no se base simplemente en mostrar que alguna fórmula está compuesta por funciones continuas. He intentado encontrar algún tipo de relación entre las normas de los operadores de $A$ y $A^{-1}$ pero no pude encontrar nada que se mantenga en el caso general. Por ejemplo, si algo parecido a

$\min_{x \in \mathbb{S}^{n-1}}{(Ax)} \times \max_{x \in \mathbb{S}^{n-1}}{(A^{-1}x)} = 1$

fuera cierto, uno podría construir una prueba épsilon-delta a través de eso. Sin embargo, la expresión anterior, aunque inutiva, parece ser falsa (parece que sólo se cumple si las x elegidas resultan ser vectores propios, a menos que mis intentos de verificarla en Mathematica sean erróneos). ¿Conoce alguien una prueba más intuitiva de la afirmación que la que he esbozado arriba?

0 votos

Obsérvese que la prueba de det sólo funciona para operadores de dimensión finita, es decir, matrices. Para la prueba general que funciona en cualquier álgebra de Banach, véase la respuesta de Yves Daoust.

0 votos

Oh, sí, estamos en R^n, no en un espacio de dimensión infinita.

0 votos

Si se demuestra que las operaciones de fila son continuas en $GL_{n\times n}$ el algoritmo de Gauss-Jordan implica inmediatamente que la inversión es una composición de funciones continuas.

13voto

CodingBytes Puntos 102

Dejemos que $A_0\in GL({\mathbb R}^n)$ y poner $${1\over\|A_0^{-1}\|}=:\alpha>0\ .$$ De ello se desprende que para todo $x$ tenemos $$|x|=|A_0^{-1}A_0 x|\leq{1\over\alpha}|A_0 x|$$ y por lo tanto $|A_0x|\geq\alpha|x|$ . Supongamos que $\|A-A_0\|<{\alpha\over2}$ . Entonces $$|Ax|\geq|A_0x|-|(A-A_0)x|\geq{\alpha\over 2}|x|\ ,$$ por lo que tal $A$ es de nuevo regular y tiene una inversa $A^{-1}$ de la norma $\leq{2\over\alpha}$ . Desde $$A^{-1}-A_0^{-1}=A^{-1}(A_0-A)A_0^{-1}$$ ahora deducimos $$\|A^{-1}-A_0^{-1}\|\leq\|A^{-1}\|\>\|A_0-A\|\>\|A_0^{-1}\|\leq{2\over\alpha^2}\|A-A_0\|\ .$$ Esto demuestra que ${\rm inv}$ es incluso continua de Lipschitz en $A_0$ .

0 votos

Me cuesta seguir una parte de este argumento: la afirmación de que $\|A^{-1}\|\le \frac{2}{\alpha}$ . Desde $|Ax| \ge \frac{\alpha}{2}|x|$ está claro que (suponiendo que $\|\cdot\|$ es una norma de operador), $\|A\|\ge \frac{\alpha}{2}$ pero no veo cómo pasar de esto a $\|A^{-1}\|\le \frac{2}{\alpha}$ . ¡Cualquier sugerencia sería muy apreciada! (Sólo la desigualdad de la norma - Puedo ver que esto implica la inversa existe).

3 votos

@AlexHodges: Dada una arbitraria $y$ , dejemos que $x:=A^{-1}y$ en $|Ax|\geq{2\over\alpha}|x|$ .

0 votos

Ah, claro - eso es súper bueno. ¡Gracias!

7voto

Yves Daoust Puntos 30126

Una pista:

Para una matriz pequeña $\delta$ (tal que $\|A^{-1}\delta\|<1$ ), $$(A+\delta)^{-1}=(A(I+A^{-1}\delta))^{-1}=(I+A^{-1}\delta)^{-1}A^{-1}=(I-A^{-1}\delta+(A^{-1}\delta)^2-\cdots)A^{-1}$$ (se puede hacer converger la serie) para que

$$\|(A+\delta)^{-1}-A^{-1}\|\le\|A^{-1}\|^2\,\|I-A^{-1}\delta+\cdots\|\,\|\delta\|$$

también es pequeño.

5voto

Steven Lu Puntos 866

En dimensión finita, también funciona el teorema de la función implícita. El producto matricial $(X,Y)\longmapsto XY$ es bilineal y continua, por lo que $C^1$ . La inversa viene dada por la ecuación $XA = I$ Comprueba que $$\frac{\partial(XA - I)}{\partial A}$$ es invertible y esto demuestra que $A\longmapsto X = A^{-1}$ es $C^1$ .

i-Ciencias.com

I-Ciencias es una comunidad de estudiantes y amantes de la ciencia en la que puedes resolver tus problemas y dudas.
Puedes consultar las preguntas de otros usuarios, hacer tus propias preguntas o resolver las de los demás.

Powered by:

X