Hay un truco interesante para calcular la inversa de cualquier matriz triangular superior invertible, uno que evita el cálculo de determinantes complicados. Ya que funciona para cualquier matriz triangular superior (o inferior) T de cualquier tamaño n, lo explicaré en ese contexto.
Lo primero que uno necesita recordar es que el determinante de una matriz triangular es el producto de sus entradas diagonales. Esto puede verse fácilmente por inducción en n. Es trivialmente cierto si n = 1; para n = 2, tenemos
$T= \begin{bmatrix} t_{11} & t_{12} \\ 0 & t_{22} \end{bmatrix}, \tag{1}$
entonces obviamente
$\det(T) = t_{11} t_{22}. \tag{2}$
Si formulamos ahora la hipótesis inductiva de que
$\det(T) = \prod_1^k t_{ii} \tag{3}$
para alguna T triangular superior de tamaño k,
$T = [t_{ij}], \; \; 1 \le i, j \le k, \tag{4}$
entonces para T de tamaño k + 1 tenemos que
$\det(T) = t_{11} \det(T_{11}), \tag{5}$
donde $T_{11}$ es la matriz k x k formada eliminando la primera fila y columna de T. (4) sigue fácilmente de la expansión de $\det(T)$ en términos de sus menores de primera columna (ver esta página de wikipedia), ya que $t_{i1} = 0$ para $i \ge 2$. De nuestra hipótesis inductiva,
$\det(T_{11}) = \prod_2^{k + 1} t_{ii}, \tag{6}$
entonces de (5)
$\det(T) = t_{11} \det(T_{11}) = t_{11} \prod_2^{k + 1} t_{ii} = \prod_1^{k + 1} t_{ii}, \tag{7}$
demostrando nuestra afirmación.
Se sigue inmediatamente de (7) que el polinomio característico $p_T(\lambda)$ de $T$ es
$p_T(\lambda) = \det(T - \lambda I) = \prod_1^n (t_{ii} - \lambda), \tag{8}$
y de (8) que los eigenvalores de $T$ son precisamente sus entradas diagonales, es decir, los $t_{ii}$, $1 \le i \le n$; también se sigue de (7) el hecho relacionado de que $T$ es no singular, es decir, $\det(T) \ne 0$, precisamente cuando sus entradas diagonales son todas diferentes de cero.
Para $T$ no singular podemos calcular $T^{-1}$ de la siguiente manera: escribimos
$T = \Lambda + T_u, \tag{9}$
donde $\Lambda$ es la matriz diagonal formada a partir de la diagonal de T; es decir,
$\Lambda = [\delta_{ij} t_{ij}]; \tag{10}$
entonces $\Lambda$ no es singular y $T_u = T - \Lambda$ es la matriz triangular estrictamente superior obtenida al establecer la diagonal de T en cero, es decir, estableciendo $t_{ii} = 0$ para $1 \le i \le n$. Podemos escribir
$T = \Lambda (I + \Lambda^{-1} T_u), \tag{11}$
entonces
$T^{-1} = (I + \Lambda^{-1} T_u)^{-1} \Lambda^{-1}. \tag{12}$
La matriz $\Lambda^{-1} T_u$ que aparece en (12) es de hecho estrictamente triangular superior al igual que lo es $T_u$; de hecho, para cualquier matriz diagonal $D$, $DT_u$ es estrictamente triangular superior, una afirmación que se valida fácilmente por cálculo directo. Se deduce entonces que $\Lambda^{-1} T_u$ es de hecho nilpotente; es decir, $(\Lambda^{-1} T_u)^n = 0$. Ahora podemos usar la conocida identidad algebraica
$(1 + x)(\sum_0^m (-x)^j) = 1 - (-x)^{m + 1}, \tag{13}$
vista fácilmente que se cumple en cualquier anillo unitario, aplicada a la matriz $x =\Lambda^{-1} T_u$, obteniendo, con $m = n - 1$,
$(I + \Lambda^{-1}T_u)(\sum_0^m (-\Lambda^{-1}T_u)^j) = I - (-\Lambda^{-1}T_u)^{m + 1} = I - (-\Lambda^{-1}T_u)^n = I. \tag{13}$
(13) muestra que la inversa de $I + \Lambda^{-1}T_u$ está dada por
$(I + \Lambda^{-1} T_u)^{-1} = \sum_0^m (-\Lambda^{-1}T_u)^j. \tag{14}$
Se sigue de (14) que $(I + \Lambda T_u)^{-1}$ es triangular superior, ya que cada una de las matrices $(-\Lambda^{-1}T_u)^j$, $j \ge 1$, es estrictamente triangular superior, y $(-\Lambda^{-1}T_u)^0 = I$. Luego se desprende que $T^{-1} = (I + \Lambda T_u)^{-1}\Lambda^{-1}$ es también triangular superior, siendo el producto de la matriz triangular superior $(I + \Lambda T_u)^{-1}$ y la matriz diagonal $\Lambda^{-1}$. Hemos demostrado así que la inversa de cualquier matriz triangular superior invertible, de cualquier tamaño n, es a su vez una matriz triangular superior.
La inversa de cualquier matriz invertible es invertible, siendo la inversa de la inversa la matriz original.
Podemos aplicar estas consideraciones al cálculo de $A^{-1}$, donde
$A = \begin{bmatrix} a & b & c \\ 0 & d & e \\ 0 & 0 & f \end{bmatrix}; \tag{14}$
aquí tenemos
$\Lambda = \begin{bmatrix} a & 0 & 0 \\ 0 & d & 0 \\ 0 & 0 & f \end{bmatrix} \tag{15}$
y
$T_u = \begin{bmatrix} 0 & b & c \\ 0 & 0 & e \\ 0 & 0 & 0 \end{bmatrix}; \tag{16}$
entonces
$\Lambda^{-1} T_u = \begin{bmatrix} a^{-1} & 0 & 0 \\ 0 & d^{-1} & 0 \\ 0 & 0 & f^{-1} \end{bmatrix} \begin{bmatrix} 0 & b & c \\ 0 & 0 & e \\ 0 & 0 & 0 \end{bmatrix} = \begin{bmatrix} 0 & ba^{-1} & ca^{-1} \\ 0 & 0 & ed^{-1} \\ 0 & 0 & 0 \end{bmatrix}; \tag{17}$
$(\Lambda^{-1} T_u)^2 = \begin{bmatrix} 0 & ba^{-1} & ca^{-1} \\ 0 & 0 & ed^{-1} \\ 0 & 0 & 0 \end{bmatrix} \begin{bmatrix} 0 & ba^{-1} & ca^{-1} \\ 0 & 0 & ed^{-1} \\ 0 & 0 & 0 \end{bmatrix} = \begin{bmatrix} 0 & 0 & bea^{-1}d^{-1} \\ 0 & 0 & 0 \\ 0 & 0 & 0 \end{bmatrix}; \tag{18}$
$(\Lambda^{-1} T_u)^3 = 0; \tag{19}$
$\sum_0^2 (-\Lambda^{-1} T_u)^j = \begin{bmatrix} 1 & 0 & 0 \\ 0 & 1 & 0 \\ 0 & 0 & 1 \end{bmatrix} - \begin{bmatrix} 0 & ba^{-1} & ca^{-1} \\ 0 & 0 & ed^{-1} \\ 0 & 0 & 0 \end{bmatrix} + \begin{bmatrix} 0 & 0 & bea^{-1}d^{-1} \\ 0 & 0 & 0 \\ 0 & 0 & 0 \end{bmatrix}$ $= \begin{bmatrix} 1 & -ba^{-1} & (be - cd)a^{-1}d^{-1} \\ 0 & 1 &- ed^{-1} \\ 0 & 0 & 1 \end{bmatrix}; \tag{20}$
finalmente,
$T^{-1} = (I + \Lambda^{-1} T_u)^{-1} \Lambda^{-1} = (\sum_0^2 (-\Lambda^{-1} T_u)^j) \Lambda^{-1}$ $= \begin{bmatrix} 1 & -ba^{-1} & (be - cd)a^{-1}d^{-1} \\ 0 & 1 &- ed^{-1} \\ 0 & 0 & 1 \end{bmatrix}\begin{bmatrix} a^{-1} & 0 & 0 \\ 0 & d^{-1} & 0 \\ 0 & 0 & f^{-1} \end{bmatrix}$ $= \begin{bmatrix} a^{-1} & -ba^{-1}d^{-1} & (be - cd)a^{-1}d^{-1}f^{-1} \\ 0 & d^{-1} &- ed^{-1}f^{-1} \\ 0 & 0 & f^{-1} \end{bmatrix}, \tag{21}$
esto está en acuerdo con los cálculos de Nimda. De hecho, tenemos
$\begin{bmatrix} a & b & c \\ 0 & d & e \\ 0 & 0 & f \end{bmatrix}\begin{bmatrix} a^{-1} & -ba^{-1}d^{-1} & (be - cd)a^{-1}d^{-1}f^{-1} \\ 0 & d^{-1} &- ed^{-1}f^{-1} \\ 0 & 0 & f^{-1} \end{bmatrix} = \begin{bmatrix} 1 & 0 & 0 \\ 0 & 1 & 0 \\ 0 & 0 & 1 \end{bmatrix}, \tag{22}$
como alguna álgebra simple revela.
Por supuesto, todas estas cosas también aplican a las matrices triangulares inferiores, y las demostraciones son similares y análogas, es decir, esencialmente las mismas.
¡Espero que esto ayude! Saludos,
y como siempre,
Fiat Lux!!!
0 votos
Si muestra los pasos que siguió la última vez que lo intentó y salió triangular inferior, probablemente podríamos diagnosticar el error.
0 votos
Añadí los pasos que hice.
5 votos
Lo que llamas el adjunto es en realidad la matriz de cofactores, deberías tomar la transpuesta de esta. Consulta es.wikipedia.org/wiki/Matriz_adjunta. PD: hay un ligero error de cálculo en $x_{31}$ y $x_{32}$.
1 votos
Necesitas tomar la traspuesta de la matriz de cofactores o adjunta. Vea aquí: en.m.wikipedia.org/wiki/Invertible_matrix
0 votos
Lo tengo, gracias chicos :)
0 votos
Para ser más precisos, no es necesario demostrar que el inverso de una matriz invertible cualquier es ... invertible. Es obvio a partir de la definición de matriz invertible. Por lo tanto, podemos concentrarnos únicamente en la triangularidad superior.