29 votos

Matriz triangular superior invertible de orden 3

Demuestra que la inversa de una matriz triangular superior invertible de orden 3 es invertible y triangular superior.

He revisado todas las preguntas similares pero no pude entender ninguna de ellas.

Supuse una matriz triangular superior aleatoria 3x3 e intenté encontrar su inversa, pero resultó ser una matriz triangular inferior, no triangular superior. ¿Puede alguien por favor darme una sugerencia de cómo demostrarlo?

$$ A=\left(\begin{array}{rrr}% a&b&c\\% 0&d&e\\% 0&0&f\\% \end{array}\right)% $$ $$ x11=\left(\begin{array}{rrr}% d&e\\% 0&f\\% \end{array}\right)% =df, x12=-\left(\begin{array}{rrr}% 0&e\\% 0&f\\% \end{array}\right)% =0, x13=\left(\begin{array}{rrr}% 0&d\\% 0&0\\% \end{array}\right)% =0 $$ $$ x21=-\left(\begin{array}{rrr}% b&c\\% 0&f\\% \end{array}\right)% =-bf, X22=\left(\begin{array}{rrr}% a&c\\% 0&f\\% \end{array}\right)% =af, X23=-\left(\begin{array}{rrr}% a&b\\% 0&0\\% \end{array}\right)% =0 $$ $$ x31=\left(\begin{array}{rrr}% b&c\\% d&e\\% \end{array}\right)% =bc-cd, x32=-\left(\begin{array}{rrr}% a&c\\% 0&e\\% \end{array}\right)% =ac, x31=\left(\begin{array}{rrr}% a&b\\% 0&d\\% \end{array}\right)% =ad $$ $$ adjunto A = \left(\begin{array}{rrr}% df&0&0\\% -bf&af&0\\% bc-cd&-ac&ad\\% \end{array}\right)% $$ $$ det A = a\left(\begin{array}{rrr}% d&e\\% 0&f\\% \end{array}\right)% =adf $$ $$ Inversa-A =1/adf \left(\begin{array}{rrr}% df&0&0\\% -bf&af&0\\% bc-cd&-ac&ad\\% \end{array}\right)% $$ Resultó ser una matriz triangular inferior. ¿Hay alguna manera de convertirla en una matriz triangular superior?

0 votos

Si muestra los pasos que siguió la última vez que lo intentó y salió triangular inferior, probablemente podríamos diagnosticar el error.

0 votos

Añadí los pasos que hice.

5 votos

Lo que llamas el adjunto es en realidad la matriz de cofactores, deberías tomar la transpuesta de esta. Consulta es.wikipedia.org/wiki/Matriz_adjunta. PD: hay un ligero error de cálculo en $x_{31}$ y $x_{32}$.

89voto

Robert Lewis Puntos 20996

Hay un truco interesante para calcular la inversa de cualquier matriz triangular superior invertible, uno que evita el cálculo de determinantes complicados. Ya que funciona para cualquier matriz triangular superior (o inferior) T de cualquier tamaño n, lo explicaré en ese contexto.

Lo primero que uno necesita recordar es que el determinante de una matriz triangular es el producto de sus entradas diagonales. Esto puede verse fácilmente por inducción en n. Es trivialmente cierto si n = 1; para n = 2, tenemos

$T= \begin{bmatrix} t_{11} & t_{12} \\ 0 & t_{22} \end{bmatrix}, \tag{1}$

entonces obviamente

$\det(T) = t_{11} t_{22}. \tag{2}$

Si formulamos ahora la hipótesis inductiva de que

$\det(T) = \prod_1^k t_{ii} \tag{3}$

para alguna T triangular superior de tamaño k,

$T = [t_{ij}], \; \; 1 \le i, j \le k, \tag{4}$

entonces para T de tamaño k + 1 tenemos que

$\det(T) = t_{11} \det(T_{11}), \tag{5}$

donde $T_{11}$ es la matriz k x k formada eliminando la primera fila y columna de T. (4) sigue fácilmente de la expansión de $\det(T)$ en términos de sus menores de primera columna (ver esta página de wikipedia), ya que $t_{i1} = 0$ para $i \ge 2$. De nuestra hipótesis inductiva,

$\det(T_{11}) = \prod_2^{k + 1} t_{ii}, \tag{6}$

entonces de (5)

$\det(T) = t_{11} \det(T_{11}) = t_{11} \prod_2^{k + 1} t_{ii} = \prod_1^{k + 1} t_{ii}, \tag{7}$

demostrando nuestra afirmación.

Se sigue inmediatamente de (7) que el polinomio característico $p_T(\lambda)$ de $T$ es

$p_T(\lambda) = \det(T - \lambda I) = \prod_1^n (t_{ii} - \lambda), \tag{8}$

y de (8) que los eigenvalores de $T$ son precisamente sus entradas diagonales, es decir, los $t_{ii}$, $1 \le i \le n$; también se sigue de (7) el hecho relacionado de que $T$ es no singular, es decir, $\det(T) \ne 0$, precisamente cuando sus entradas diagonales son todas diferentes de cero.

Para $T$ no singular podemos calcular $T^{-1}$ de la siguiente manera: escribimos

$T = \Lambda + T_u, \tag{9}$

donde $\Lambda$ es la matriz diagonal formada a partir de la diagonal de T; es decir,

$\Lambda = [\delta_{ij} t_{ij}]; \tag{10}$

entonces $\Lambda$ no es singular y $T_u = T - \Lambda$ es la matriz triangular estrictamente superior obtenida al establecer la diagonal de T en cero, es decir, estableciendo $t_{ii} = 0$ para $1 \le i \le n$. Podemos escribir

$T = \Lambda (I + \Lambda^{-1} T_u), \tag{11}$

entonces

$T^{-1} = (I + \Lambda^{-1} T_u)^{-1} \Lambda^{-1}. \tag{12}$

La matriz $\Lambda^{-1} T_u$ que aparece en (12) es de hecho estrictamente triangular superior al igual que lo es $T_u$; de hecho, para cualquier matriz diagonal $D$, $DT_u$ es estrictamente triangular superior, una afirmación que se valida fácilmente por cálculo directo. Se deduce entonces que $\Lambda^{-1} T_u$ es de hecho nilpotente; es decir, $(\Lambda^{-1} T_u)^n = 0$. Ahora podemos usar la conocida identidad algebraica

$(1 + x)(\sum_0^m (-x)^j) = 1 - (-x)^{m + 1}, \tag{13}$

vista fácilmente que se cumple en cualquier anillo unitario, aplicada a la matriz $x =\Lambda^{-1} T_u$, obteniendo, con $m = n - 1$,

$(I + \Lambda^{-1}T_u)(\sum_0^m (-\Lambda^{-1}T_u)^j) = I - (-\Lambda^{-1}T_u)^{m + 1} = I - (-\Lambda^{-1}T_u)^n = I. \tag{13}$

(13) muestra que la inversa de $I + \Lambda^{-1}T_u$ está dada por

$(I + \Lambda^{-1} T_u)^{-1} = \sum_0^m (-\Lambda^{-1}T_u)^j. \tag{14}$

Se sigue de (14) que $(I + \Lambda T_u)^{-1}$ es triangular superior, ya que cada una de las matrices $(-\Lambda^{-1}T_u)^j$, $j \ge 1$, es estrictamente triangular superior, y $(-\Lambda^{-1}T_u)^0 = I$. Luego se desprende que $T^{-1} = (I + \Lambda T_u)^{-1}\Lambda^{-1}$ es también triangular superior, siendo el producto de la matriz triangular superior $(I + \Lambda T_u)^{-1}$ y la matriz diagonal $\Lambda^{-1}$. Hemos demostrado así que la inversa de cualquier matriz triangular superior invertible, de cualquier tamaño n, es a su vez una matriz triangular superior.

La inversa de cualquier matriz invertible es invertible, siendo la inversa de la inversa la matriz original.

Podemos aplicar estas consideraciones al cálculo de $A^{-1}$, donde

$A = \begin{bmatrix} a & b & c \\ 0 & d & e \\ 0 & 0 & f \end{bmatrix}; \tag{14}$

aquí tenemos

$\Lambda = \begin{bmatrix} a & 0 & 0 \\ 0 & d & 0 \\ 0 & 0 & f \end{bmatrix} \tag{15}$

y

$T_u = \begin{bmatrix} 0 & b & c \\ 0 & 0 & e \\ 0 & 0 & 0 \end{bmatrix}; \tag{16}$

entonces

$\Lambda^{-1} T_u = \begin{bmatrix} a^{-1} & 0 & 0 \\ 0 & d^{-1} & 0 \\ 0 & 0 & f^{-1} \end{bmatrix} \begin{bmatrix} 0 & b & c \\ 0 & 0 & e \\ 0 & 0 & 0 \end{bmatrix} = \begin{bmatrix} 0 & ba^{-1} & ca^{-1} \\ 0 & 0 & ed^{-1} \\ 0 & 0 & 0 \end{bmatrix}; \tag{17}$

$(\Lambda^{-1} T_u)^2 = \begin{bmatrix} 0 & ba^{-1} & ca^{-1} \\ 0 & 0 & ed^{-1} \\ 0 & 0 & 0 \end{bmatrix} \begin{bmatrix} 0 & ba^{-1} & ca^{-1} \\ 0 & 0 & ed^{-1} \\ 0 & 0 & 0 \end{bmatrix} = \begin{bmatrix} 0 & 0 & bea^{-1}d^{-1} \\ 0 & 0 & 0 \\ 0 & 0 & 0 \end{bmatrix}; \tag{18}$

$(\Lambda^{-1} T_u)^3 = 0; \tag{19}$

$\sum_0^2 (-\Lambda^{-1} T_u)^j = \begin{bmatrix} 1 & 0 & 0 \\ 0 & 1 & 0 \\ 0 & 0 & 1 \end{bmatrix} - \begin{bmatrix} 0 & ba^{-1} & ca^{-1} \\ 0 & 0 & ed^{-1} \\ 0 & 0 & 0 \end{bmatrix} + \begin{bmatrix} 0 & 0 & bea^{-1}d^{-1} \\ 0 & 0 & 0 \\ 0 & 0 & 0 \end{bmatrix}$ $= \begin{bmatrix} 1 & -ba^{-1} & (be - cd)a^{-1}d^{-1} \\ 0 & 1 &- ed^{-1} \\ 0 & 0 & 1 \end{bmatrix}; \tag{20}$

finalmente,

$T^{-1} = (I + \Lambda^{-1} T_u)^{-1} \Lambda^{-1} = (\sum_0^2 (-\Lambda^{-1} T_u)^j) \Lambda^{-1}$ $= \begin{bmatrix} 1 & -ba^{-1} & (be - cd)a^{-1}d^{-1} \\ 0 & 1 &- ed^{-1} \\ 0 & 0 & 1 \end{bmatrix}\begin{bmatrix} a^{-1} & 0 & 0 \\ 0 & d^{-1} & 0 \\ 0 & 0 & f^{-1} \end{bmatrix}$ $= \begin{bmatrix} a^{-1} & -ba^{-1}d^{-1} & (be - cd)a^{-1}d^{-1}f^{-1} \\ 0 & d^{-1} &- ed^{-1}f^{-1} \\ 0 & 0 & f^{-1} \end{bmatrix}, \tag{21}$

esto está en acuerdo con los cálculos de Nimda. De hecho, tenemos

$\begin{bmatrix} a & b & c \\ 0 & d & e \\ 0 & 0 & f \end{bmatrix}\begin{bmatrix} a^{-1} & -ba^{-1}d^{-1} & (be - cd)a^{-1}d^{-1}f^{-1} \\ 0 & d^{-1} &- ed^{-1}f^{-1} \\ 0 & 0 & f^{-1} \end{bmatrix} = \begin{bmatrix} 1 & 0 & 0 \\ 0 & 1 & 0 \\ 0 & 0 & 1 \end{bmatrix}, \tag{22}$

como alguna álgebra simple revela.

Por supuesto, todas estas cosas también aplican a las matrices triangulares inferiores, y las demostraciones son similares y análogas, es decir, esencialmente las mismas.

¡Espero que esto ayude! Saludos,

y como siempre,

Fiat Lux!!!

1 votos

¡Gran respuesta! ¿Puedes por favor echar un vistazo a mi pregunta también?

2 votos

Gracias. Sí, dame unos minutos. ¡Y gracias por el impulso de recompensa! ¡Saludos!

1 votos

@Henry: He echado un vistazo a tu problema pero aún no tengo nada seguro que añadir. ¡Todavía pensando...!

22voto

Nimda Puntos 1293

No es demasiado difícil resolver directamente $$ \left(\begin{array}{rrr}% a&b&c\\% 0&d&e\\% 0&0&f\\% \end{array}\right)% \left(\begin{array}{rrr}% x&y&z\\% 0&y&v\\% 0&0&w\\% \end{array}\right)% = \left(\begin{array}{rrr}% 1&0&0\\% 0&1&0\\% 0&0&1\\% \end{array}\right)% $$ dando

$$ \left(\begin{array}{rrr}% 1/a& -b/(ad)&(be-cd)/(afd)\\% 0&1/d&-e/(fd)\\% 0&0&1/f\\% \end{array}\right)% $$ de lo cual vemos directamente que la matriz es invertible si todos los valores de $a,d$ y $f$ son diferentes de cero.

0 votos

Esa es mi pregunta, ¿cómo llegaste a ese inverso? Porque cuando trato de resolverlo, obtengo una matriz triangular inferior. Por favor, revisa los pasos que acabo de agregar a mi pregunta principal y dime si encuentras algún error en ellos. ¡Gracias!

0 votos

Nota. Un caso particular aparece en el estudio del grupo de Heisenberg, donde $a = d = f = 1$. Entonces el inverso se simplifica en gran medida.

0 votos

Pequeño error tipográfico, dos $y$ en la segunda matriz

5voto

Widawens Puntos 9

Dado que la pregunta ha sido revivida, daré la respuesta en un sentido mucho más general, válido no solo para la propiedad de triangularidad superior de matrices, sino también para otras propiedades si están presentes en las circunstancias descritas a continuación.

Ahora supongamos que para algunas matrices $A,B$ consideras un patrón de entradas, digamos que podría mencionarse "triangularidad superior" (UT) y has demostrado que para cualquier matriz con la propiedad UT la suma $A+B$ y el producto $AB$ conservan la UT (lo cual es fácil de demostrar).

Si es así, entonces también las potencias $A^k$ conservan la UT.

En consecuencia, dado que cualquier inverso puede expresarse como un polinomio $p(A)$ de $A$ calculado directamente a partir del teorema de Cayley-Hamilton, entonces también $A^{-1}$ tiene la propiedad UT.

1 votos

Para ser más preciso en la construcción de un polinomio, también necesitamos que $kA$ (donde $k$ es un escalar) tenga la misma propiedad que $A (importante para construir cualquier polinomio). En algunos casos, al considerar propiedades, podemos tener en cuenta que la multiplicación por un escalar es equivalente a multiplicar por la matriz escalar adecuada (que obviamente debe tener la misma propiedad que el tipo de matriz considerado). Se puede observar que la "propiedad" considerada es muy abstracta en su naturaleza y el patrón particular de entradas es solo un caso posible de esa propiedad.

4voto

Solo para agregar una respuesta simple, agregaré otra. Tenga en cuenta que, por la descomposición $QR$, para cualquier matriz triangular superior invertible $U$, existe una matriz triangular superior $R$ y una matriz ortogonal $Q$ tal que $U^{-1} = Q R.$ Por lo tanto, ${(R U)^{-1}} = Q.$ Esto implica que, invirtiendo ambos lados, $$R U = Q^{T}.$$ Dado que el producto de dos matrices triangulares superiores sigue siendo triangular superior, hemos encontrado una matriz ortogonal triangular superior, lo cual es imposible a menos que $Q=D$, para alguna matriz diagonal $D$, ver este enlace.. Así que el resultado se sigue observando que $$U^{-1}=Q R = DR,$$ lo cual es triangular superior.

1voto

JMcCaffrey Puntos 11

Aquí tienes un código en Python para invertir una matriz triangular superior de cualquier orden, utilizando un enfoque de bucle tradicional:

import numpy as np

def mat_inverse_upper(U):
  # inversa de la triangular superior directamente
  n = len(U)
  result = np.eye(n)  # Matriz identidad
  for k in range(n):
    for j in range(n):
      for i in range(k):
        result[j][k] -= result[j][i] * U[i][k]
      result[j][k] /= U[k][k]
  return result

i-Ciencias.com

I-Ciencias es una comunidad de estudiantes y amantes de la ciencia en la que puedes resolver tus problemas y dudas.
Puedes consultar las preguntas de otros usuarios, hacer tus propias preguntas o resolver las de los demás.

Powered by:

X