Tengo una pregunta teórica. ¿Por qué las matrices no cuadradas no son invertibles?
Me estoy encontrando con muchas dudas como esta en mi estudio introductorio del álgebra lineal.
Tengo una pregunta teórica. ¿Por qué las matrices no cuadradas no son invertibles?
Me estoy encontrando con muchas dudas como esta en mi estudio introductorio del álgebra lineal.
Creo que la forma más sencilla de verlo es considerando las dimensiones de las Matrices $A$ y $A^{-1 }$ y aplicar la multiplicación simple.
Por lo tanto, supongamos, wlog $A$ es $m \times n $ con $n\neq m$ entonces $A^{-1 }$ tiene que ser $n\times m$ porque esa es la única manera $AA^{-1 }=I_m$
Pero también debe ser cierto que $A^{-1 } A=I_m$ pero ahora en lugar de $I_m$ se obtiene $I_n$ que no está de acuerdo con la definición de un Inverso ( ver ZettaSuro)
Por lo tanto, $m$ debe ser igual a $n$
Respuesta sencilla porque por definición una matriz es conmutativa con su inversa en la multiplicación. Es decir: $A^{-1}$ es una matriz tal que $AA^{-1}=I_n$ y $A^{-1}A=I_n$ .
Para que dos matrices conmuten en la multiplicación, ambas deben ser cuadradas.
Respuesta más complicada : Existe un inverso de la izquierda y un inverso de la derecha que se definen para todo matrices, incluidas las matrices no cuadradas. Para una matriz de dimensión $m\times{n}$ , el inverso izquierdo y el derecho se definen como sigue:
$$A^L:=\{B|BA=I_n\}$$ $$A^R:=\{B|AB=I_m\}$$
Si $A^L=A^R$ por definición $A^L=A^R=A^{-1}$ .
Ya que esta pregunta acaba de ser rebatida de todos modos y siento que tengo algo más que añadir, aquí están mis pensamientos:
Como señala sigmatau tendríamos $AA^{-1} = I_m$ y $A^{-1}A = I_n$ y razona, que tendríamos $m=n$ entonces. Creo que esta es una conclusión "antinatural": Consideremos la definición de la inversa de una función $f : A\to B$ : Es una función $f^{-1} : B\to A$ con $f^{-1}\circ f = id_A$ y $f\circ f^{-1} = id_B$ y nosotros no requiere $id_A = id_B$ .
Así que podemos y debemos preguntarnos si puede haber una $A^{-1}$ con $AA^{-1} = I_m$ y $A^{-1}A = I_n$ , si $n\neq m$ . La respuesta es no:
La matriz $A$ corresponde a un mapa lineal $f : \mathbb{R}^n \to \mathbb{R}^m, x\mapsto Ax$ . Por la fórmula de la dimensión tenemos:
$n = \dim(\ker f) + \dim(\operatorname{im} f)$ .
Si $A$ tiene un inverso, entonces también lo tiene $f$ ( $y \mapsto A^{-1}y$ ). Por lo tanto, $f$ es inyectiva, por lo que $\dim(\ker f) = 0$ y $f$ es suryente, por lo que $\dim(\operatorname{im} f) = m$ . Pero entonces $n = 0 + m = m$ .
Si $A$ y $B$ son $m\times n$ y $n\times k$ respectivamente, entonces el rango de $AB$ es menor o igual que los dos rangos de $A$ y $B$ . Entonces, supongamos que $A$ es un $m\times n$ matriz invertible, con $m\neq n$ . Si su inversa es $B$ entonces $B$ tiene que ser un $n\times m$ matriz, y $AB=I_m$ , $BA=I_n$ . Por lo tanto, si $n<m$ entonces el rango de $AB=I_m$ debe ser $m$ pero también menor o igual al rango de $A$ que es menor o igual que $n$ , lo cual es una contradicción. Se trabaja de forma similar en el caso $m<n$ .
Tal vez esté haciendo un bucle, pero quiero añadir un ejemplo para que quede claro. Otras respuestas dicen básicamente que para que una matriz sea invertible, su multiplicación debe ser conmutativa por definición: $\mathbf{A A^{-1} = A^{-1} A}$ y debe ser igual a la matriz de identidad. Esto sólo puede ser posible con matrices cuadradas. Pero, esta prueba podría ser aumentada con la intuición geométrica supongo.
He aquí un ejemplo que muestra cómo las matrices no cuadradas perjudican la invertibilidad de una transformación lineal.
$$\begin{pmatrix} a & b & -a & & -b \\ a & b & -a & & -b \\ a & b & -a & & -b \end{pmatrix}$$
Se puede ver que esta matriz mapea desde $R^4$ a $R^3$ . Pero como todas las transformaciones lineales, mapea el vector cero al vector cero. También vemos que mapea $(1, 1, 1, 1)$ al vector cero también. Entonces, como la transformación inversa debe mapear $(0, 0 ,0)$ ? Obsérvese que la transformación inversa es de $R^3$ a $R^4$ . ¿Cómo se puede decidir si se hace un mapa de $(0,0,0)$ a $(0,0,0,0)$ o a $(1, 1, 1, 1)$ o a $(2, 2, 2, 2)$ etc. Como puedes ver, esto es sólo un contraejemplo, pero creo que alguien debería demostrar que las matrices no cuadradas no pueden tener inversas porque no pueden hacer un mapa único. Creo que la prueba tiene que ver con la dependencia e independencia lineal.
Aquí está mi boceto más detallado:
Supongamos que un $nxn$ transformación lineal $\mathcal{\bar L}$ como
\begin{pmatrix} a_{11} & a_{12} & \cdots & a_{1n} \\ a_{21} & a_{22} & \cdots & a_{2n} \\ a_{31} & a_{32} & \cdots & a_{3n} \\ \\ a_{n1} & a_{n2} & \cdots & a_{nn} \\ \end{pmatrix}
Ahora tome dos vectores arbitrarios de $R^n$ digamos; $x=(x_1, x_2 \cdots , x_n)$ y $u=(u_1, u_2 \cdots , u_n)$ . Vamos a echar un vistazo a la transformación $\mathcal{\bar L} x = u$ . Después de este paso, manipularemos esta transformación para llegar a vectores linealmente independientes. Esta parte es larga y difícil de escribir, así que sólo daré un ejemplo para $3x3$ caso. Espero que puedan ver cómo se generaliza esto.
Aquí tenemos un $3x3$ transformación lineal $\mathcal{\bar L_3}$ que mapea un vector arbitrario $(x, y, z)$ a otro vector $(u, v, w)$ . Asumiendo que $\mathcal{\bar L_3}$ está dada por:
$$\begin{pmatrix} a & b & c \\ e & f & g \\ k & l & m \end{pmatrix}$$
Entonces tenemos el siguiente sistema de ecuaciones:
$$ax + by + cz = u$$
$$ex + fy + gz = v$$
$$kx + ly + mz = w$$
que puede escribirse como
$$ax + by + cz - u = 0$$
$$ex + fy + gz - v = 0$$
$$kx + ly + mz - w = 0$$
que puede escribirse como
$$(a - \frac{u}{3x})x + (b - \frac{u}{3y})y + (c - \frac{u}{3z})z = 0$$
$$(e - \frac{v}{3x})x + (f - \frac{v}{3y})y + (g - \frac{v}{3z})z = 0$$
$$(k - \frac{w}{3x})x + (l - \frac{w}{3y})y + (m - \frac{w}{3z})z = 0$$
Comenzamos con nuestra transformación que mapea $(x, y, z)$ a $(u, v, w)$ y tenemos tres vectores que son ortogonales a $(x, y, z)$ . No puede haber cuatro vectores diferentes que sean ortogonales entre sí en $R^3$ . Así que dos de esos cuatro vectores deben ser iguales. Si intentas que dos de ellos sean iguales, verás que $(x, y, z)$ ya no es arbitraria sino que está determinada por su transformación inicial y $(u, v, w)$ . Al estar determinada de forma única, las matrices cuadradas, como vimos, pueden tener inversas. Si haces esto, verás que hay casos que terminan con la división por 0. Creo que estos corresponden al caso de que el determinante sea 0 pero no estoy seguro y no lo he comprobado.
Hay que generalizar esto a dimensiones superiores. También tienes que demostrar que para las matrices no cuadradas, este problema de vectores linealmente independientes no se plantea y obtenemos una transformación lineal que mapea muchos vectores a un vector, etc. para completar el argumento.
No cuento esto como una prueba porque sigo pensando que hay algo sospechoso en mi argumento, pero podría servir para generar vuestros propios contraejemplos si queréis convenceros.
I-Ciencias es una comunidad de estudiantes y amantes de la ciencia en la que puedes resolver tus problemas y dudas.
Puedes consultar las preguntas de otros usuarios, hacer tus propias preguntas o resolver las de los demás.