Hay un artículo interesante de Berry Mazur llamado: "¿Cuándo dos cosas son iguales?" En el que discute el problema de la igualdad en relación con las mil caras que tienen los objetos matemáticos. ¿Qué cara deberías mostrar primero al enseñar a la gente sobre esto? Leí las otras preguntas y siento que otros que respondieron intentaron contestarte cómo en lugar de por qué y por tus comentarios en sus respuestas, está claro que lo sabías.
Imagina que tu casa está a tu derecha, pero solo puedes caminar hacia adelante. ¿Puedes llegar a tu casa? No. Necesitas caminar hacia la derecha si quieres llegar allí. Encontrarás en mi respuesta que la razón por la que escribir un sistema de ecuaciones como vectores es que puedes caminar hacia más lugares de los que podías antes ¡y con solo algunas ideas!
La cuestión es que cuando tienes el sistema de ecuaciones representado en forma vectorial, ganas ciertos poderes de expresión y la habilidad de decir más$[1]$ cosas sobre ese objeto. Esto es una de las cosas interesantes de las matemáticas, ver objetos matemáticos a través de diferentes representaciones y obtener nuevas ideas basadas en esas nuevas representaciones.
Para el problema que preguntaste, mostraré algunos ejemplos de lo que acabo de decir. Por ejemplo:
$$ax+by=\alpha\\cx+dy=\beta$$
Puedes reescribirlo como:
$$\begin{bmatrix} x &y \end{bmatrix}\begin{bmatrix} a & c \\ b & d \end{bmatrix}=\begin{bmatrix} \alpha & \beta \end{bmatrix}$$
¿Qué revela esto?$[2]$ Una característica interesante. Puedes tratarlo como una ecuación de matrices y encontrar soluciones $x,y$ solo equivale a encontrar la matriz inversa (cuando es invertible) de $\begin{bmatrix}a & c \\ b & d \end{bmatrix}$ y luego multiplicar a la izquierda la ecuación:
$$\begin{bmatrix} x &y \end{bmatrix}\overbrace{\begin{bmatrix} a & c \\ b & d \end{bmatrix}\begin{bmatrix} a & c \\ b & d \end{bmatrix} ^{-1}}^{ I}=\begin{bmatrix} \alpha & \beta \end{bmatrix}\begin{bmatrix} a & c \\ b & d \end{bmatrix} ^{-1}$$
Y luego:
$$\begin{bmatrix} x &y \end{bmatrix}=\begin{bmatrix} \alpha & \beta \end{bmatrix}\begin{bmatrix} a & c \\ b & d \end{bmatrix} ^{-1}$$
La solución es el producto de esas dos matrices (esto es diferente de la eliminación gaussiana). Aquí has ganado una notación abreviada para el sistema de ecuaciones, una nueva forma de encontrar una solución y puedes usar muchas herramientas en teoría de matrices. Ahora, toma como ejemplo el producto punto de dos vectores: $\langle (x,y,z),(a,b,c) \rangle=ax+by+cz$. El producto punto expresa una propiedad geométrica: El producto punto es cero cuando dos vectores son ortogonales. Ahora, ¿qué significa esto para el siguiente sistema de ecuaciones?
$$\langle (x,y,z),(a,b,c) \rangle=0\\\langle (x,y,z),(d,e,f) \rangle=0\\\langle (x,y,z),(g,h,i) \rangle=0$$
Significa - geométricamente - que el vector solución $(x,y,z)$ es ortogonal a cada vector $(a,b,c),(d,e,f),(g,h,i)$ la propiedad se conserva si haces lo siguiente:
$$\langle (x,y,z,1),(a,b,c,-\alpha) \rangle=0\\\langle (x,y,z,1),(d,e,f,-\beta) \rangle=0\\\langle (x,y,z,1),(g,h,i,-\gamma) \rangle=0$$
Expándelo y verás que es un sistema común de $3$ ecuaciones en $3$ variables. ¡Puedes construir la idea muy importante de un producto cruzado con esto, el producto cruzado $a\times b$ te da un vector que es ortogonal con respecto a $a,b$. Con esto, estás mezclando las ideas de un sistema de ecuaciones con nociones geométricas y ahora puedes usar algunos artilugios geométricos allí y de hecho, puedes tratar objetos geométricos como conjuntos de vectores y algunas transformaciones geométricas pueden hacerse con solo multiplicación de matrices!
En cursos de geometría analítica, generalmente ves la idea de convertir formas de secciones cónicas a una ecuación canónica en la que es más fácil decidir si esa forma cuadrática es un círculo, un par de rectas, una elipse, una parábola, etc. Haces esto a través de dos cambios de coordenadas y el cálculo suele ser grande. Ahora, hay una forma ingeniosa de representar estas secciones cónicas en una ecuación matricial y convertirla en la ecuación canónica equivale a algunas operaciones matriciales básicas, una de las cuales implica valores propios y vectores propios. Si solo quieres saber qué sección cónica es sin tener la ecuación canónica (que te proporciona más información), ¡puedes simplemente calcular la rango de las matrices en la ecuación y el rango es solo el orden del subdeterminante no nulo más grande de la matriz! ¡¿Qué tan increíble es eso?! ¡Cualquiera podría hacerme sentir emocionado solo susurrándome eso al oído$[4]$!
Más adelante en tu curso de álgebra lineal, verás que puedes decir algunas cosas sobre transformaciones lineales usando la misma idea de convertir sistemas de ecuaciones lineales en un producto de matrices. Por ejemplo: En un sistema como $\begin{bmatrix} x &y \end{bmatrix}\begin{bmatrix} a & c \\ b & d \end{bmatrix}=\begin{bmatrix} \alpha & \beta \end{bmatrix}$, hay una forma corta de reescribirlo: $xA=b$. Existe algo llamado espacio nulo, que es el conjunto de soluciones para $xA=0$. Si la única solución es $x=[0,0]$, entonces la transformación lineal es inyectiva. Y para saber eso, solo necesitas verificar si $\det A \neq 0$. Algunas transformaciones lineales pueden codificarse como matrices, y para comprobar varias propiedades al respecto, simplemente puedes usar algunos métodos estándar que aprenderás allí. Podría seguir con mi entusiasmo, pero supongo que entendiste el punto. Con solo algunas herramientas computacionales, tienes acceso a una gran cantidad de conceptos matemáticos mezclados en un solo paquete y obtienes ideas reveladoras con eso. Con solo algunas herramientas computacionales, tienes acceso a una gran cantidad de conceptos matemáticos mezclados en un solo paquete.
También, puedes expresar esas ideas en algunos conceptos básicos de álgebra lineal: Combinaciones lineales, base, cambio de base, cambio de coordenadas, etc. Y como verás más adelante, estas son ideas bastante generales que se pueden aplicar al cálculo, álgebra abstracta, etc.
$[1] : $ De lo que no se puede hablar, hay que callar. - Tractatus de Wittgenstein $(7)$.
$[2] : $ Observa que $$\begin{bmatrix} x &y \end{bmatrix}\begin{bmatrix} a & c \\ b & d \end{bmatrix}=\begin{bmatrix} \alpha & \beta \end{bmatrix}$$ está estrechamente relacionado con
$$x\begin{bmatrix} a\\c \end{bmatrix} +y\begin{bmatrix} b\\d \end{bmatrix}= \begin{bmatrix} \alpha \\ \beta \end{bmatrix}$$
Solo piensa en las filas en la matriz como las columnas en la segunda ecuación.
$[3]: $ Ver teoría de matrices elementales de Howard Eves'. p.104: Una clasificación afín de cónicas y conoides según las rangos de las matrices asociadas.
$[4]:$ $♥♥♥♥♥$.