19 votos

¿Se entienden mejor las matrices como mapas lineales?

Cualquier mapa lineal entre espacios vectoriales de dimensión finita puede representarse mediante una matriz, y a la inversa. La multiplicación matriz-matriz corresponde a la composición de mapas, y la multiplicación matriz-vector corresponde a la aplicación de mapas.

Esto proporciona una buena forma de entender las matrices y el origen de las reglas para su cálculo. Haber alcanzado esta perspectiva es una gran ayuda para mí, porque siempre me ha molestado que las matemáticas matriciales se enseñen básicamente como una colección de manipulaciones arbitrarias de símbolos (¡multiplica las entradas! ¡ahora súmalas! No preguntes por qué. ).

Pero, ¿es esta comprensión siempre ¿tiene sentido?

Porque, en general, el hecho de haber encontrado una interpretación para un concepto matemático no significa que se aplique siempre. Por ejemplo, las funciones trigonométricas puede se pueden considerar simplemente como las coordenadas de un círculo unitario, pero esto no explica por qué aparecen como soluciones de ecuaciones diferenciales que no tienen nada que ver con los círculos (ni con la geometría); para explicarlo necesitamos una comprensión más abstracta de las funciones trigonométricas.

Así, en todos los no trivial usos de las matrices en la matemática pura y aplicada, podemos significativamente ¿dir que las matrices implicadas representan, al menos implícitamente, mapas lineales? Por ejemplo, podemos pensar en la resolución de un sistema de ecuaciones como si se tratara simplemente de encontrar un vector que, cuando se le aplica un mapa determinado, produce una imagen específica.

Por no trivial, quiero decir que el uso particular de las matrices implica, como mínimo, la multiplicación de matrices y/o determinantes u otros aspectos elementales del cálculo de matrices. Por ejemplo podría llamar a una hoja de cálculo una matriz, pero a menos que tenga la intención de hacer algo parecido a una matriz con ella, aparte de dibujarla como una cuadrícula, puede llamarla simplemente un conjunto de números.

Nota: esta pregunta puede ser blanda, pero creo que se le puede dar una respuesta limpia. O se puede plantear una situación en la que la interpretación del mapa lineal no se aplique, o no se puede.

0 votos

Hasta que no se elija una base, una matriz es sólo una matriz.

0 votos

Pero en el contexto de un problema concreto, a menudo representa implícitamente un mapa lineal.

1 votos

En ese caso, probablemente se entienda mejor como un mapa lineal. (La clave es entendido como - algunas personas cometen el error de pensar que una matriz realmente es un mapa lineal).

5voto

GmonC Puntos 114

Creo que cuando ves una multiplicación de matrices, lo más probable es que haya una composición o aplicación de un mapa lineal. Sin embargo, he visto evaluar determinantes muy notables (sobre todo en combinatoria) en los que es realmente muy difícil introducir cualquier operación lineal. A veces, organizar las expresiones en una matriz es sólo un medio notacional conveniente para crear una combinación muy complicada de esas expresiones simplemente aplicando $\det$ .

He aquí un ejemplo. Para una partición $\lambda=(\lambda_0,\lambda_1,\ldots,\lambda_k)$ (con lo cual $\lambda_0\geq\lambda_1\geq\cdots\geq\lambda_k\geq0$ ) se puede definir el Polinomio de Schur $s_\lambda\in\mathbf Z[X_0,X_1,\ldots,X_k]$ por $$ s_\lambda = \frac{\begin{vmatrix} X_0^{\lambda_0+k}&X_0^{\lambda_1+k-1}&\cdots&X_0^{\lambda_{k-1}+1}&X_0^{\lambda_k}\\ X_1^{\lambda_0+k}&X_1^{\lambda_1+k-1}&\cdots&X_1^{\lambda_{k-1}+1}&X_1^{\lambda_k}\\ \vdots&\vdots&\ddots&\vdots&\vdots\\ X_{k-1}^{\lambda_0+k}k&X_{k-1}^{\lambda_1+k-1}&\cdots&X_{k-1}^{\lambda_{k-1}+1}&X_{k-1}^{\lambda_k}\\ X_k^{\lambda_0+k}&X_k^{\lambda_1+k-1}&\cdots&X_k^{\lambda_{k-1}+1}&X_k^{\lambda_k}\\ \end{vmatrix}} {\begin{vmatrix} X_0^k&X_0^{k-1}&\cdots&X_0^1&1\\ X_1^k&X_1^{k-1}&\cdots&X_1^1&1\\ \vdots&\vdots&\ddots&\vdots&\vdots\\ X_{k-1}^k&X_{k-1}^{k-1}&\cdots&X_{k-1}^1&1\\ X_k^k&X_k^{k-1}&\cdots&X_k^1&1\\ \end{vmatrix}} = \frac{\det\bigl((X_i^{\lambda_j+k-j})_{i,j=0}^k\bigr)}{\prod_{0\leq i<j\leq k}(X_i-X_j)}. $$ Aquí me costaría mucho introducir un mapa lineal de forma útil.

2voto

Brian Hinchey Puntos 1112

Tenga en cuenta que una matriz no es una función lineal, es sólo una matriz. Con una base dada podemos interpretarla como una función lineal. Por ejemplo, hay matrices que representan gráficos (como la matriz de vértices o la llamada matriz de adyacencia, que no representan mapas lineales).

Tienes un conjunto de vértices $\{P_i\}_{1\leq i \leq n}$ y la matriz $M$ es un $n \times n$ con $$m_{ij} = \left\{\begin{array}{rl} 1 & P_i \to P_j\\ 0& \text{else} \\ \end{array}\right.$$

0 votos

Ya veo. Bueno, es ciertamente muy interesante que las matrices de adyacencia puedan ser operadas de manera significativa con la multiplicación de matrices. Pero, ¿quizás haya una forma de imaginarlas como mapas lineales sobre algún tipo de espacio que represente de alguna manera el grafo? ¿Quizás haya un punto de vista más elevado y abstracto para dar cuenta tanto de los mapas lineales como de las matrices de adyacencia?

0 votos

¿Qué ocurre realmente cuando se intenta tomar el determinante, la inversa o el producto de una o varias de estas matrices gráficas, o aplicarlo como un mapa a un vector? ¿Seguro que no se obtiene nada interesante?

0 votos

La Wikipedia ofrece algunos ejemplos es.wikipedia.org/wiki/Matriz de adyacencia#Propiedades Y me extiendo la mente tratando de interpretar los nodos como vectores y demás, pero aún no hay nada concreto. Ciertamente, es un tema de reflexión (aunque probablemente debería terminar mi libro de texto de linalg antes de ponerme a ello).

1voto

azimut Puntos 13457

El poder del punto de vista del mapa lineal es que no depende de la elección de una base. En cambio, para los problemas que implican intrínsecamente una base fija, suelen ser más adecuadas las matrices.

Un ejemplo es el algoritmo de Gauss. No conozco ningún libro de álgebra lineal que lo presente para mapas lineales. Aquí las matrices son más intuitivas.

La razón es la siguiente: No se puede expresar el algoritmo de Gauss sólo en términos de mapas lineales, se necesita además alguna base fija del espacio vectorial. (las transformaciones elementales, la forma escalonada reducida, etc., dependen de una base). Usando matrices, eso no es necesario, puesto que ya hay una base distinguida del espacio vectorial (la canónica).

0 votos

Para el método de Gauss, ¿no es sólo una cuestión de notación? Es decir, ¿qué aspecto tendría la presentación del método de Gauss "para mapas lineales"? El hecho de que utilicemos la notación matricial para ello no significa que la matriz en cuestión no pueda, conceptualmente, representar un mapa lineal.

0 votos

Por supuesto, se puede formular para mapas lineales. Pero ten en cuenta que la forma normal al final depende de una base elegida. Así que no puedes formularla sólo con mapas lineales, necesitas además una base fija. Las matrices ya vienen con una base fija.

0 votos

El algoritmo de eliminación de Gauss es útil para calcular el núcleo y los espacios imagen de un mapa lineal, o para resolver una ecuación $L(x)=y$ con el mapa $L$ . Sin embargo, por naturaleza el algoritmo opera sobre las entradas de una matriz, por lo que no se puede aplicar el algoritmo sin expresar primero el mapa lineal en una base.

0voto

Kalinin Puntos 959

El polinomio característico de una matriz con entradas en $\mathbb{Z}$ es un polinomio mónico en $\mathbb{Z}[X]$ . A la inversa, dado un polinomio mónico en $\mathbb{Z}[X]$ , su matriz de acompañamiento es un ejemplo de matriz con entradas en $\mathbb{Z}$ y con el polinomio dado como polinomio característico. Esto implica que el conjunto de enteros algebraicos, es decir, el conjunto de números que son raíz de algún polinomio en $\mathbb{Z}[X]$ es también el conjunto de valores propios de las matrices con entradas en $\mathbb{Z}$ .

Esto proporciona una prueba constructiva del hecho de que el conjunto de enteros algebraicos es cerrado bajo la adición y la multiplicación. En efecto, dejemos que $x$ y $y$ sean los valores propios de las matrices $A$ y $B$ respectivamente, ambos con entradas en $\mathbb{Z}$ y con los tamaños respectivos $n$ y $m$ . Entonces

  • la matriz $A \otimes B$ tiene entradas en $\mathbb{Z}$ y tiene $xy$ como un valor propio.
  • la matriz $A \otimes I_m + I_n \otimes B$ tiene entradas en $\mathbb{Z}$ y $x+y$ como un valor propio.

Por supuesto, la adición de matrices, los productos de Kronecker y los valores propios tienen un significado en términos de mapas lineales, pero creo que es discutible si esta traducción da un significado adicional a este problema en particular. Cuando se pasa de los campos a los anillos conmutativos (y posiblemente aún más a los anillos no conmutativos) como entradas de un anillo de matrices, la visión de los mapas lineales pierde su significado geométrico, creo.

i-Ciencias.com

I-Ciencias es una comunidad de estudiantes y amantes de la ciencia en la que puedes resolver tus problemas y dudas.
Puedes consultar las preguntas de otros usuarios, hacer tus propias preguntas o resolver las de los demás.

Powered by:

X