La respuesta corta es que una matriz corresponde a una transformación lineal. Para multiplicar dos matrices es la misma cosa como redactar las correspondientes transformaciones lineales (o lineal mapas).
El siguiente es cubierto en un texto de álgebra lineal (como Hoffman-Kunze):
Esto tiene más sentido en el contexto de espacios vectoriales sobre un campo. Se puede hablar de espacios vectoriales y (lineal) de los mapas entre ellos, sin mencionar jamás una base. Cuando se elige una base, puede escribir los elementos del espacio vectorial como una suma de la base de elementos con coeficientes en el campo base (es decir, se obtiene explícito de las coordenadas de sus vectores en términos de por ejemplo los números reales). Si desea calcular algo, normalmente recoger las bases para sus espacios vectoriales. A continuación, puedes representar a tu lineal mapa como una matriz con respecto a las bases dadas, con las entradas en la base de su campo (ver, por ejemplo, el mencionado libro para más detalles en cuanto a cómo). Podemos definir la multiplicación de la matriz tal que la multiplicación de la matriz corresponde a la composición de los lineales de los mapas.
Añadido (Detalles en la presentación de una lineal mapa por una matriz). Deje $V$ and $W$ be two vector spaces with ordered bases $e_1,\dots,e_n$ and $f_1,\dots,f_m$ respectively, and $L:V\to W$ lineal en el mapa.
Primera nota de que desde la $e_j$ generate $V$ and $L$ is linear, $L$ is completely determined by the images of the $e_j$ in $W$, that is, $L(e_j)$. Explicitly, note that by the definition of a basis any $v\in V$ has a unique expression of the form $a_1e_1+\cdots+a_ne_n$, and $L$ applied to this pans out as $a_1L(e_1)+\cdots+a_nL(e_n)$.
Ahora, desde la $L(e_j)$ is in $W$ it has a unique expression of the form $b_1f_1+\dots+b_mf_m$, and it is clear that the value of $e_j$ under $L$ is uniquely determined by $b_1,\dots,b_m$, the coefficients of $L(e_j)$ with respect to the given ordered basis for $W$. In order to keep track of which $L(e_j)$ the $b_i$ are meant to represent, we write (abusing notation for a moment) $m_{ij}=b_i$, yielding the matrix $(m_{ij})$ of $L$ con respecto a la ordenada bases.
Esto podría ser suficiente para jugar con la razón por la multiplicación de la matriz se define de la manera que es. Pruebe, por ejemplo, un único espacio vectorial $V$ with basis $e_1,\dots,e_n$, and compute the corresponding matrix of the square $L^2=L\circ L$ of a single linear transformation $L:V\to V$, or say, compute the matrix corresponding to the identity transformation $v\mapsto v$.