La terminología que se utiliza en todas partes cuando se aplica una matriz a un "vector" es la siguiente: la matriz representa una transformación lineal y hay un vector fila o columna. Pero una matriz también puede ser un vector de un espacio vectorial, porque ésa es la definición de los vectores. ¿Qué ocurre cuando se considera la multiplicación de matrices? ¿Alguien puede explicar este lío?
Respuestas
¿Demasiados anuncios?Transformación de matrices vectores de coordenadas . Es decir, si se quieren considerar transformaciones lineales sobre el espacio vectorial de $n \times m$ matrices, debe
- elija una base para su espacio vectorial
- representan los elementos de su espacio vectorial (en este caso $n\times m$ matrices) como vectores de coordenadas Matrices de columnas
- represente su transformación lineal como un $k\times (nm)$ matriz
- realice la multiplicación de matrices como de costumbre
Veamos un ejemplo:
Digamos que su espacio es $2\times 2$ matrices con entradas reales. Se trata de una $4$ -espacio vectorial dimensional. Elijamos una base fácil para esto, ¿qué tal $$e_1 = \pmatrix{1 & 0 \\ 0 & 0} \\ e_2 = \pmatrix{0 & 1 \\ 0 & 0} \\ e_3 = \pmatrix{0 & 0 \\ 1 & 0} \\ e_4 = \pmatrix{0 & 0 \\ 0 & 1}$$
Ahora digamos que está considerando la transformación lineal $T$ definido por $T(ae_1 + be_2 + ce_3 + de_4) = \pmatrix{a+b & b-c-d \\ c & 0}$ .
Entonces la matriz $M$ que representa esta transformación debe obedecer siempre a la ecuación:
$$M\pmatrix{a \\ b \\ c \\ d} = \pmatrix{a+b \\ b-c-d \\ c \\ 0}$$
Entonces podemos ver por la linealidad de la multiplicación de matrices que esto es sólo
$$aM_1 + bM_2 + cM_3 + dM_4 = a\pmatrix{1 \\ 0 \\ 0 \\ 0} + b\pmatrix{1 \\ 1 \\ 0 \\ 0} + c\pmatrix{0 \\ -1 \\ 1 \\ 0} + d\pmatrix{0 \\ -1 \\ 0 \\ 0}$$
donde $M_i$ es el $i$ columna de la matriz $M$ . Así
$$M = \pmatrix{1 & 1 & 0 & 0 \\ 0 & 1 & -1 & -1 \\ 0 & 0 & 1 & 0 \\ 0 & 0 & 0 & 0}$$
Y, por último, si desea utilizar la multiplicación de matrices para averiguar cómo $M$ transforma la matriz $x = \pmatrix{1 & 1 \\ 1 & 1}$ entonces multiplica $M$ por el vector de coordenadas de la matriz $x$ :
$$M[x] = \pmatrix{1 & 1 & 0 & 0 \\ 0 & 1 & -1 & -1 \\ 0 & 0 & 1 & 0 \\ 0 & 0 & 0 & 0}\pmatrix{1 \\ 1 \\ 1 \\ 1} = \pmatrix{2 \\ -1 \\ 1 \\ 0}$$
Por lo tanto $$\color{red}{T(x) = \pmatrix{2 & -1 \\ 1 & 0}}$$
No obstante, debo señalar que la multiplicación de matrices también puede tener una interpretación diferente. La multiplicación de dos matrices da como resultado una matriz que representa la composición de transformaciones lineales.
Por ejemplo $S: \Bbb R^3 \to \Bbb R^2$ y $T: \Bbb R^3 \to \Bbb R^3$ son dos transformaciones lineales. Dejemos además que $A$ sea la matriz que representa $S$ en la base que nos ocupa e igualmente $B$ sea la matriz que representa $T$ .
Entonces, ¿cuál es la matriz que representa el composición de estas dos transformaciones lineales, $S \circ T$ ? Bueno, es que $AB$ .
Esto es fácil de demostrar. Por definición $S(x) = Ax$ y $T(y) = By$ Por lo tanto $$(\color{red}{S \circ T})(y) = S(T(y)) = S(By) = A(By) = (\color{red}{AB})y$$
Si lo he entendido bien, usted quiere saber dónde se sitúa la multiplicación de matrices, por matrices, cuando se considera un espacio determinado $\mathcal M$ de matrices como espacio vectorial. En este caso se tiene simplemente un espacio vectorial sobre $\Bbb R$ cuyos elementos forman un anillo. De hecho se tiene un $\Bbb R$ -álgebra.
Otro ejemplo es el espacio de las funciones continuas $\mathcal C(\Bbb R,\Bbb R)$ . Es un $\Bbb R$ espacio vectorial, pero la multiplicación de funciones también está definida por $(fg)(x)= f(x)g(x)$ . Esta operación también la convierte en una $\Bbb R$ -álgebra.