La multiplicación de matrices por escalares es conmutativa, es decir $(\alpha M)N=M(\alpha N)$ ? Si es así, ¿podemos demostrarlo sin inducción?
Respuestas
¿Demasiados anuncios?Sí. Deja que $L_{ij}$ sea el $i,j$ El componente de $(\alpha M)N$ , dejemos que $R_{ij}$ sea el $i,j$ El componente de $M(\alpha N)$ .
$$(\alpha M)N=\begin{pmatrix} \alpha M_{11} &...& \alpha M{1m}\\ ...&...&...\\ \alpha M_{n1} &...& \alpha M{nm} \end{pmatrix}\begin{pmatrix} N_{11}&...&N{1r}\\ ...&...&...\\ N_{n1}&...&N_{nr}\end{pmatrix}$$
$$M(\alpha N)=\begin{pmatrix} \ M_{11} &...& M{1m}\\ ...&...&...\\ M_{n1} &...& M{nm}\end{pmatrix} \begin{pmatrix} \alpha N_{11} &...& \alpha N{1m}\\ ...&...&...\\ \alpha N_{n1} &...& \alpha N{nm} \end{pmatrix}$$
Ahora escribe $L_{ij}$ y $R_{ij}$ . Son lo mismo.
Sí, es cierto y además es fácil de demostrar. Dejemos que $f: X \rightarrow Y$ sea la función lineal con matriz $N$ y $g: Y \rightarrow Z$ sea la función lineal con matriz $M$ . Tienes para cada vector $x \in X$ : $$\begin{align}((\alpha M)N)x & = ((\alpha g) \circ f)(x) \\ & = (\alpha g)(f(x)) \\ & = \alpha \cdot g(f(x)) \\ & \left\downarrow \ g\text{ is linear}\right. \\ & = g(\alpha \cdot f(x)) \\ & = (g \circ \alpha f)(x) \\ & = (M(\alpha N))(x) \end{align}$$