Piensa en $A$ como una transformación lineal de $ \mathbb {R}^n$ a $ \mathbb {R}^k$ y $B$ como una transformación lineal de $ \mathbb {R}^n$ a $ \mathbb {R}^m$ . Blanco $L_M$ para la transformación lineal definida por la multiplicación por la matriz $M$ .
Para la matriz $C$ para existir, debes tener una transformación lineal $L$ de $ \mathbb {R}^k$ a $ \mathbb {R}^m$ de tal manera que $L \circ L_A = L_B$ . Entonces puedes definir $C$ para ser la representación de la matriz estándar de $L$ .
Una condición necesaria para que esto sea posible es que $ \mathbf {N}(L_A) \subseteq \mathbf {N}(L_B)$ (si hay $ \mathbf {v} \in\mathbf {N}(L_A)$ que no está en $ \mathbf {N}(L_B)$ Entonces $L \circ L_A( \mathbf {v})= \mathbf {0} \neq L_B( \mathbf {v})$ y estás hundido).
De hecho, esto es suficiente encontrar una base $ \mathbf {v}_1, \ldots , \mathbf {v}_s$ para el espacio nulo de $A$ y luego extenderlo a una base para $ \mathbb {R}^n$ , $ \mathbf {v}_{s+1}, \dots , \mathbf {v}_n$ . Note que la imagen de $ \mathbf {v}_{s+1}, \ldots , \mathbf {v}_n$ en $ \mathbb {R}^k$ bajo $L_A$ es linealmente independiente (este es esencialmente el Teorema de Rango-Nulidad), así que puedes completar $A \mathbf {v}_{s+1}, \ldots ,A \mathbf {v}_n$ a una base $ \mathbf {w}_1, \ldots , \mathbf {w}_{(k-n+s)}$ de $ \mathbb {R}^k$ . Defina $L \colon\mathbb {R}^k \to\mathbb {R}^n$ dejando que $L(A \mathbf {v}_j) = B \mathbf {v}_j$ para $j=s+1, \ldots ,n$ y arbitrariamente para $ \mathbf {w}_i$ . Entonces deja $C$ sea la matriz estándar para esta transformación lineal.