Desde S. L Álgebra Lineal:
En cada uno de los siguientes casos, hallar $M^{\beta }_{\beta' }(id)$. El espacio vectorial en cada caso es $\mathbb{R}^3$.
(a) $\beta = \{(1, 1, 0), (-1, 1, 1), (0, 1, 2)\}$ ; $\beta' = \{(2, 1, 1), (0, 0, 1), (-1, 1, 1)\}$
...
Definiciones:
$\beta$ e $\beta'$:
$\beta$ e $\beta'$ para algunos transformación lineal $F$, definir la base del espacio vectorial de dominio de $F$ y base del espacio vectorial codominio de $F$. En otras palabras, para la transformación lineal:
$F: V \rightarrow W$
$\beta$ implica una base de $V$ e $\beta'$ implica una base de $W$.
$M^{\beta }_{\beta' }(id)$:
Generalmente, $M^{\beta }_{\beta' }(F)$ para algunos transformación lineal en el libro se define por una única matriz $A$ tener la siguiente propiedad:
Si $X$ es la (columna) de coordenadas del vector de un elemento $v$ de $V$, en relación a la base $\beta$, a continuación, $AX$ es la (columna) coordinar vector de $F(v)$, en relación a la base $\beta'$.
No estoy seguro acerca de la definición exacta de $M^{\beta }_{\beta' }(id)$, pero en general el libro se refiere a $id$ como un mapa de identidad, por lo tanto estoy asumiendo que la matriz de $M^{\beta }_{\beta' }(id)$ es la matriz asociada con algunos de asignación de identidad.
Solución:
Hay un resultado muy interesante en el libro:
$$X_{\beta{}'}(v) = M^{\beta }_{\beta' }(id) X_{\beta{}}(v)$$ (Ecuación 1)
Tenga en cuenta que $X_{\beta{}}(v)$ implica que el vector coordenado $X$ depende de $v$ y $\beta $.
Por lo tanto, $v= X \beta{}$ donde $v \in V$ e $w = X \beta{}'$ donde $w \in W$, suponiendo que $Id: V \rightarrow W$.
Pero teniendo en cuenta que el mapa de identidad es tanto surjective (la imagen es igual al codominio) y inyectiva (trivial kernel), supongo que hemos $V = W$ y, por tanto, $Id: V \rightarrow V$.
De acuerdo a nuestra ecuación 1 y la base de la información, me pueden simplemente conectar variables:
$$\left( x_1(2, 1, 1), x_2(0, 0, 1), x_3(-1, 1, 1) \right)= \left(A_1x_1(1, 1, 0), A_2x_2(-1, 1, 1), A_3x_3(0, 1, 2) \right)$$
(donde $A = M^{\beta }_{\beta' }(id)$ e $A_1, A_2, A_3$ representan las columnas de a$A$, teniendo en cuenta que es un $3 \times 3$ de la matriz).
Suponiendo que $x_1, x_2, x_3$ son escalares, tenemos:
$$\left( (2x_1, x_1, x_1), (0, 0, x_2), (-x_3, x_3, x_3) \right)= \left(A_1(x_1, x_1, 0), A_2(-x_2, x_2, x_2), A_3(0, x_3, x_3) \right)$$
Aquí es donde se pone poco confuso, si trato de aislar los vectores columna de a$A$ de esta manera:
$$\left( (2x_1 - x_1, x_1 - x_1, x_1 - 0), (0 + x_2, 0 - x_2, x_2 - x_2), (-x_3 - 0, x_3 - x_3, x_3 - x_3) \right)= (A_1, A_2, A_3)$$
Sería un error fundamental? Si no, entonces tendríamos:
$$\begin{pmatrix} x_1 & x_2 & -x_3 \\ 0 & -x_2 & 0 \\ 0 & 0 & 0 \end{pmatrix}$$
Lo que no parece una solución adecuada.
Qué error ¿que hago? Existe una mejor solución a este problema? Me siento como que estoy haciendo un simple error fundamental.