4 votos

Camino correcto para encontrar el cambio de base de la matriz de

Desde S. L Álgebra Lineal:

En cada uno de los siguientes casos, hallar $M^{\beta }_{\beta' }(id)$. El espacio vectorial en cada caso es $\mathbb{R}^3$.

(a) $\beta = \{(1, 1, 0), (-1, 1, 1), (0, 1, 2)\}$ ; $\beta' = \{(2, 1, 1), (0, 0, 1), (-1, 1, 1)\}$

...

Definiciones:


$\beta$ e $\beta'$:

$\beta$ e $\beta'$ para algunos transformación lineal $F$, definir la base del espacio vectorial de dominio de $F$ y base del espacio vectorial codominio de $F$. En otras palabras, para la transformación lineal:

$F: V \rightarrow W$

$\beta$ implica una base de $V$ e $\beta'$ implica una base de $W$.


$M^{\beta }_{\beta' }(id)$:

Generalmente, $M^{\beta }_{\beta' }(F)$ para algunos transformación lineal en el libro se define por una única matriz $A$ tener la siguiente propiedad:

Si $X$ es la (columna) de coordenadas del vector de un elemento $v$ de $V$, en relación a la base $\beta$, a continuación, $AX$ es la (columna) coordinar vector de $F(v)$, en relación a la base $\beta'$.

No estoy seguro acerca de la definición exacta de $M^{\beta }_{\beta' }(id)$, pero en general el libro se refiere a $id$ como un mapa de identidad, por lo tanto estoy asumiendo que la matriz de $M^{\beta }_{\beta' }(id)$ es la matriz asociada con algunos de asignación de identidad.

Solución:


Hay un resultado muy interesante en el libro:

$$X_{\beta{}'}(v) = M^{\beta }_{\beta' }(id) X_{\beta{}}(v)$$ (Ecuación 1)

Tenga en cuenta que $X_{\beta{}}(v)$ implica que el vector coordenado $X$ depende de $v$ y $\beta $.

Por lo tanto, $v= X \beta{}$ donde $v \in V$ e $w = X \beta{}'$ donde $w \in W$, suponiendo que $Id: V \rightarrow W$.

Pero teniendo en cuenta que el mapa de identidad es tanto surjective (la imagen es igual al codominio) y inyectiva (trivial kernel), supongo que hemos $V = W$ y, por tanto, $Id: V \rightarrow V$.


De acuerdo a nuestra ecuación 1 y la base de la información, me pueden simplemente conectar variables:

$$\left( x_1(2, 1, 1), x_2(0, 0, 1), x_3(-1, 1, 1) \right)= \left(A_1x_1(1, 1, 0), A_2x_2(-1, 1, 1), A_3x_3(0, 1, 2) \right)$$

(donde $A = M^{\beta }_{\beta' }(id)$ e $A_1, A_2, A_3$ representan las columnas de a$A$, teniendo en cuenta que es un $3 \times 3$ de la matriz).

Suponiendo que $x_1, x_2, x_3$ son escalares, tenemos:

$$\left( (2x_1, x_1, x_1), (0, 0, x_2), (-x_3, x_3, x_3) \right)= \left(A_1(x_1, x_1, 0), A_2(-x_2, x_2, x_2), A_3(0, x_3, x_3) \right)$$

Aquí es donde se pone poco confuso, si trato de aislar los vectores columna de a$A$ de esta manera:

$$\left( (2x_1 - x_1, x_1 - x_1, x_1 - 0), (0 + x_2, 0 - x_2, x_2 - x_2), (-x_3 - 0, x_3 - x_3, x_3 - x_3) \right)= (A_1, A_2, A_3)$$

Sería un error fundamental? Si no, entonces tendríamos:

$$\begin{pmatrix} x_1 & x_2 & -x_3 \\ 0 & -x_2 & 0 \\ 0 & 0 & 0 \end{pmatrix}$$

Lo que no parece una solución adecuada.


Qué error ¿que hago? Existe una mejor solución a este problema? Me siento como que estoy haciendo un simple error fundamental.

2voto

Chris Custer Puntos 67

Tenemos que$M_{\beta'}^{\beta}(\text{id})=(M_S^{\beta'}(\text{id}))^{-1}M_S^{\beta}(\text{id})$.

Pero $M_S^{\beta}(\text{id})=\begin{pmatrix}1&-1&0\\1&1&1\\0&1&2\end{pmatrix}$ e $M_S^{\beta'}(\text{id})=\begin{pmatrix}2&0&-1\\1&0&1\\1&1&1\end{pmatrix}$.

Yo voy a dejar a usted para calcular la inversa y se multiplican.

Puedo conseguir

$M_{\beta'}^{\beta}(\text{id})=\begin {pmatrix} \frac23&0&\frac13 \\-1&0&1\\\frac13&1&\frac23\end{pmatrix}$.

2voto

Jonas Kölker Puntos 121

Mi solución para casi todos los álgebra lineal es escribir todo como un montón de matriz (vector) de productos. Vamos a intentar que.

Las coordenadas de algunos vectores $\mathbf u$ con respecto a alguna base $\beta$ es un vector columna $\mathbf v$ tal que $\mathbf{M}_{\beta} \mathbf{v} = \mathbf{u}$. Del mismo modo las coordenadas con respecto a otra base $\beta'$ es un vector $\mathbf{w}$ tal que $\mathbf{M}_{\beta'} \mathbf{w} = \mathbf{u}$.

Por lo tanto $\mathbf{M}_{\beta'} \mathbf{w} = \mathbf{u} = \mathbf{M}_{\beta} \mathbf{v}$ y, por tanto, $\mathbf{w} = (\mathbf{M}_{\beta'}^{-1} \mathbf{M}_{\beta}) \mathbf{v}$. Evidentemente la matriz $\mathbf{M}_{\beta'}^{-1} \mathbf{M}_{\beta}$ mapas de $\beta$-coordenadas en $\beta'$-coordenadas, y por lo que me calcular eso.

Si no me equivoco, la base de la conversión de un mapeo lineal significa multiplicar la base de la conversión de la matriz y de la lineal la asignación de la matriz juntos. Es de suponer que la identidad particular de asignación es el de $\mathbb{R}^3$, representado por el 3-por-3 matriz de identidad.

2voto

amd Puntos 2503

Me resulta difícil descifrar su notación, pero parece que estás haciendo un par de errores fundamentales.

Es útil pensar en la notación $M_{\beta'}^\beta$ como la especificación de la "entrada" y "salida" de las bases de la matriz $M$: se come coordinar las tuplas expresó en relación a la orden de la base de $\beta$ y escupe coordinar las tuplas expresó en relación a la orden de la base de $\beta'$. En particular, aplicando para ello las tuplas de las coordenadas expresadas en alguna otra base es absurdo, como es la interpretación de su producción, en términos de algunas otras de $\beta'$.

Ahora bien, dado $\beta=(v_1,v_2,v_3)$, entonces es cierto que si $X_\beta(v)=(x_1,x_2,x_3)^T$, a continuación, $v=x_1v_1+x_2v_2+x_3v_3$, pero eso es sólo la definición de las coordenadas de $v$ relativo $\beta$. Sin embargo, no tiene sentido, en principio, multiplica esta suma por la matriz $A=M_{\beta'}^\beta(\operatorname{id})$: $v$ podría incluso no ser un elemento de $\mathbb R^3$ en el primer lugar. En este ejercicio es, que creo que contribuye a la confusión. Aunque $v\in\mathbb R^3$, todavía tiene ningún sentido si se multiplica por $A$ porque se representa a los elementos de $\beta$ como coordenadas de los vectores de la relación con el nivel de base $\mathcal E$ (o al menos algunos otros, sin especificar, base). El uso de Lang, la notación, la suma da $X_{\mathcal E}(v)$, pero el producto $$M_{\beta'}^\beta(\operatorname{id})X_{\mathcal E}(v)$$ es absurdo, porque las bases no coinciden.

El siguiente problema es que el mismo sistema de coordenadas $(x_1,x_2,x_3)^T$ aparecen en ambos lados de la ecuación que hemos formado. Eso es equivalente a decir que $X_{\beta'}(v)=X_{\beta}(v)$, es decir, que las coordenadas de un vector arbitrario $v$ son los mismos en ambas bases. Eso es obviamente falso si $\beta'\ne\beta$. La mano izquierda debe utilizar el $\beta'$-coordenadas de $v$, que son algunos de los otros tres valores de $(x_1',x_2',x_3')^T$. El número de incógnitas está proliferando rápidamente.

Volviendo a la definición de $M_{\beta'}^{\beta}$, lo que queremos aquí es una matriz de $A$ tales que $$X_{\beta'}(v_i) = AX_{\beta}(v_i)$$ for every element $v_i$ of $\beta$. However, $X_{\beta}(v_i)=e_i$ and $Ae_i=A_i$, from which $A_i=X_{\beta'}(v_i)$, i.e., the columns of $A$ are the elements of $\beta$ expressed relative to the basis $\beta' = (w_1,w_2,w_3)$. For each column, then, you have a system of linear equations. The nine equations can be expressed as the matrix equation $$\pmatrix{X_{\mathcal E}(w_1)&X_{\mathcal E}(w_2)&X_{\mathcal E}(w_3)}A=\pmatrix{X_{\mathcal E}(v_1)&X_{\mathcal E}(v_2)&X_{\mathcal E}(v_3)},$$ therefore $$A = \pmatrix{X_{\mathcal E}(w_1)&X_{\mathcal E}(w_2)&X_{\mathcal E}(w_3)}^{-1}\pmatrix{X_{\mathcal E}(v_1)&X_{\mathcal E}(v_2)&X_{\mathcal E}(v_3)}.$$ Observe, though, that the first matrix in this product is $M_{\beta}^{\mathcal E}(\operatorname{id})$ and the second is $M_{\mathcal E}^{\beta}(\operatorname{id})$, so we have the useful identity $$M_{\beta'}^\beta(\operatorname{id}) = M_{\beta'}^{\mathcal E}(\operatorname{id})M_{\mathcal E}^{\beta}(\operatorname{id}) = M_{\mathcal E}^{\beta'}(\operatorname{id})^{-1}M_{\mathcal E}^{\beta}(\operatorname{id}).$$ Formally, the upper and lower $\mathcal E$'s en el producto "cancelar".

Una fácil manera de calcular este producto a mano es la de formar la matriz ampliada $$\left(\begin{array}{c|c}M_{\mathcal E}^{\beta'}(\operatorname{id}) & M_{\mathcal E}^{\beta}(\operatorname{id}) \end{array}\right) = \left(\begin{array}{ccc|ccc}X_{\mathcal E}(w_1)&X_{\mathcal E}(w_2)&X_{\mathcal E}(w_3)&X_{\mathcal E}(v_1)&X_{\mathcal E}(v_2)&X_{\mathcal E}(v_3)\end{array}\right)$$ and apply Gaussian elimination to it to obtain $$\left(\begin{array}{c|c}I_3 & M_{\mathcal E}^{\beta'}(\operatorname{id})^{-1} M_{\mathcal E}^{\beta}(\operatorname{id}) \end{array}\right).$$

i-Ciencias.com

I-Ciencias es una comunidad de estudiantes y amantes de la ciencia en la que puedes resolver tus problemas y dudas.
Puedes consultar las preguntas de otros usuarios, hacer tus propias preguntas o resolver las de los demás.

Powered by:

X