5 votos

Encontrando una matriz$X$ que cambia la base (?)

Si tengo algo de dos dimensiones de espacio vectorial $V$ y un operador lineal $\phi:V\to V$ y una matriz de $A$ $\phi$ con respecto a alguna base $\{a,a'\}$ y deje $B$ de su matriz con respecto a otra base $\{b,b'\}$ y quiero encontrar a $X$ tal que $XAX^{-1}=B$


Tengo un par de ideas:

Creo que estoy mirando

$$X\,\begin{bmatrix}a_1 & a_2 \\ a_1' & a_2 '\end{bmatrix}\,X^{-1} = \begin{bmatrix}b_1 & b_2 \\ b_1'& b_2'\end{bmatrix}$$

Y también estoy seguro que no, pero parece ser que en la misma forma como diagonalisation(posiblemente coincidencia). ¿Hay alguna razón para creer que esto implicaría $B_2=0=B_1'$?

También: Desde $X$ parece ser invertible, debe ser cuadrado, así que supongo que puedo mirar la manera en que trata a $A$ después de la computación $XAX^{-1}$. Voy a echar un vistazo a esto y editar.

5voto

Andreas Caranti Puntos 35676

$\newcommand{\R}[0]{\mathbb{R}}$Las columnas de a $X$ serán las coordenadas de $b, b'$ con respecto a la base $a, a'$.


Por ejemplo, suponga que tiene el operador lineal en $\R^{2}$ que hace $$ \begin{bmatrix}1\\0\end{bmatrix} \mapsto \begin{bmatrix}1\\0\end{bmatrix}, \qquad \begin{bmatrix}0\\1\end{bmatrix} \mapsto \begin{bmatrix}0\\-1\end{bmatrix}. $$ Con respecto a la base $$ a = \begin{bmatrix}1\\0\end{bmatrix}, \qquad a'= \begin{bmatrix}0\\1\end{bmatrix}, $$ la matriz será $$ A = \begin{bmatrix}1&0\\0&-1\end{bmatrix}. $$ Con respecto a la base $$ b = \begin{bmatrix}1\\1\end{bmatrix}, \qquad b'= \begin{bmatrix}1\\-1\end{bmatrix}, $$ la matriz será $$ B = \begin{bmatrix}0&1\\1&0\end{bmatrix}. $$ Ahora tome $$ X = \begin{bmatrix}1&1\\1&-1\end{bmatrix}, $$ y comprobar que $$ B = X A X^{-1}. $$

4voto

Anthony Shaw Puntos 858

¿Qué significa que$A$ sea la matriz de$\phi$ con respecto a la base$\{a,a'\}$? $$ \begin{bmatrix} a\\ a' \end {bmatrix} M = \begin{bmatrix} \phi(a)\\ \phi(a') \end {bmatrix} = Similarmente, $$ \begin{bmatrix} a\\ a' \end {bmatrix} M = \begin{bmatrix} b\\ b' \end {bmatrix} = B \begin{bmatrix} \phi(b)\\ \phi(b') \end {bmatrix} $$ Por lo tanto, $$ \begin{bmatrix} b\\ b' \end {bmatrix} ^ {- 1} A \begin{bmatrix} a\\ a' \end {bmatrix} = \begin{bmatrix} a\\ a' \end {bmatrix } {{{{{{{{{{{{{{{{{{{{{{{{} {}}} {Bmatrix} ^ {- 1} = B $$ Por lo tanto, $$ X = \begin{bmatrix} b\\ b' \end {bmatrix} \begin{bmatrix} b\\ b' \end {bmatrix}

3voto

Emilio Novati Puntos 15832

Espero que una representación gráfica puede ayudar. En esta representación una de las dos es la base canónica de uno (para simplificar las figuras), pero el uso de dos genéricos no ortonormales base no cambian sustancialmente el significado.

enter image description here

El hecho clave es que los vectores y las transformaciones geométricas entidades que no cambian con el cambio de la base en la que están representados. En el otro mundo: Los componentes de un vector dado y las entradas de la matriz que representa una determinada transformación son distintos, pero de tal manera que el vector (o transformación) siguen siendo los mismos.

Las figuras ilustran la situación de este tipo para una transformación lineal en $\mathbb{R}^2$. Aquí la transformación de la matriz: $$ T_{i,j}= \left[ \begin{array}{cccc} 1&2\\ 1&-1 \end {array} \right] $$ donde el subíndice se refiere a la base canónica $\{\mathbf{i},\mathbf{j}\}$. Actuando sobre un vector $\mathbf{v}$ ( en la primera figura $\mathbf{v}=[1,2]^T$), esta transformación se da el vector $\mathbf{v'}$, que, en la base canónica, es (segunda figura):

$$ \mathbf{v'_{i,j}}= T_{ij}\mathbf{v_{ij}}= \left[ \begin{array}{cccc} 1&2\\ 1&-1 \end {array} \right] \left[ \begin{array}{cccc} 1\\ 2 \end {array} \right] = \left[ \begin{array}{cccc} 5\\ -1 \end {array} \right] $$

Ahora queremos representar a este mismo y vectores de transformación en una nueva base, por ejemplo, $\{\mathbf{e_1},\mathbf{e_2}\}$ en la figura. Esta nueva base se obtiene la transformación de la base canónica con la matriz $$ P= \left[ \begin{array}{cccc} 1&3\\ -1&1 \end {array} \right] $$ y su inversa $$ P^{-1}=\dfrac{1}{4} \left[ \begin{array}{cccc} 1&-3\\ 1&1 \end {array} \right] $$ representa la transformación que se devuelve desde la nueva base para el canónico.

En esta nueva base los vectores $\mathbf{v}$ $\mathbf{v'}$ tienen componentes: $$ \mathbf{v_{1,2}}= P^{-1}\mathbf{v_{i,j}}= \dfrac{1}{4}\left[ \begin{array}{cccc} -5\\ 3 \end {array} \right] $$

$$ \mathbf{v'_{1,2}}= P^{-1}\mathbf{v'_{ij}}= \left[ \begin{array}{cccc} 2\\ 1 \end {array} \right]= P^{-1}T_{i,j}\mathbf{v_{i,j}}=P^{-1}T_{i,j}P\mathbf{v_{1,2}}=T_{1,2}\mathbf{v_{1,2}} $$ donde $T_{1,2}$ es la matriz que representa la transformación en la nueva base.

Por lo tanto tenemos: $$ T_{1,2}=P^{-1}T_{i,j}P= \dfrac{1}{4} \left[ \begin{array}{cccc} -7&-1\\ 1&7 \end {array} \right] $$

2voto

Hrodelbert Puntos 781

Dado que$X$ debe ser invertible, puede resolver el conjunto de ecuaciones dadas por$$XA = BX.$$ This gives $ 4$ linear equations for the $ % #% B$ unknown entries of $ X $.

De forma más general, si desea encontrar$ in terms of the coefficients of $ a partir de los vectores de base, esto también se puede hacer: simplemente resuelva el sistema$ and $$. Solving this system then results in your matrix $$X$ $.

2voto

Stephen A. Meigs Puntos 161

Para entender álgebra lineal y así obtener elegante notación, es útil para escribir escalares a la derecha (cuando se multiplican los vectores), al menos cuando la escritura de funciones y transformaciones a la izquierda de sus argumentos (y componer de forma estándar, de derecha a izquierda). Al hacerlo, es útil pensar en las $n$-tuplas de vectores (como las bases en un $n$-dimensiones del espacio) como la fila de las matrices con $n$-columnas, y para permitir que estos $n$-tuplas de los vectores que se multiplican en derecho por matrices de escalares tener $n$ filas.

Para cualquier $m$-tupla $U = (u_1, \dots, u_m)$ de los vectores (una fila de la matriz de $m$ vectores) y base $W$ $n$- dimensiones del espacio, definir $U_W$ $n \times m$ (escalar) de la matriz tal que $U = W U_W$ (que en realidad sería algo más lógicamente coherente para escribir ${}_WU$ en lugar de $U_W$, pero la izquierda subíndices son problemáticos tipográficamente). La identificación de $1$-tuplas de vectores con los vectores, si $u$ es un vector también escribiremos $u = W u_W$ donde $u_W$ es una columna de la matriz. Como era de esperar puesto que el $j$-ésima columna de a $U=WU_W$ depende de la $j$-ésima columna de a$U_W$, $j$- ésima columna de a$U_W$${u_j}_W$. Observe también que si $V$ $W$ son bases, $V = W V_W = (V W_V)V_W = V (W_V V_W)$; esto obliga a $W_V$ a ser la inversa de a $V_W$.

Para cualquier $m$-tupla $U = (u_1, \dots, u_m)$ $u_i$ en el dominio de una transformación lineal $T$, vamos a $T(U) = (T(u_1), \dots, T(u_m))$. Si $T$ es una transformación lineal de un espacio con base $V$ a un espacio con base $W$,$T(x) = T(Vx_V) = \text{(by linearity) } T(V)x_V = W T(V)_W x_V$. Por lo $T(V)_W$ es la matriz ${}_WT^V$ $T$ con respecto a las bases de $V$$W$. Aviso de ${}_WI^V = I(V)_W = V_W$.

Supongamos $V$ $W$ son las bases de la misma $n$-espacio, y $\phi$ un operador lineal sobre el espacio que. Tenemos $\phi(V) = V\phi(V)_V$ (debido a $\phi(V)$ $n$- tupla). Conectar en ella $WV_W$ para un par de instancias de $V$, obtenemos $\phi(WV_W) = WV_W\phi(V)_V$. Pero por la linealidad $\phi(WV_W) = \phi(W)V_W$. Por lo tanto, $\phi(W)V_W = WV_W\phi(V)_V$. Multiplicando a la derecha, en ambos lados por $(V_W)^{-1}$ da $\phi(W) = W V_W\phi(V)_V {V_W}^{-1}$. Pero sabemos que $\phi(W)$ también es igual a $W \phi(W)_W$. Desde $\phi(W)_W$ está determinada únicamente por esta ecuación, $\phi(W)_W = V_W\phi(V)_V {V_W}^{-1}$. Recordemos que la matriz $V_W$ es la matriz cuyas $j$-ésima columna es ${v_j}_W$ donde $v_j$ $j$- ésimo elemento de la base $V$. Uno puede calcular su inversa directamente o utilizar ese ${V_W}^{-1} = W_V$. Mediante su notación, tenemos $V=(a, a'), W=(b, b'), A = {}_V\phi^V=\phi(V)_V, B = {}_W\phi^W=\phi(W)_W, X = V_W$.

Observe que, dado un estándar (o lo contrario)$E$, uno ha $V = E V_E = W E_W V_E$. Por lo $E_W V_E = V_W$. (Observe que si se hubiera utilizado la izquierda subíndices, en el lado izquierdo de esta ecuación tendríamos ${}_WE {}_EV$, y la cancelación de la $E$'s sugestivamente daría ${}_WV$, como se desee, pero uno no puede hacer eso con derecho subíndices o las matrices de obtener multiplicado en el orden equivocado---precio a pagar por escrito transformaciones lineales de izquierda). Por lo tanto $V_W = {W_E}^{-1} V_E$, y así uno puede fácilmente calcular el $X = V_W$ si uno sabe $W_E$$V_E$. Supongamos que en el caso de que $E = (e_1, e_2)$. Si $a = e_1 a_1 + e_2 a_2$$a' = e_1 a'_2 + e_2 a'_2$,${(V_E)}_{i1} = a_i$${(V_E)}_{i2} = a'_i$. De igual manera, con $W_E$$b, b'$.

i-Ciencias.com

I-Ciencias es una comunidad de estudiantes y amantes de la ciencia en la que puedes resolver tus problemas y dudas.
Puedes consultar las preguntas de otros usuarios, hacer tus propias preguntas o resolver las de los demás.

Powered by:

X