Para entender álgebra lineal y así obtener elegante notación, es útil para escribir escalares a la derecha (cuando se multiplican los vectores), al menos cuando la escritura de funciones y transformaciones a la izquierda de sus argumentos (y componer de forma estándar, de derecha a izquierda). Al hacerlo, es útil pensar en las $n$-tuplas de vectores (como las bases en un $n$-dimensiones del espacio) como la fila de las matrices con $n$-columnas, y para permitir que estos $n$-tuplas de los vectores que se multiplican en derecho por matrices de escalares tener $n$ filas.
Para cualquier $m$-tupla $U = (u_1, \dots, u_m)$ de los vectores (una fila de la matriz de $m$ vectores) y base $W$ $n$- dimensiones del espacio, definir $U_W$ $n \times m$ (escalar) de la matriz tal que $U = W U_W$ (que en realidad sería algo más lógicamente coherente para escribir ${}_WU$ en lugar de $U_W$, pero la izquierda subíndices son problemáticos tipográficamente). La identificación de $1$-tuplas de vectores con los vectores, si $u$ es un vector también escribiremos $u = W u_W$ donde $u_W$ es una columna de la matriz. Como era de esperar puesto que el $j$-ésima columna de a $U=WU_W$ depende de la $j$-ésima columna de a$U_W$, $j$- ésima columna de a$U_W$${u_j}_W$. Observe también que si $V$ $W$ son bases, $V = W V_W = (V W_V)V_W = V (W_V V_W)$; esto obliga a $W_V$ a ser la inversa de a $V_W$.
Para cualquier $m$-tupla $U = (u_1, \dots, u_m)$ $u_i$ en el dominio de una transformación lineal $T$, vamos a $T(U) = (T(u_1), \dots, T(u_m))$. Si $T$ es una transformación lineal de un espacio con base $V$ a un espacio con base $W$,$T(x) = T(Vx_V) = \text{(by linearity) } T(V)x_V = W T(V)_W x_V$. Por lo $T(V)_W$ es la matriz ${}_WT^V$ $T$ con respecto a las bases de $V$$W$. Aviso de ${}_WI^V = I(V)_W = V_W$.
Supongamos $V$ $W$ son las bases de la misma $n$-espacio, y $\phi$ un operador lineal sobre el espacio que. Tenemos $\phi(V) = V\phi(V)_V$ (debido a $\phi(V)$ $n$- tupla). Conectar en ella $WV_W$ para un par de instancias de $V$, obtenemos $\phi(WV_W) = WV_W\phi(V)_V$. Pero por la linealidad $\phi(WV_W) = \phi(W)V_W$. Por lo tanto, $\phi(W)V_W = WV_W\phi(V)_V$. Multiplicando a la derecha, en ambos lados por $(V_W)^{-1}$ da $\phi(W) = W V_W\phi(V)_V {V_W}^{-1}$. Pero sabemos que $\phi(W)$ también es igual a $W \phi(W)_W$. Desde $\phi(W)_W$ está determinada únicamente por esta ecuación, $\phi(W)_W = V_W\phi(V)_V {V_W}^{-1}$. Recordemos que la matriz $V_W$ es la matriz cuyas $j$-ésima columna es ${v_j}_W$ donde $v_j$ $j$- ésimo elemento de la base $V$. Uno puede calcular su inversa directamente o utilizar ese ${V_W}^{-1} = W_V$. Mediante su notación, tenemos $V=(a, a'), W=(b, b'), A = {}_V\phi^V=\phi(V)_V, B = {}_W\phi^W=\phi(W)_W, X = V_W$.
Observe que, dado un estándar (o lo contrario)$E$, uno ha $V = E V_E = W E_W V_E$. Por lo $E_W V_E = V_W$. (Observe que si se hubiera utilizado la izquierda subíndices, en el lado izquierdo de esta ecuación tendríamos ${}_WE {}_EV$, y la cancelación de la $E$'s sugestivamente daría ${}_WV$, como se desee, pero uno no puede hacer eso con derecho subíndices o las matrices de obtener multiplicado en el orden equivocado---precio a pagar por escrito transformaciones lineales de izquierda). Por lo tanto $V_W = {W_E}^{-1} V_E$, y así uno puede fácilmente calcular el $X = V_W$ si uno sabe $W_E$$V_E$. Supongamos que en el caso de que $E = (e_1, e_2)$. Si $a = e_1 a_1 + e_2 a_2$$a' = e_1 a'_2 + e_2 a'_2$,${(V_E)}_{i1} = a_i$${(V_E)}_{i2} = a'_i$. De igual manera, con $W_E$$b, b'$.