7 votos

Correspondencia entre transformaciones lineales y matrices

EDIT: he valor de todas las respuestas que me han dado en esta cuestión, y sobre la lectura y el pensamiento acerca de la pregunta por algún tiempo, he llegado con mi propia respuesta y la explicación para esta pregunta. He escrito esto y lo presentó como una respuesta aquí, para que la gente pueda leer y que, con suerte, hágamelo saber si mi comprensión actual es totalmente correcta y útil. Y además si es incorrecto yo aprecio mucho las correcciones y enmiendas a mi respuesta. Gracias.


Estoy un poco confundido acerca de la representación de transformaciones lineales como matrices, voy a tratar de explicar mi confusión aquí, y espero que alguien pueda aclarar.

Nota: Deje $V$ $V'$ ser finito dimensionales espacios vectoriales sobre un campo arbitrario $F$ tal que $\operatorname{dim}(V) = n$ y $\operatorname{dim}(V') = m$, $V$ tiene base $B$, e $V'$ base $B'$.

Ahora queremos crear un isomorfismo:

$f: \operatorname{Hom}(V,V') \rightarrow M_{m\times n}(F)$

De acuerdo a notas mapa $$ h \mapsto [h]^{B'}_{B} = [P^{-1}_{B'}hP_{B}] = \left( \begin{array}{cc} P^{-1}_{B'}\circ h\circ P_B \begin{pmatrix} 1\\ 0 \\ \vdots \\ 0\end{pmatrix} &\cdots &P^{-1}_{B'}\circ h\circ P_B\begin{pmatrix} 0\\ 0 \\ \vdots\\ 1\end{pmatrix} \end{array} \right)$$

Donde $P_B : F^n \rightarrow V$ está definido por $$\begin{pmatrix} a_1 \\ \vdots \\ a_n \end{pmatrix} \mapsto a_1v_1 + ... + a_nv_n$$

Ahora, estoy un poco confundida en cuanto a donde esta asignación de vino, y además estoy confundido en cuanto a exactamente lo que la matriz somos asignación de $h$ a, y por qué es este tipo de matriz se denomina matriz de $h$ con respecto al $B$ y $B'$ ($[h]^{B'}_{B}$).

Pido disculpas si la pregunta no es muy clara, y gracias de antemano por las respuestas.

4voto

toohool Puntos 549

A veces siento que para entender realmente algo que usted debe ser capaz de explicar, o de enseñar, que es la razón por la que he puesto el pensamiento en la elaboración de una respuesta a mi propia pregunta. He considerado todas las respuestas (y se selecciona uno como mejor pronto), y he llegado a mi propia explicación de donde la matriz viene, cómo hacemos, y de cómo actúa. Esta explicación de la siguiente manera.

EDIT: NOTA: me doy cuenta de que después de leer esto que en esta respuesta que me he definido la función $P_B$ ligeramente diferente y el resultado es que el $[T]_B^{B'}$ aparece un poco diferente estéticamente de cómo se hizo en la pregunta original.

EDIT: he deshecho esta respuesta el caso es útil a alguien más, pero voy a aceptar alguna de las otras respuestas. Gracias a todos por su ayuda


Deje $T: V\rightarrow W$ ser una transformación lineal, y supongamos que

$V$ base $B = \{v_1, ..., v_n\}$

$W$ base $B' = \{w_1, ..., w_m\}$

Tenemos un isomorfismo (I):
$$P_B : V\rightarrow F^n$$ $$v = \sum\limits_{i=1}^na_iv_i\mapsto (a_1, a_2, ..., a_n)$$

Prueba. Primero nos muestran que este es un homomorphism. Deje $v = \sum\limits_{i=1}^{n}a_iv_i$$w = \sum\limits_{i=1}^nb_iv_i$$f(v + w) = (a_1 + b_1, ..., a_n + b_n)$$f(v) + f(w) = (a_1, a_2, ..., a_n) + (b_1, b_2, ..., b_n) = (a_1 + b_1, ..., a_n + b_n)$$f(v + w) = f(v) + f(w)$$f(cv) = (cv_1, ..., cv_2) = c(v_1, ..., v_2) = cf(v)$. Ahora sabemos que este es un homomorphism, por lo que debemos demostrar que es un bijection. En primer lugar mostramos que es uno-a-uno. Supongamos $f(w) = f(v)$ donde $v$ $w$ están como estaban antes. A continuación,$f(v) - f(w) = f(v-w) = 0$. Por lo tanto $(a_1 - b_1, ..., a_n - b_n) = (0, 0, ..., 0)$, lo que implica que $a_1 = b_1, ..., a_n = b_n$, y por lo tanto $v = w$. A continuación se muestra que el mapa es sobre. Considere la posibilidad de $x\in F^{n} = (r_1, ..., r_n)$. Pero desde $\{v_1, ..., v_n\}$ abarca $V$ podemos escribir $f(\sum\limits_{i=1}^nr_iv_i) = (r_1, ..., r_n)$, por lo que el mapa es sobre. $\Box$

Igualmente tenemos el isomorfismo (II):

$$P_{B'} : W\rightarrow F^m$$

$$w = \sum\limits_{i=1}^mb_iw_i\mapsto (b_1, b_2, ..., b_n) $$

Por lo tanto, parece que una vez que elegimos bases, $B$$B'$, todos los vectores $v\in V$ tiene una representación única en $F^n$ y todos los vectores $w\in W$ tiene una representación única en $F^m$.

Así que nos preguntamos, ¿cómo podemos representar a $T: V\rightarrow W$ en términos de un mapa de $F^n \rightarrow F^m$?

Dicho de otra manera, podemos encontrar una asignación que satisface el siguiente diagrama:

$$F^n \rightarrow V \xrightarrow{T} W\rightarrow F^m?$$

El uso de isomorphisms (I) y (II) podemos armar una asignación de $F^n\rightarrow F^m$ que es equivalente a $T: V\rightarrow W$:

$$P_B^{-1} : F^n\rightarrow V$$ $$T: V\rightarrow W$$ $$P_{B'} : W \rightarrow F^m$$

Por lo tanto, hemos encontrado el equivalente a la transformación de $F^n\rightarrow F^m$ que estábamos buscando:

$$P_{B'}\circ T\circ P_B^{-1} : F^n \rightarrow F^m$$

Por último tenemos el isomorfismo (III):

$$\{\text{Linear Transformations } F^n\rightarrow F^m\}\rightarrow M_{m\times n}(F)$$

$$T\mapsto [T] =\left(\begin{smallmatrix} T\left(\begin{smallmatrix} 1\\ 0 \\ . \\ . \\ . \\ 0\end{smallmatrix}\right) & T\left(\begin{smallmatrix} 0\\ 1 \\ . \\ . \\ . \\ 0\end{smallmatrix}\right) & ... & T\left(\begin{smallmatrix} 0\\ 0 \\ . \\ . \\ . \\ 1\end{smallmatrix}\right)\end{smallmatrix}\right)$$

Prueba. Primero nos muestran que este es un homomorphism.

$$[c_1f_1 + c_2f_2] $$

$$= \left(\begin{smallmatrix} c_1f_1\left(\begin{smallmatrix} 1\\ 0 \\ . \\ . \\ . \\ 0\end{smallmatrix}\right) + c_2f_2\left(\begin{smallmatrix} 1\\ 0 \\ . \\ . \\ . \\ 0\end{smallmatrix}\right) & c_1f_1\left(\begin{smallmatrix} 0\\ 1 \\ . \\ . \\ . \\ 0\end{smallmatrix}\right) + c_2f_2\left(\begin{smallmatrix} 0\\ 1 \\ . \\ . \\ . \\ 0\end{smallmatrix}\right)& ... &c_1f_1\left(\begin{smallmatrix} 0\\ 0 \\ . \\ . \\ . \\ 1\end{smallmatrix}\right) + c_2f_2\left(\begin{smallmatrix} 0\\ 0 \\ . \\ . \\ . \\ 1\end{smallmatrix}\right)\end{smallmatrix}\right)$$

$$= \left(\begin{smallmatrix} c_1f_1\left(\begin{smallmatrix} 1\\ 0 \\ . \\ . \\ . \\ 0\end{smallmatrix}\right) & c_1f_1\left(\begin{smallmatrix} 0\\ 1 \\ . \\ . \\ . \\ 0\end{smallmatrix}\right) & ... & c_1f_1\left(\begin{smallmatrix} 0\\ 0 \\ . \\ . \\ . \\ 1\end{smallmatrix}\right)\end{smallmatrix}\right) + \left(\begin{smallmatrix} c_2f_2\left(\begin{smallmatrix} 1\\ 0 \\ . \\ . \\ . \\ 0\end{smallmatrix}\right) & c_2f_2\left(\begin{smallmatrix} 0\\ 1 \\ . \\ . \\ . \\ 0\end{smallmatrix}\right) & ... &c_2f_2\left(\begin{smallmatrix} 0\\ 0 \\ . \\ . \\ . \\ 1\end{smallmatrix}\right)\end{smallmatrix}\right)$$

$$= c_1\left(\begin{smallmatrix} f_1\left(\begin{smallmatrix} 1\\ 0 \\ . \\ . \\ . \\ 0\end{smallmatrix}\right) & f_1\left(\begin{smallmatrix} 0\\ 1 \\ . \\ . \\ . \\ 0\end{smallmatrix}\right) & ... &f_1\left(\begin{smallmatrix} 0\\ 0 \\ . \\ . \\ . \\ 1\end{smallmatrix}\right)\end{smallmatrix}\right) + c_2\left(\begin{smallmatrix} f_2\left(\begin{smallmatrix} 1\\ 0 \\ . \\ . \\ . \\ 0\end{smallmatrix}\right) & f_2\left(\begin{smallmatrix} 0\\ 1 \\ . \\ . \\ . \\ 0\end{smallmatrix}\right) & ... &f_2\left(\begin{smallmatrix} 0\\ 0 \\ . \\ . \\ . \\ 1\end{smallmatrix}\right)\end{smallmatrix}\right)$$

$$= c_1[f_1] + c_2[f_2]$$

Ahora nos muestran que esto es en. Considere la posibilidad de una matriz arbitraria $A$. Desde una transformación lineal está totalmente determinado por su acción sobre los vectores de la base, podemos definir una transformación lineal que da $A$, y por lo tanto la función es sobre. A continuación se muestra que el mapa es uno-a-uno. Supongamos $S(f) = S(g)$. A continuación,$\left(\begin{smallmatrix} f\left(\begin{smallmatrix} 1\\ 0 \\ . \\ . \\ . \\ 0\end{smallmatrix}\right) & f\left(\begin{smallmatrix} 0\\ 1 \\ . \\ . \\ . \\ 0\end{smallmatrix}\right) & ... &f\left(\begin{smallmatrix} 0\\ 0 \\ . \\ . \\ . \\ 1\end{smallmatrix}\right)\end{smallmatrix}\right) = \left(\begin{smallmatrix} g\left(\begin{smallmatrix} 1\\ 0 \\ . \\ . \\ . \\ 0\end{smallmatrix}\right) & g\left(\begin{smallmatrix} 0\\ 1 \\ . \\ . \\ . \\ 0\end{smallmatrix}\right) & ... &g\left(\begin{smallmatrix} 0\\ 0 \\ . \\ . \\ . \\ 1\end{smallmatrix}\right)\end{smallmatrix}\right)$, sin embargo, ya que de nuevo una transformación lineal está totalmente determinado por la forma en que actúa sobre la base de vectores, estas dos funciones deben ser equivalentes, y por lo tanto $f = g$. $\Box$

Por lo tanto, sabemos que podemos escribir una transformación lineal $F^n \rightarrow F^m$ $m\times n$ matriz

Esto nos indica que podemos escribir nuestra transformación $T:V\rightarrow W$ $m\times n$ matriz. O, más precisamente, podemos escribir $P_{B'}\circ T\circ P_B^{-1} : F^n \rightarrow F^m$ equivalentemente como:

$[T]_{B}^{B'} = [P_{B'}\circ T\circ P_B^{-1}] = \left(\begin{smallmatrix} P_{B'}\circ T\circ P_B^{-1}\left(\begin{smallmatrix} 1\\ 0 \\ . \\ . \\ . \\ 0\end{smallmatrix}\right) & P_{B'}\circ T\circ P_B^{-1}\left(\begin{smallmatrix} 0\\ 1 \\ . \\ . \\ . \\ 0\end{smallmatrix}\right) & ... & P_{B'}\circ T\circ P_B^{-1}\left(\begin{smallmatrix} 0\\ 0 \\ . \\ . \\ . \\ 1\end{smallmatrix}\right)\end{smallmatrix}\right)$

Por lo tanto, una vez que elige bases, podemos crear un isomorfismo (IV)

$$H: \operatorname{Hom}(V,W) = \{\text{Linear transformations } V\rightarrow W\}\rightarrow M_{m\times n}(F)$$

$$T\mapsto [T]_{B}^{B'}$$

Y, por lo tanto, después de la elección de las bases, podemos escribir cualquier transformación lineal con matriz.

3voto

DiGi Puntos 1925

El mapa de $P_B$ conversos $\left(\begin{matrix}a_1\\\vdots\\a_n\end{matrix}\right)\in F^n$ a la correspondiente combinación lineal de los vectores de la base en $B$, es decir, $a_1v_1+\dots+a_nx_n$; su inversa convierte cada vector en $V$ $n$- tupla de coeficientes necesarios para escribir como una combinación lineal de las $B$-vectores de la base. El mapa de $P_{B'}$ hace lo mismo entre el$F^m$$V'$: convierte una $m$-tupla de coefficents en la correspondiente combinación lineal de los vectores en $B'$, y su inversa convierte cada vector en $V'$ $m$- tupla de coeficientes en su representación única como una combinación lineal de las $B'$-vectores.

La operación de $[H]_B^{B'}$ en un miembro de $F^n$ es entonces de la siguiente manera. Primero se aplica $P_B$, la conversión de la $n$-tupla a un elemento real de $V$. A continuación, aplica la transformación lineal $h$ para obtener un vector en $V'$. Y por último, se aplica $P_{B'}^{-1}$ a convertir en el $m$-tupla en $F^m$ que representa con respecto a la base $B'$.

Para ver cómo el funcionamiento de $h$ mismo se incorpora en la matriz, considere el caso especial en el que $V=\mathbb{R}^n$, $V'=\mathbb{R}^m$, y $B$ $B'$ son las bases estándar. A continuación, $H$ es simplemente la matriz $[\begin{matrix}h(e_1)&h(e_2)&\dots&h(e_n)\end{matrix}]$. Cuando se forma un producto $$[\begin{matrix}h(e_1)&h(e_2)&\dots&h(e_n)\end{matrix}]\left[\begin{matrix}a_1\\a_2\\\vdots\\a_n\end{matrix}\right],$$ you get $a_ah(e_1)+\dots+a_nh(e_n) = h(a_1v_1+\dots+a_nv_n)$, exactamente como usted desea.

2voto

Bitbang3r Puntos 193

La cosa es que queremos una matriz tal que el siguiente cálculo, sostiene $$(\text{Column vector of the coordinates of the image in the basis B'})=$$ $$=[h_B^{B'}](\text{Column vector of the coordinates of the element of V in the basis B})$$ El punto hecho es que las columnas de la matriz representan las coordenadas de las imágenes de cada uno de los elementos de la base $B$ en base a la $B'$. Dado $$x=\sum x^iv_i$$ en las coordenadas de la base $B=\{v_i\}$, por la linealidad que $$h(x)=\sum x^ih(v_i)$$ lo que explica por qué la notación de matriz obras.

Para resumir, la cosa es que la matriz de toma de coordenadas en una base del dominio de espacio vectorial y devuelve las coordenadas de la imagen en una base del codominio espacio vectorial, ya que coordina los cambios si nos cambia la base, es importante ver que las matrices son dependientes, sobre la base de que elegimos -muchos de álgebra lineal es la búsqueda de una buena base para una agradable forma de la matriz en la que la base (véase el Jordán triangularization)-.

1voto

fretty Puntos 7351

Ok, así que vamos a echar un vistazo a lo lineal en el mapa a un vector arbitrario en $W$.

$T(b_1 w_1 + b_2 w_2 + ... + b_n w_n) = b_1 T(w_1) + ... + b_n T(w_n)$

Ahora cada una de las $T(w_i)$ se encuentra en $V$, por lo que es expresable en términos de la base de $V$.

Por tanto, para cada $i$ $1$ $n$ tenemos:

$T(w_i) = a_{i,1} v_1 + a_{i,2} v_2 ... + a_{i,m} v_m$

Conectar estas en el de arriba te da:

$T(b_1 w_1 + b_2 w_2 + ... + b_n w_n) = \left(\sum_{j=1}^n\sum_{i=1}^m a_{i,j} b_j\right) v_i$

Se puede ver desde el lado derecho que los componentes del vector correspondiente en $V$ acaba de llegar de una multiplicación de la matriz de la matriz $A = (a_{i,j})$ por el vector $b = (b_1, ..., b_n)^T$

i-Ciencias.com

I-Ciencias es una comunidad de estudiantes y amantes de la ciencia en la que puedes resolver tus problemas y dudas.
Puedes consultar las preguntas de otros usuarios, hacer tus propias preguntas o resolver las de los demás.

Powered by:

X