2 votos

Entender un ejemplo en "Álgebra lineal" de Golan

El ejemplo es el siguiente:

enter image description here

Pero no entiendo los detalles del cálculo $\phi_{BB}(\alpha_{v})$ ¿alguien podría explicarme esto, por favor?

La definición de $\phi_{BB}(\alpha_{v})$ se indica a continuación:

enter image description here

EDITAR: Me refiero a cómo afecta la definición de la transformación lineal dada a la matriz.

3voto

Bernard Puntos 34415

Con las ecuaciones de $\alpha_v$ :

Dejemos que $\:w={}^{\mathrm t\mkern-1.5mu}(x, y,z)$ . Las coordenadas de $v\times w$ se obtienen como los cofactores del determinante (a lo largo de la primera fila):

$$\begin{vmatrix} \vec i&\vec j&\vec k \\ a_1&a_2 & a_3 \\ x&y&z \end{vmatrix} \rightsquigarrow \begin{pmatrix} a_2z-a_3y\\a_3x-a_1z \\a_1y-a_2x \end{pmatrix}=\begin{pmatrix} 0&-a_3&a_2\\a_3& 0 &-a_1 \\ -a_2 &a_1&0 \end{pmatrix}\begin{pmatrix} x \\y\\z \end{pmatrix}$$

0 votos

¿y si tenemos 4 $2 \times 2$ matrices ..... Insertaré el enlace de la pregunta en un comentario.

2voto

liammclennan Puntos 3535

Los detalles probablemente vienen en la demostración del Teorema 8.1 (que deberías leer).

Dejemos que $B = (v_1,\dots,v_n)$ y $D = (w_1,\dots,w_k)$ sean las bases dadas. Supongamos que $\alpha\in\operatorname{Hom}(V,W)$ . Para cada $i$ en $1,\dots,n$ existen escalares $\phi_{ij} \in F$ tal que $$ \alpha(v_i) = \phi_{1i}w_1 + \phi_{2i}w_2 + \dots + \phi_{ki} w_k $$ Set $\Phi_{BD}(\alpha)$ para ser el $k\times n$ matriz cuya $(i,j)$ -la quinta entrada es $\phi_{ij}$ .

Ahora llegamos a la sugerencia de angryavian. Aquí $V = W = \mathbb{R}^3$ y $B = D = (e_1,e_2,e_3)$ . Además, $\alpha(w) = v \times w$ para un fijo $v = \begin{bmatrix} a_1 \\ a_2 \\ a_3 \end{bmatrix}$ . Así que hay que encontrar los coeficientes de $\alpha(e_1)$ , $\alpha(e_2)$ y $\alpha(e_3)$ en la base $(e_1,e_2,e_3)$ .

1voto

Mouffette Puntos 205

La primera columna de la matriz es $v \times \begin{bmatrix}1 \\ 0 \\ 0\end{bmatrix}$ la segunda columna es $v \times \begin{bmatrix}0 \\ 1 \\ 0\end{bmatrix}$ , y el tercero es $v \times \begin{bmatrix}0 \\ 0 \\ 1\end{bmatrix}$ .

0 votos

Me refiero a cómo afecta a la matriz la definición de la transformación lineal dada.

1voto

T. Gunn Puntos 1203

Si $B = \{e_1,\dots,e_n\}$ y $D = \{f_1,\dots,f_m\}$ y $T$ es una transformación lineal, entonces $\Phi_{BD}(T)$ se obtiene aplicando $T$ a cada elemento de $B$ y el resultado en términos de $f_1,\dots,f_m$ . Es decir, si

$$ T(e_j) = \sum_{i=1}^m a_{i,j}f_i, $$

entonces el $j$ -en la columna de $\Phi_{BD}(T)$ es

$$ \begin{bmatrix} a_{1,j} \\ a_{2,j} \\ \vdots \\ a_{m,j} \end{bmatrix}. $$

Por ejemplo, $\alpha_v(e_1) = v \times e_1 = [0,a_3,-a_2]^T = 0e_1 + a_3e_2 -a_2e_3$ por lo que la primera columna de $\Phi_{BB}(\alpha_v)$ es $[0,a_3,-a_2]^T$ .

1voto

Theo Bendit Puntos 2468

Parte del problema es que la propuesta 8.1 no es una definición. No dice lo que $\Phi_{BD}$ es, o cómo calcularla. Simplemente afirma la existencia.

Tampoco está especialmente bien planteada como proposición, ya que afirma la existencia de una familia de isomorfismos basados en pares de bases $(B, D)$ sur $V$ y $W$ respectivamente, pero no especifica en qué se diferencian dichos isomorfismos. Si se pudiera encontrar un solo isomorfismo (de los infinitos) entre $\operatorname{Hom}(V, W)$ y $M_{k \times n}(F)$ (llámalo $\phi$ ), dejando entonces que $\Phi_{BD} = \phi$ satisfaría técnicamente la proposición, ¡y constituiría una prueba!

Afortunadamente, sé a qué se refiere la proposición. Hay un mapa muy natural $\Phi_{BD}$ tomando un mapa lineal $\alpha : V \to W$ a un $k \times n$ matriz.

La idea fundamental e intuitiva de este mapa es la de que los mapas lineales están totalmente determinados por su acción sobre una base. Digamos que tienes un mapa lineal $\alpha : V \to W$ y una base $B = (v_1, \ldots, v_n)$ de $V$ . Es decir, cada vector $v \in V$ se puede expresar únicamente como una combinación lineal de los vectores $v_1, \ldots, v_n$ . Si conocemos los valores de $\alpha(v_1), \ldots, \alpha(v_n)$ entonces sabemos esencialmente el valor de $\alpha(v)$ para cualquier $v$ por medio de la linealidad. El proceso consiste en encontrar primero el único $a_1, \ldots, a_n \in F$ tal que $$v = a_1 v_1 + \ldots + a_n v_n.$$ Entonces, usando la linealidad, $$\alpha(v) = \alpha(a_1 v_1 + \ldots + a_n v_n) = a_1 \alpha(v_1) + \ldots + a_n \alpha(v_n).$$

Como ejemplo de este principio en acción, digamos que tienes un mapa lineal $\alpha : \Bbb{R}^2 \to \Bbb{R}^3$ y todo lo que sabías sobre $\alpha$ fue que $\alpha(1, 1) = (2, -1, 1)$ y $\alpha(1, -1) = (0, 0, 4)$ . ¿Cuál sería el valor de $\alpha(2, 4)$ ?

Para resolverlo, primero hay que expresar $$(2, 4) = 3(1, 1) + 1(1, -1)$$ (nótese que esta combinación lineal es única, ya que $((1, 1), (1, -1))$ es una base para $\Bbb{R}^2$ y podríamos haber hecho algo similar para cualquier vector, no sólo $(2, 4)$ ). Entonces, $$\alpha(2, 4) = 3\alpha(1, 1) + 1 \alpha(1, -1) = 3(2, -1, 1) + 1(0, 0, 4) = (6, -3, 7).$$ Este principio también tiene su contrapartida: si se parte de una base $(v_1, \ldots, v_n)$ para $V$ y elegir una lista arbitraria de vectores $(w_1, \ldots, w_n)$ de $W$ (no necesariamente una base), entonces existe una única transformación lineal $\alpha : V \to W$ tal que $\alpha(v_i) = w_i$ . Por lo tanto, ¡ni siquiera es necesario suponer que existe una transformación lineal subyacente! Sólo tienes que asignar los vectores base donde quieras en $W$ , sin restricción, y habrá un mapa lineal (único) que mapee la base de esta manera.

Es decir, si fijamos una base $B = (v_1, \ldots, v_n)$ de $V$ entonces podemos hacer una correspondencia biyectiva entre los mapas lineales de $V$ a $W$ y listas de $n$ vectores en $W$ . El mapa $$\operatorname{Hom}(V, W) \to W^n : \alpha \mapsto (\alpha(v_1), \ldots, \alpha(v_n))$$ es biyectiva. Esto está relacionado con la $\Phi$ mapas, pero todavía hay que dar un paso más.

Ahora, tomemos una base $D = (w_1, \ldots, w_m)$ de $W$ . Es decir, cada vector de $W$ puede escribirse de forma única como una combinación lineal de $w_1, \ldots, w_m$ . Así, tenemos un mapa natural que toma un vector $$w = b_1 w_1 + \ldots + b_n w_n$$ a su vector columna de coordenadas $$[w]_D = \begin{bmatrix} b_1 \\ \vdots \\ b_n \end{bmatrix}.$$ Este mapa es un isomorfismo entre $W$ y $F^m$ ; no perdemos información si elegimos expresar los vectores en $W$ de esta manera.

Por lo tanto, si podemos expresar los mapas lineales $\alpha : V \to W$ como una lista de vectores en $W$ podríamos escribir fácilmente esta lista de vectores en $W$ como una lista de vectores de columnas de coordenadas en $F^m$ . En lugar de pensar en $(\alpha(v_1), \ldots, \alpha(v_n))$ , piense en $$([\alpha(v_1)]_D, \ldots, [\alpha(v_n)]_D).$$ De forma equivalente, esta lista de $n$ Los vectores columna pueden ser considerados como una matriz: $$\left[\begin{array}{c|c|c} & & \\ [\alpha(v_1)]_D & \cdots & [\alpha(v_n)]_D \\ & & \end{array}\right].$$ Esta matriz es $\Phi_{BD}$ ¡! El procedimiento se puede resumir de la siguiente manera:

  1. Calcula $\alpha$ aplicado a cada vector base en $B$ (es decir, calcular $\alpha(v_1), \ldots, \alpha(v_n)$ ), entonces
  2. Calcula el vector columna de coordenadas de cada uno de estos vectores transformados con respecto a la base $D$ (es decir $[\alpha(v_1)]_D, \ldots, [\alpha(v_n)]_D$ ), y por último,
  3. Poner estos vectores columna en una sola matriz.

Tenga en cuenta que el paso 2 suele ser el más largo. Para cada $\alpha(v_i)$ , es necesario encontrar (de alguna manera) los escalares $b_{i1}, \ldots, b_{im}$ tal que $$\alpha(v_i) = b_{i1} w_1 + \ldots + b_{im} w_m$$ donde $D = (w_1, \ldots, w_m)$ es la base de $W$ . La forma de resolverlo dependerá de lo que $W$ consiste en (por ejemplo $k$ -partidas de números reales, polinomios, matrices, funciones, etc), pero casi siempre se reducirá a resolver un sistema de ecuaciones lineales en el campo $F$ .

En cuanto a por qué representamos los mapas lineales de esta manera, creo que es mejor que leas más en tu libro de texto. Esencialmente se reduce al hecho de que, dado cualquier $v \in V$ , $$[\alpha(v)]_D = \Phi_{BD}(\alpha) \cdot [v]_B,$$ que reduce el proceso (potencialmente complejo) de aplicar una transformación lineal abstracta sobre un vector abstracto $v \in V$ hasta la simple multiplicación de matrices en $F$ . Esto lo discuto (con una notación diferente) en esta respuesta pero le sugiero que revise su libro primero. También, esta respuesta tiene un bonito diagrama, pero de nuevo una notación diferente.


Así que, vamos a entrar en tu ejemplo. En este caso, $B = D = ((1, 0, 0), (0, 1, 0), (0, 0, 1))$ Una base para $V = W = \Bbb{R}^3$ . Tenemos un vector fijo $w = (w_1, w_2, w_3)$ (que es $v$ en la pregunta, pero he optado por cambiarla por $w$ y mantener $v$ como nuestra variable ficticia). Nuestro mapa lineal es $\alpha_w : \Bbb{R}^3 \to \Bbb{R}^3$ tal que $\alpha_w(v) = w \times v$ . Sigamos los pasos.

En primer lugar, calculamos $\alpha_w(1, 0, 0), \alpha_w(0, 1, 0), \alpha_w(0, 0, 1)$ : \begin{align*} \alpha_w(1, 0, 0) &= (w_1, w_2, w_3) \times (1, 0, 0) = (0, w_3, -w_2) \\ \alpha_w(0, 1, 0) &= (w_1, w_2, w_3) \times (0, 1, 0) = (-w_3, 0, w_1) \\ \alpha_w(0, 0, 1) &= (w_1, w_2, w_3) \times (0, 0, 1) = (w_2, -w_1, 0). \end{align*}

En segundo lugar, tenemos que escribir estos vectores como vectores columna de coordenadas con respecto a $B$ . Afortunadamente, $B$ es la base estándar; siempre tenemos, para cualquier $v = (a, b, c) \in \Bbb{R}^3$ , $$(a, b, c) = a(1, 0, 0) + b(0, 1, 0) + c(0, 0, 1) \implies [(a, b, c)]_B = \begin{bmatrix} a \\ b \\ c\end{bmatrix}.$$ En otras palabras, esencialmente sólo transponemos estos vectores a columnas, dándonos, $$\begin{bmatrix} 0 \\ w_3 \\ -w_2\end{bmatrix}, \begin{bmatrix} -w_3 \\ 0 \\ w_1\end{bmatrix}, \begin{bmatrix} w_2 \\ -w_1 \\ 0\end{bmatrix}.$$

Último paso: ponerlos en una matriz:

$$\Phi_{BB}(\alpha_w) = \begin{bmatrix} 0 & -w_3 & w_2 \\ w_3 & 0 & -w_1 \\ -w_2 & w_1 & 0 \end{bmatrix}.$$

0 votos

¿y si tenemos 4 $2 \times 2$ matrices cuál será el segundo paso y cuál será la dimensión de $\phi_ (B, B)$ en este caso?

0 votos

@hopefully Bueno, el segundo paso realmente depende de los elementos del codominio $W$ no tanto las dimensiones de $V$ y $W$ . Realmente viene del hecho de que $D$ es una base para $W$ ; para que esto sea cierto, debe haber una prueba de que $D$ abarca $W$ y en esa prueba deben estar las instrucciones de cómo expresar $\alpha(v_1), \ldots, \alpha(v_n)$ como combinaciones lineales en términos de $D$ . Pero, los detalles de esta prueba dependerán del espacio vectorial específico (y quizás, de la base también). Realmente no puedo decir nada más específico sin un problema específico.

1 votos

@hopefully Ahora que he visto (y contestado) tu última pregunta, creo que entiendo lo que quieres decir.

i-Ciencias.com

I-Ciencias es una comunidad de estudiantes y amantes de la ciencia en la que puedes resolver tus problemas y dudas.
Puedes consultar las preguntas de otros usuarios, hacer tus propias preguntas o resolver las de los demás.

Powered by:

X