7 votos

#implicará:

En Dummit y Foote problema 12 de la sección 10.4, necesito mostrar que si $V$ es algo de espacio vectorial sobre un campo $F$ $v,v'$ son cero los elementos de la $V$, suponiendo que tenemos que $v \otimes v' = v' \otimes v$, entonces esto implica que $v = av'$ algunos $a \in F$. Yo estaba tratando de considerar alguna base $\mathcal{B} = \{e_i\}_{i\in I}$ para el espacio vectorial $V$, muestran que se puede escribir $v$ $v'$ como combinaciones lineales de esta base, los elementos y, a continuación, argumentan que ya tenemos $v \otimes v' = \sum_{i \in I}r_i e_i \otimes \sum_{i\in I} s_i e_i = \sum_{i\in I} s_i e_i \otimes \sum_{i \in I}r_i e_i = v' \otimes v$, entonces si nos fijamos en un elemento particular de la suma en LHS y RHS, es decir,$r_ie_i \otimes s_je_j = s_je_j\otimes r_i e_i$, entonces podemos enviar el $r_i$ al otro lado o hacer algún tipo de manipulación de ese tipo y obtener el resultado deseado.

Sé que este argumento no es riguroso en todos, así que estoy teniendo un tiempo difícil haciendo más rigurosa (si este es un buen enfoque) o en realidad atacar este problema de manera eficiente. Me preguntaba si este sería el enfoque correcto, como trabajar con la base de los elementos y así sucesivamente, o si hay alguna mejor manera de ver este problema. Tal vez el uso de algunos universal de los bienes para los módulos serían útiles? Cualquier ayuda o sugerencia con este problema es muy apreciada! Muchas gracias!

7voto

Adam Malter Puntos 96

Su enfoque es bueno, pero el último paso es incorrecto: no se puede concluir a partir de la igualdad $$\sum_{i \in I}r_i e_i \otimes \sum_{j\in I} s_j e_j = \sum_{j\in I} s_j e_j \otimes \sum_{i \in I}r_i e_i$$ that the $(i,j)$ term on one side is equal to the $(i,j)$ term on the other side. Instead, if you write the right side as $\sum_{i\in I} s_i e_i \otimes \sum_{j \in I}r_j e_j$, you can conclude the $(i,j)$ terms on each side are equal, since the elements $e_i\otimes e_j$ form a basis for $V\otimes V$, and so the coefficients of $e_i\otimes e_j$ on each side must be the same. This gives $r_is_j=s_ir_j$ for each $(i,j)$.

A partir de aquí se podría argumentar que estas ecuaciones (y la suposición de que $v,v'\neq 0$) implica que hay algo de $a$ tal que $r_i=as_i$ todos los $i$. Sin embargo, hay un truco que puede utilizar para hacer que sea mucho más fácil. Todo lo que hemos hecho es válido para cualquier base, así que vamos a elegir una buena base. En particular, suponiendo que $v$ no es un escalar varios de $v'$ (así que son linealmente independientes), vamos a elegir una base con $e_1=v$$e_2=v'$. Entonces en base a esto tenemos $v\otimes v'=e_1\otimes e_2$$v'\otimes v=e_2\otimes e_1$. Puesto que estos son los distintos elementos de nuestra base de $V\otimes V$, ellos no pueden ser iguales.

2voto

Xetius Puntos 10445

Si uyv no son linealmente dependientes, entonces puede construir una base que los contenga a ambos y, a partir de ahí, una base del producto tensorial. Esa base contiene entonces esos dos tensores elementales que aparecen en su pregunta, y por lo tanto son diferentes.

1voto

Pedro Tamaroff Puntos 73748

Supongo que es bueno remarcar que, en general, si $V$ es una f.d. espacio vectorial y si $n\in\mathbb N$, hay un mapa de $\xi:V^{\otimes n}\to V^{\wedge n}\subseteq V^{\otimes n}$ tal que $$v_1\otimes\cdots\otimes v_n\longmapsto v_1\wedge\cdots \wedge v_n :=\sum(-1)^\sigma v_{\sigma 1}\otimes\cdots\otimes v_{\sigma n}$$

donde la suma se extiende a todas las permutaciones de $n$ elementos y $(-1)^\sigma$ es el signo de $\sigma$. En tu ejemplo, $n=2$ este mapa envía $v\otimes v'$$v\otimes v'-v'\otimes v$.

El antisymmetrization mapa de $\xi$ detecta dependencia lineal, en el sentido de que un conjunto de vectores $\{v_1,\ldots,v_n\}$ es linealmente dependiente si y sólo si $\xi(v_1\otimes \cdots\otimes v_n)$ es cero. De hecho, el desentrañamiento de las definiciones que uno ve que los coeficientes de $e_{i_1}\wedge \cdots \wedge e_{i_n}$ que aparecen a la derecha son las máximas menores de la matriz correspondiente de la $v_i$, y esta matriz es de rango completo si y sólo si los vectores son independientes.

En tu ejemplo, si $v = \sum a_i e_i$$w= \sum b_ie_i$, el coeficiente de $e_i\wedge e_j = e_i\otimes e_j- e_j\otimes e_i$ es el menor $a_ib_j-a_jb_i$ de columnas $i$ $j$ de la matriz $$\begin{pmatrix} a_1 &\cdots & a_n \\ b_1 &\cdots &b_n \end{pmatrix},$$ y esto es igual a cero para todos los $i,j$ si y sólo si $\{v,v'\}$ es linealmente dependiente.

i-Ciencias.com

I-Ciencias es una comunidad de estudiantes y amantes de la ciencia en la que puedes resolver tus problemas y dudas.
Puedes consultar las preguntas de otros usuarios, hacer tus propias preguntas o resolver las de los demás.

Powered by:

X