30 votos

¿Por qué los tensores son una generalización de los escalares, vectores y matrices?

Tomemos dos espacios vectoriales $V$ y $W$ sobre un campo $F$ . Se puede formar el producto tensorial $V\otimes W$ y cumple una propiedad universal. Los elementos de $V\otimes W$ se llaman tensores y son combinaciones lineales de tensores elementales $v\otimes w$ los tensores elementales generan $V\otimes W$ .

La gente de la física piensa en un tensor como una generalización de escalares, vectores y matrices, creo y los he visto tensando matrices con matrices como entradas con matrices y así sucesivamente.

¿Qué significa esto y qué tiene que ver con la definición anterior? ¿Qué es un tensor?

41voto

KConrad Puntos 22631

He oído decir que los productos tensoriales son lo más difícil de las matemáticas. Por supuesto, eso no es cierto, pero ciertamente la comprensión fluida de cómo trabajar con productos tensoriales es una de las líneas divisorias en tu educación de las matemáticas básicas a las avanzadas.

Aclaración: Lo que voy a discutir aquí son productos tensoriales en el sentido del álgebra lineal, así que sólo productos tensoriales de espacios vectoriales individuales en lugar de campos tensoriales (que es lo que los físicos entienden por producto tensorial).

Durante mucho tiempo no pude entender cómo los físicos podían trabajar con tensores pensando en ellos como "cantidades que se transforman de una determinada manera bajo un cambio de coordenadas". La única forma en que pude llegar a un acuerdo con ellos es mediante su caracterización como algo que satisface una propiedad de mapeo universal. No piense en qué tensores (elementos de un espacio de producto tensorial) sino lo que puede hacer por ti toda la construcción de un espacio de producto tensorial. Es algo parecido a los grupos cocientes (pero más difícil), ya que si centras toda tu energía en tratar de entender los cosets, pierdes el sentido de los grupos cocientes. Lo que hace que los espacios de producto tensorial sean más difíciles de entender que los grupos cocientes es que la mayoría de los elementos de un espacio de producto tensorial no son elementales tensores $v \otimes w$ pero sólo suman estas cosas.

El objetivo (matemático) de los productos tensoriales de los espacios vectoriales es linealizar los mapas bilineales. Un mapa bilineal es una función $V \times W \rightarrow U$ entre $F$ -espacios vectoriales $V, W$ y $U$ que es lineal en cada coordenada cuando la otra se mantiene fija. Hay montones de mapas bilineales en matemáticas, y si podemos convertirlos en mapas lineales entonces podemos utilizar construcciones relacionadas con mapas lineales sobre ellos. El producto tensorial $V \otimes_F W$ de dos $F$ -Los espacios vectoriales proporcionan el espacio más extremo, por así decirlo, que es un dominio para la linealización de todo mapas bilineales de $V \times W$ en todo espacios vectoriales (sobre $F$ ). Es un espacio vectorial particular juntos con un mapa bilineal particular $V \times W \rightarrow V \otimes_F W$ tal que cualquier mapa bilineal fuera de $V \times W$ en cualquier espacio vectorial naturalmente (!) se convierte en un mapa lineal fuera de este nuevo espacio $V \otimes_F W$ . Algunos apuntes que escribí sobre productos tensoriales para un curso de álgebra están en http://www.math.uconn.edu/~kconrad/blurbs/linmultialg/tensorprod.pdf y en él abordo cuestiones como "qué hace $v \otimes w$ y "¿qué significa decir $$ v_1 \otimes w_1 + \cdots + v_k \otimes w_k = v_1' \otimes w_1' + \cdots + v_k' \otimes w_k'?" $$ Desde el principio permito productos tensoriales de módulos sobre un anillo, no sólo espacios vectoriales sobre un campo. Hay algunos aspectos de los productos tensoriales que aparecen en el contexto más amplio de los módulos y que no aparecen en los espacios vectoriales (sobre todo porque los módulos no necesitan tener bases). Por lo tanto, es posible que desee omitir, por ejemplo, los productos tensoriales que implican ${\mathbf Z}/m{\mathbf Z}$ en $\mathbf Z$ en una primera pasada si no conoce los módulos.

En cuanto a la cuestión de cómo los productos tensoriales generalizan los escalares, los espacios vectoriales y las matrices, esto viene de los isomorfismos naturales (!) $$ F \otimes_F F \cong F, \ \ \ F \otimes_F V \cong V, \ \ V \otimes_F V^* \cong {\rm Hom}_F(V,V). $$ En el lado izquierdo de cada isomorfismo hay un producto tensorial de $F$ -vectoriales, y en el lado derecho están los espacios de escalares, vectores y matrices. En el enlace que escribí arriba, ver los teoremas 4.3, 4.5 y 5.9. También puedes tensorizar dos matrices como ejemplo particular en un producto tensorial de dos espacios de mapas lineales. Los espacios de mapas lineales son espacios vectoriales (con alguna estructura extra), por lo que admiten productos tensoriales también (con algunas características extra).

Volviendo a la definición de los físicos de los tensores como cantidades que se transforman por una regla, lo que siempre olvidan decir es "se transforman por una regla multilineal". Discuto la transición entre productos tensoriales desde el punto de vista de los matemáticos y los físicos en la sección 6 de un segundo conjunto de notas en http://www.math.uconn.edu/~kconrad/blurbs/linmultialg/tensorprod2.pdf .

17voto

Steven Murawski Puntos 6665

Suponga que tiene un par de elementos en espacios vectoriales, $v\in V$ y $w\in W$ . Ahora supongamos que en algún momento futuro vas a calcular $f(v,w)$ donde $f$ es una función bilineal. Por ejemplo, cuando $V=W=\mathbb{R}^3$ , $f$ puede ser el conocido producto punto o cruz. Pero podría ser algo totalmente distinto. De hecho, supongamos que no sabemos de antemano qué $f$ va a ser.

El producto tensorial responde precisamente a la pregunta "¿qué información necesito sobre $v$ y $w$ para poder calcular $f(v,w)$ en algún momento futuro, lo que sea $f$ resulta ser?" Podrías decir "sabiendo $v$ y $w$ es suficiente información". Pero eso es más información de la que necesitas. $v\otimes w$ contiene menos información que $(v,w)$ y en realidad contiene la menor información que se puede obtener, y aún así ser capaz de calcular $f(v,w)$ para cualquier bilineal $f$ .

No sé si esto te servirá de ayuda, pero cuando me di cuenta de esto todo se aclaró de repente. En realidad es sólo una reafirmación de la propiedad universal.

11voto

John Duff Puntos 7602

Hay una noción de multiplicación de tensores, porque los tensores físicos vienen en sabor covariante, contravariante y mixto. Y el tensor covariante r y contravariante s es, matemáticamente hablando, un elemento de $V^{\otimes r}\otimes (V^\ast)^{\otimes s}$ (o quizás al revés).

Una matriz es un tensor mixto (1,1) si se interpreta como un mapa lineal, es decir, un elemento de $V\otimes V^\ast$ . Una matriz es un tensor puro (0,2) si se interpreta como una bilineal. Esto da lugar a un elemento de $V^\ast \otimes V^\ast$ .

Hay dos tipos de multiplicación de tensores: El tensorproducto propiamente dicho tomando un tensor (r,s) y un tensor (r',s') y devolviendo un tensor (r+r',s+s'). Pero si se quiere multiplicar un tensor (r,s) y un tensor (s,t), hay otra forma: aplicando la forma lineal del $V^\ast$ -partes del primer tensor a los vectores del $V$ -partes en el segundo tensor. Para las matrices (=(1,1)-tensores) esto es $(v\otimes \alpha)\circ (w\otimes \beta) := v\otimes (\alpha(w)\cdot \beta)=\alpha(w)\cdot (v\otimes \beta)$ . Esta segunda multiplicación es una generalización de la multiplicación matricial a los tensores.

10voto

Vetle Puntos 413

Me gustaría tomar prestado un poco de varias de las respuestas dadas hasta ahora para dar una perspectiva "práctica". Dejemos que $V$ ser un $\mathbb{R}$ -espacio vectorial. Un tensor de tipo $(m, n)$ es un elemento de $V^{\otimes m} \otimes (V^{*})^{\otimes n}$ lo que se traduce en una pequeña $m, n$ en lo siguiente:

  • Un escalar es un tensor de tipo $(0, 0)$ ,
  • Un vector (en el sentido estricto de un elemento de $V$ ) es un tensor de tipo $(1, 0)$ ,
  • Un covector es un tensor de tipo $(0, 1)$ ,
  • Una forma bilineal es un tensor de tipo $(0, 2)$ y
  • Una matriz es un tensor de tipo $(1, 1)$ .

Ahora bien, ¿por qué nos interesan los tensores de orden superior? Pues bien, dejemos que $f : V \to \mathbb{R}$ sea una función suficientemente agradable. Entonces tiene una expansión de Taylor

$$f(v) = f(0) + v^T \nabla f(0) + v^T H(0) v + ...$$

donde el primer término es un tensor de tipo $(0, 0)$ el segundo es un tensor de tipo $(0, 1)$ descrito por el gradiente, y el tercero es un ( simétrico ) de tipo $(0, 2)$ descrito por el Hessian. Todo esto es material de cálculo estándar. Pero, ¿cómo continúa la expansión de Taylor?

Resulta que los siguientes términos están descritos por tensores (simétricos) del tipo $(0, 3)$ , tipo $(0, 4)$ ...etc. Así que este es un sentido en el que los tensores generalizan de forma natural los objetos vectoriales y matriciales conocidos (el gradiente y el hessiano).

7voto

Scott Carter Puntos 3972

Si se piensa en términos de bases, entonces la base del producto tensorial es $\{e_i \otimes e_j\}$ . Puede pensar en esto como un $n\times m$ con exactamente una entrada no nula (1) en la posición (i,j). El producto tensorial de $V$ y $W$ entonces es isomorfo al espacio de $n\times m$ matrices. Mientras tanto, el producto tensorial de los mapas lineales puede considerarse como una matriz de índices con cuatro índices, es decir, como una matriz hipercúbica.

Apenas hay ventajas en intentar multiplicar matrices hipercúbicas a lo largo de aristas, caras, cubos, etc. Así que una forma muy eficiente de hacerlo es empezar a pensar en las cosas como "tensores abstractos". Se trata de cajas con cuerdas que emanan de la parte superior e inferior. Son los nombres de los objetos multiindexados resultantes, como los vectores y las matrices.

Una respuesta alternativa puede en como yo estaba escribiendo esto ...

i-Ciencias.com

I-Ciencias es una comunidad de estudiantes y amantes de la ciencia en la que puedes resolver tus problemas y dudas.
Puedes consultar las preguntas de otros usuarios, hacer tus propias preguntas o resolver las de los demás.

Powered by:

X