20 votos

¿Por qué se construye el producto tensorial de esta manera?

Ya he preguntado por la definición de producto tensorial aquí y ahora entiendo los pasos de la construcción. Sólo tengo dudas sobre la motivación para construirlo de esa manera. Bueno, si todo lo que queremos es tener tuplas de vectores que se comporten linealmente en la suma y multiplicación por escalares, ¿no podríamos simplemente tomar todos los espacios vectoriales L1,L2,,LpL1,L2,,Lp forman su producto cartesiano L1×L2××LpL1×L2××Lp y simplemente introducir operaciones análogas a las de Rn ?

Obtendríamos un espacio de tuplas de vectores sobre el que se cumplen todas esas propiedades lineales. ¿Cuál es la razón/motivación para definir el producto tensorial utilizando el espacio vectorial libre y ese cociente para imponer la linealidad? ¿Puede alguien indicarme la motivación de esa definición?

Muchas gracias de antemano.

11 votos

Si sólo querías linealidad, utiliza la suma directa. Pero si quiere multilinealidad (lo que significa linealidad en cada componente mientras todos los demás componentes son fijo ) definitivamente no puedes usar la suma directa: la suma no es multilineal. La multiplicación es multilineal, y eso es lo que el producto tensorial está diseñado para imitar. Convierte los mapas multilineales (asegúrate de saber lo que significa ese término) en mapas lineales.

1 votos

Hay votaciones de reapertura ¿por qué? Esto me parece un duplicado de buena fe.

32voto

riza Puntos 170

El "producto" de espacios vectoriales se considera más adecuadamente como una suma directa, ya que la dimensión aumenta linealmente según la adición, dim(VW)=dim(V)+dim(W) . Los productos tensoriales tienen un tamaño mucho mayor que las sumas, ya que tenemos dim(VW)=dim(V)×dim(W) . De hecho, por analogía con la aritmética elemental, tenemos la distributividad (AB)C(AC)(B×C) .

Tenga en cuenta (como dice KCd en los comentarios) que la linealidad en VW y VW son muy diferentes:

VW:(a+b,c+d)=(a,0)+(b,0)+(0,c)+(0,d)VW:(a+b)(c+d)=ac+ad+bc+bd.

Otro elemento que podrías olvidar es que el producto tensorial VW est no simplemente compuesto por los llamados "tensores puros" de la forma vw ; también tiene combinaciones lineales de estos elementos. Mientras que los tensores puros pueden descomponerse en sumas de tensores puros (utilizando la linealidad a ambos lados del símbolo ), no todos es susceptible de ser puesto en la forma de un tensor puro.

He aquí una manera de pensar formalmente en la diferencia, en un espíritu cuántico-mecánico. Dada una base distinguida de V y W , digamos que X=BV y Y=BW podemos decir que V y W son los espacios vectoriales libres generados a partir de X y Y es decir, que cada uno de ellos es formal K -lineal ( K siendo el campo base) combinaciones de elementos de X y Y respectivamente, es decir V=KX y W=KY .

Entonces, asumiendo X,Y son disjuntos, podemos decir VWK(XY) es decir, permitimos que las dos bases juntas formen una nueva base. Pero VWK(X×Y) y X×Y es ciertamente diferente de la unión XY . Si pensamos en X y Y como conjuntos de "estados puros" de algún sistema teórico, entonces la suma directa dice que pensamos en X y Y como colecciones disjuntas de estados puros de un mismo sistema, y ver los espacios vectoriales como superposiciones de estados puros, en cuyo caso la suma directa es sólo abrirnos a ambas colecciones de estados puros cuando hacemos nuestras superposiciones.

Pero el producto tensorial tiene como base la colección de estados puros del sistema compuesto de los dos sistemas subyacentes X y Y . Es decir, los vemos como sistemas distintos que componen un sistema mayor, de manera que el estado del sistema 1 puede variar independientemente del estado del sistema 2, en cuyo caso la colección de estados puros para el sistema compuesto es X×Y .

El producto tensorial es una forma de codificar la multilinealidad, aunque la operación binaria por sí mismo sólo codifica la bilinealidad. Es decir, el espacio de los mapas bilineales en el campo de tierra K el primer argumento toma vectores de U y la segunda tomando vectores de V es el producto tensorial UV . Los espacios duales U y V (viendo todo como finito-dimensional), tienen bases que provienen de bases {ui} y {vi} en U y V respectivamente.

Específicamente, U tiene base {ui} , donde ui(uj)=δij es la parte escalar de la proyección sobre el subespacio unidimensional generado por ui y de forma similar para vi . Para el espacio vectorial lineal de mapas bilineales U,VK basta con comprobar dónde están los pares de bases ui,vj se envía, por lo que podemos definir mapas (uivj)(uk,v)=δikδj con el mismo espíritu, y estos mapas bilineales uivj formará una base del espacio de todos los mapas bilineales. (Nótese que uivj dice "aplicar ui al primer argumento y vj al segundo, y multiplicar los dos escalares resultantes"). Este es el terreno cubierto por muzzlator.

Esto nos permite reinterpretar mapas lineales entre espacios vectoriales en una serie de nuevas formas. En particular, los mapas lineales UV pueden reinterpretarse como mapas lineales UVK o VU o KUV . También tenemos el adjunto tensor-homológico hom(UV,W)hom(U,hom(V,W)), donde hom(A,B) es el espacio de los mapas lineales AB . Esta es la " categoría de ( K -)espacios vectoriales" versión del concepto teórico de conjunto de " currying ," donde un mapa A×BC puede reinterpretarse como un mapa de A en el conjunto de mapas de BC (aquí A,B,C son conjuntos y los mapas no son en ningún sentido algebraico especial homomorfismos, son sólo mapas).

Los productos tensoriales son la maquinaria formal detrás del concepto de "extensión de escalares". Por ejemplo, dado un espacio vectorial real V ¿Cómo podemos hacer que sea un complejo ¿espacio vectorial? A priori no podemos multiplicar vectores por escalares no reales, pero si fingir podemos (sólo hay que ver el espacio ViV con la noción obvia de multiplicación escalar compleja) tenemos un espacio vectorial complejo. Este proceso se denomina complejización y se puede hacer simplemente tensando V en R contra C es decir, la complejización puede venir dada por VCCRV . Esto nos permite multiplicar a la izquierda por escalares complejos de forma consistente.

Sin embargo, pasar de espacios vectoriales reales a complejos no es lo único a lo que se limita. Si V es un K -y el espacio vectorial L/K es un campo de extensión de K podemos hacer V un L -espacio vectorial a través de LKV . Dado que L es en sí mismo un K -espacio vectorial, podríamos hacer un K -base {i} para ello (podría ser infinito, incluso incontable), y ampliar los escalares mediante iiV formalmente, pero el tensado es sucinto y sin coordenadas. Las mismas ideas se aplican a módulos que son más generales que los espacios vectoriales.

Cuando permitimos que nuestro espacio vectorial tenga un multiplicación operación compatible con la estructura lineal (así, un K -Álgebra ), podemos extender la multiplicación al producto tensorial. Esto nos permite "pegar" álgebras (más que añadir escalares adicionales). O anillos en general, en realidad.

En particular, para R un anillo, R[x]RR[y]R[x,y] como anillos polinómicos . La operación de multiplicación se extiende desde (ab)(cd)=acbd a través de la linealidad (que se puede ver que está bien definida).

Por último, KCd menciona de pasada inducción y restricción de representaciones . Como representación V de G en K puede ser visto como un K[G] -Módulo , inducción puede verse como IndGHVK[G]K[H]V aunque probablemente el más natural definiciones son "la inducción es la unión izquierda (y la coinducción es la unión derecha) de la restricción" (véase functor adjunto ) que es la versión categórica del enunciado de la reciprocidad de Frobenius.

Cotizando una potencia tensorial Vn:=VVV mediante ciertas relaciones, podemos obtener la potencia exterior ΛnV (también hay una potencia simétrica), que está abarcada por alternando símbolos multilineales de la forma v1v2vn . Esto permite una nueva definición del mapa de determinantes y, por tanto, también de los polinomios característicos, y también permite la creación del álgebra exterior de formas diferenciales una forma muy intrínseca de trabajar con infinitosimales geométricos y multidimensionales (de manera informal). Otra aplicación de las potencias tensoriales: sumando directamente las potencias tensoriales de las representaciones del álgebra de Lie, obtenemos la álgebra envolvente universal U(g) .

4 votos

Finalmente. No es un avatar de anime.

13voto

Neall Puntos 12075
  1. Los productos tensoriales convierten el álgebra multilineal en álgebra lineal. Esa es la cuestión (o al menos un punto).

  2. Permiten tratar diferentes tipos de extensión de base (por ejemplo, ver una matriz real como una matriz compleja, hacer un polinomio en Z[X] en un polinomio en (Z/mZ)[X] , convirtiendo una representación de un subgrupo H en una representación de todo el grupo G ) como casos especiales de una construcción general.

  3. Proporcionan una explicación matemática del fenómeno de los estados "enredados" en la mecánica cuántica (un tensor que no es un tensor elemental).

Ver ¿Por qué es importante el producto tensorial si ya tenemos productos directos y semidirectos? para obtener más respuestas a su pregunta (es una pregunta duplicada).

7voto

Hui Yu Puntos 5727

Cuando estudié el producto tensorial, tuve la suerte de encontrar esto maravilloso artículo por Tom Coates. Empezando por lo más trivial funciones en el espacio del producto El autor explica la intuición que hay detrás de los productos tensoriales de forma muy clara.

1 votos

El enlace parece estar muerto ahora, pero alguna versión parece estar guardada en Internet Archive: web.archive.org/web/%2A/http://www.math.harvard.edu/~tomc/ web.archive.org/web/20110826113738/http://www.math.harvard.edu/ y probablemente también se puede encontrar en otros lugares: google.com/

6voto

muzzlator Puntos 5769

El mejor ejemplo para ver por qué el producto tensorial se define así es considerando las funciones bilineales B:V×VR

Supongamos que queremos representar B por un único mapa lineal de espacios vectoriales ˆB:XR . ¿Qué tipo de base tendría nuestro espacio X que hay que tener para definir ˆB de B ?

Dejemos que {ei} sea una base para V , entonces cada término B(ei,ej) pueden definirse de forma independiente. La razón por la que no podemos elegir simplemente X para ser V×V es que si definimos ˆB(x)=B(x1,x2) entonces ˆB(ei,ej)=ˆB(ei,0)+ˆB(0,ej)=B(ei,0)+B(0,ej)=0+0=0

donde x=(x1,x2)V×V .

En cambio, necesitamos X para ser generados por los pares de vectores base mismos, X=eiej y entonces podemos pensar en ˆB como un operador lineal en este espacio.

5voto

sq1020 Puntos 143

El producto tensorial ES un análogo del producto cartesiano, pero es un análogo del producto cartesiano. Lo que quiero decir con esto es lo siguiente.

Cuando se trabaja con conjuntos, el producto cartesiano satisface DOS propiedades.

  1. La primera propiedad es que si tienes dos funciones f:AX y g:AY se pueden "emparejar" para obtener una función única (f,g)=h:AX×Y y a la inversa, cualquier función h:AX×Y hay funciones únicas f:AX y g:AY para que h=(f,g) .

  2. La segunda propiedad es que cualquier X -familia parametrizada de funciones {fx:YB}xX corresponde a una función f:X×YB bajo la identificación f(x,y)=fx(y) .

Cuando se trabaja con espacios vectoriales (o R -módulos), el producto directo satisface la primera propiedad, mientras que el producto tensorial satisface la segunda. De hecho, la primera propiedad es la definición de producto la segunda propiedad es la definición de producto tensorial y es un teorema que estas definiciones pueden ser satisfechas por conjuntos y por espacios vectoriales, y de hecho por los mismos conjuntos, pero por diferentes espacios vectoriales.

La demostración del teorema para los conjuntos consiste en comprobar que el producto cartesiano (que hemos construido) satisface las propiedades. Para demostrar el teorema para los espacios vectoriales, tenemos que construir tanto el producto directo como el producto tensorial. (Por supuesto, las dos propiedades para espacios vectoriales hablarán de funciones lineales y parametrizaciones lineales en lugar de sólo funciones y parametrizaciones).

Para llevar a cabo estas construcciones, tenemos que tomar nota de ciertas relaciones (fáciles de comprobar, pero conceptualmente nuevas) entre los espacios vectoriales y los conjuntos. La palabra clave aquí es funtores adjuntos Aunque no lo utilizaré, sólo lo ilustraré.

Propiedades de los espacios vectoriales libres

En primer lugar, para cualquier espacio vectorial V tenemos el conjunto subyacente SV formado por los vectores de V . Además, para cualquier mapa lineal ϕ:VW tenemos el mapa de conjuntos subyacente Sϕ:SVSW dado por (Sϕ)(v)=w .

En segundo lugar, para cualquier conjunto S tenemos el espacio vectorial libre FV consistente en combinaciones lineales finitas de elementos de S (es el espacio vectorial con base S ). Los espacios vectoriales libres satisfacen la siguiente propiedad:

  • Cualquier función f:SSV corresponde a una única función lineal ϕ:FSV y a la inversa. En otras palabras, las funciones lineales están determinadas de forma única por sus valores en las bases.

En particular, hay que tener en cuenta que la función de identidad id:SVSV tiene que corresponder a un único mapa lineal ξ:FSVV . Este mapa es significativo porque su núcleo consiste precisamente en las relaciones de linealidad de los vectores en V . De ello se desprende que f:SVSW es el conjunto-mapa subyacente de un mapa lineal ϕ:VW si y sólo si el mapa inducido ψ:FSVV se desvanece en kerξ . Además, se puede demostrar que cuando ese es el caso, ψ factores, sin embargo ξ como ψ=ϕξ donde f=Sϕ .

Incluso mejor, si tenemos un mapa f:SVX esto da un mapa inducido ψ:FSVFX Si ψ se desvanece en kerξ , entonces se factoriza como ψ=ϕξ con ϕ:VFX y la imagen tiene que tener un conjunto subyacente X en el sentido de que S(im(ϕ))=X . Ahora, la condición de que ψ se desvanece en kerξ depende sólo de f y corresponde exactamente al caso en que f:SVX induce en X la estructura de un espacio vectorial Xf para que f=Sϕ para ϕ:VXf .

Producto directo

Consideremos dos funciones lineales ϕ:UV1 y ψ:UV2 y que f:SUSV1 y g:SUSV2 sean los mapas de conjuntos subyacentes f=Sϕ , g=Sψ . Entonces tenemos definitivamente un mapa de conjunto (f,g):SUSV1×SV2 . No es difícil comprobar que (f,g) induce una estructura de espacio vectorial en SV1×SV2 aunque es un poco más trabajoso demostrar que se trata de la misma estructura de espacio vectorial para cualquier par de mapas f g . Sin embargo, este es el nos da el producto directo para espacios vectoriales es V1V2 .

Producto tensorial Considere una V1 -familia parametrizada de funciones (lineales) {ϕv:V2W}vV1 . Aplicando el functor de olvido, obtenemos un SV1 -familia de mapas parametrizados {fv1:SV2SW}vSV1 . Por la segunda propiedad del producto cartesiano, esto da un mapa f:SV1×SV2SW . Aplicando el functor libre obtenemos una función ϕ:F(SV1×SV2)W que es lineal. Por lo tanto, V1 -familias parametrizadas {ϕv:V2W}vV1 de mapas lineales incrustados como mapas lineales ϕ:F(SV1×SV2)W . Con un poco de cuidado, podemos demostrar que la condición necesaria y suficiente para f:SV1×SV2SW de una parametrización lineal es que el ϕ se desvanece en kerξ1kerξ2 donde ξi:FSViVi son los mapas lineales inducidos por id:SViSVi . Por lo tanto, tomando el cociente con respecto a ese subespacio (que es justo el que abarcan las relaciones de multilinealidad) se obtiene un nuevo espacio vectorial V1V2 con la propiedad de que V1 -familias de mapas parametrizados linealmente {ϕv:V2W}vV1 corresponden naturalmente a mapas lineales ˉϕ:V1V2W .

i-Ciencias.com

I-Ciencias es una comunidad de estudiantes y amantes de la ciencia en la que puedes resolver tus problemas y dudas.
Puedes consultar las preguntas de otros usuarios, hacer tus propias preguntas o resolver las de los demás.

Powered by:

X