20 votos

¿Por qué se construye el producto tensorial de esta manera?

Ya he preguntado por la definición de producto tensorial aquí y ahora entiendo los pasos de la construcción. Sólo tengo dudas sobre la motivación para construirlo de esa manera. Bueno, si todo lo que queremos es tener tuplas de vectores que se comporten linealmente en la suma y multiplicación por escalares, ¿no podríamos simplemente tomar todos los espacios vectoriales $L_1, L_2,\dots,L_p$ forman su producto cartesiano $L_1\times L_2\times \cdots \times L_p$ y simplemente introducir operaciones análogas a las de $\mathbb{R}^n$ ?

Obtendríamos un espacio de tuplas de vectores sobre el que se cumplen todas esas propiedades lineales. ¿Cuál es la razón/motivación para definir el producto tensorial utilizando el espacio vectorial libre y ese cociente para imponer la linealidad? ¿Puede alguien indicarme la motivación de esa definición?

Muchas gracias de antemano.

11 votos

Si sólo querías linealidad, utiliza la suma directa. Pero si quiere multilinealidad (lo que significa linealidad en cada componente mientras todos los demás componentes son fijo ) definitivamente no puedes usar la suma directa: la suma no es multilineal. La multiplicación es multilineal, y eso es lo que el producto tensorial está diseñado para imitar. Convierte los mapas multilineales (asegúrate de saber lo que significa ese término) en mapas lineales.

1 votos

Hay votaciones de reapertura ¿por qué? Esto me parece un duplicado de buena fe.

32voto

riza Puntos 170

El "producto" de espacios vectoriales se considera más adecuadamente como una suma directa, ya que la dimensión aumenta linealmente según la adición, $\dim(V\oplus W)=\dim(V)+\dim(W)$ . Los productos tensoriales tienen un tamaño mucho mayor que las sumas, ya que tenemos $\dim(V\otimes W)=\dim(V)\times\dim(W)$ . De hecho, por analogía con la aritmética elemental, tenemos la distributividad $(A\oplus B)\otimes C\cong (A\otimes C)\oplus(B\times C)$ .

Tenga en cuenta (como dice KCd en los comentarios) que la linealidad en $V\oplus W$ y $V\otimes W$ son muy diferentes:

$$\begin{array}{cl}V\oplus W: & (a+b,c+d) & = (a,0)+(b,0)+(0,c)+(0,d) \\ V\otimes W: & (a+b)\otimes(c+d) & = a\otimes c+a\otimes d+b\otimes c+b\otimes d. \end{array}$$

Otro elemento que podrías olvidar es que el producto tensorial $V\otimes W$ est no simplemente compuesto por los llamados "tensores puros" de la forma $v\otimes w$ ; también tiene combinaciones lineales de estos elementos. Mientras que los tensores puros pueden descomponerse en sumas de tensores puros (utilizando la linealidad a ambos lados del símbolo $\otimes$ ), no todos es susceptible de ser puesto en la forma de un tensor puro.

He aquí una manera de pensar formalmente en la diferencia, en un espíritu cuántico-mecánico. Dada una base distinguida de $V$ y $W$ , digamos que $X={\cal B}_V$ y $Y={\cal B}_W$ podemos decir que $V$ y $W$ son los espacios vectoriales libres generados a partir de $X$ y $Y$ es decir, que cada uno de ellos es formal $K$ -lineal ( $K$ siendo el campo base) combinaciones de elementos de $X$ y $Y$ respectivamente, es decir $V=KX$ y $W=KY$ .

Entonces, asumiendo $X,Y$ son disjuntos, podemos decir $V\oplus W\cong K(X\cup Y)$ es decir, permitimos que las dos bases juntas formen una nueva base. Pero $V\otimes W\cong K(X\times Y)$ y $X\times Y$ es ciertamente diferente de la unión $X\cup Y$ . Si pensamos en $X$ y $Y$ como conjuntos de "estados puros" de algún sistema teórico, entonces la suma directa dice que pensamos en $X$ y $Y$ como colecciones disjuntas de estados puros de un mismo sistema, y ver los espacios vectoriales como superposiciones de estados puros, en cuyo caso la suma directa es sólo abrirnos a ambas colecciones de estados puros cuando hacemos nuestras superposiciones.

Pero el producto tensorial tiene como base la colección de estados puros del sistema compuesto de los dos sistemas subyacentes $X$ y $Y$ . Es decir, los vemos como sistemas distintos que componen un sistema mayor, de manera que el estado del sistema 1 puede variar independientemente del estado del sistema 2, en cuyo caso la colección de estados puros para el sistema compuesto es $X\times Y$ .

El producto tensorial es una forma de codificar la multilinealidad, aunque la operación binaria $\otimes$ por sí mismo sólo codifica la bilinealidad. Es decir, el espacio de los mapas bilineales en el campo de tierra $K$ el primer argumento toma vectores de $U$ y la segunda tomando vectores de $V$ es el producto tensorial $U^*\otimes V^*$ . Los espacios duales $U^*$ y $V^*$ (viendo todo como finito-dimensional), tienen bases que provienen de bases $\{u_i\}$ y $\{v_i\}$ en $U$ y $V$ respectivamente.

Específicamente, $U^*$ tiene base $\{u_i^*\}$ , donde $u_i^*(u_j)=\delta_{ij}$ es la parte escalar de la proyección sobre el subespacio unidimensional generado por $u_i$ y de forma similar para $v_i^*$ . Para el espacio vectorial lineal de mapas bilineales $U,V\to K$ basta con comprobar dónde están los pares de bases $u_i,v_j$ se envía, por lo que podemos definir mapas $(u_i\otimes v_j)(u_k,v_\ell)=\delta_{ik}\delta_{j\ell}$ con el mismo espíritu, y estos mapas bilineales $u_i\otimes v_j$ formará una base del espacio de todos los mapas bilineales. (Nótese que $u_i\otimes v_j$ dice "aplicar $u_i^*$ al primer argumento y $v_j^*$ al segundo, y multiplicar los dos escalares resultantes"). Este es el terreno cubierto por muzzlator.

Esto nos permite reinterpretar mapas lineales entre espacios vectoriales en una serie de nuevas formas. En particular, los mapas lineales $U\to V$ pueden reinterpretarse como mapas lineales $U\otimes V^*\to K$ o $V^*\to U^*$ o $K\to U^*\otimes V^*$ . También tenemos el adjunto tensor-homológico $$\hom(U\otimes V,W)\cong\hom(U,\hom(V,W)),$$ donde $\hom(A,B)$ es el espacio de los mapas lineales $A\to B$ . Esta es la " categoría de ( $K$ -)espacios vectoriales" versión del concepto teórico de conjunto de " currying ," donde un mapa $A\times B\to C$ puede reinterpretarse como un mapa de $A$ en el conjunto de mapas de $B\to C$ (aquí $A,B,C$ son conjuntos y los mapas no son en ningún sentido algebraico especial homomorfismos, son sólo mapas).

Los productos tensoriales son la maquinaria formal detrás del concepto de "extensión de escalares". Por ejemplo, dado un espacio vectorial real $V$ ¿Cómo podemos hacer que sea un complejo ¿espacio vectorial? A priori no podemos multiplicar vectores por escalares no reales, pero si fingir podemos (sólo hay que ver el espacio $V\oplus iV$ con la noción obvia de multiplicación escalar compleja) tenemos un espacio vectorial complejo. Este proceso se denomina complejización y se puede hacer simplemente tensando $V$ en $\bf R$ contra $\bf C$ es decir, la complejización puede venir dada por $V_{\bf C}\cong{\bf C}\otimes_{\bf R}V$ . Esto nos permite multiplicar a la izquierda por escalares complejos de forma consistente.

Sin embargo, pasar de espacios vectoriales reales a complejos no es lo único a lo que se limita. Si $V$ es un $K$ -y el espacio vectorial $L/K$ es un campo de extensión de $K$ podemos hacer $V$ un $L$ -espacio vectorial a través de $L\otimes_KV$ . Dado que $L$ es en sí mismo un $K$ -espacio vectorial, podríamos hacer un $K$ -base $\{\ell_i\}$ para ello (podría ser infinito, incluso incontable), y ampliar los escalares mediante $\bigoplus_i \ell_i V$ formalmente, pero el tensado es sucinto y sin coordenadas. Las mismas ideas se aplican a módulos que son más generales que los espacios vectoriales.

Cuando permitimos que nuestro espacio vectorial tenga un multiplicación operación compatible con la estructura lineal (así, un $K$ -Álgebra ), podemos extender la multiplicación al producto tensorial. Esto nos permite "pegar" álgebras (más que añadir escalares adicionales). O anillos en general, en realidad.

En particular, para $R$ un anillo, $R[x]\otimes_R R[y]\cong R[x,y]$ como anillos polinómicos . La operación de multiplicación se extiende desde $(a\otimes b)(c\otimes d)=ac\otimes bd$ a través de la linealidad (que se puede ver que está bien definida).

Por último, KCd menciona de pasada inducción y restricción de representaciones . Como representación $V$ de $G$ en $K$ puede ser visto como un $K[G]$ -Módulo , inducción puede verse como ${\rm Ind}_H^GV\cong K[G]\otimes_{K[H]}V$ aunque probablemente el más natural definiciones son "la inducción es la unión izquierda (y la coinducción es la unión derecha) de la restricción" (véase functor adjunto ) que es la versión categórica del enunciado de la reciprocidad de Frobenius.

Cotizando una potencia tensorial $V^{\otimes n}:=V\otimes V\otimes\cdots\otimes V$ mediante ciertas relaciones, podemos obtener la potencia exterior $\Lambda^nV$ (también hay una potencia simétrica), que está abarcada por alternando símbolos multilineales de la forma $v_1\wedge v_2\wedge\cdots\wedge v_n$ . Esto permite una nueva definición del mapa de determinantes y, por tanto, también de los polinomios característicos, y también permite la creación del álgebra exterior de formas diferenciales una forma muy intrínseca de trabajar con infinitosimales geométricos y multidimensionales (de manera informal). Otra aplicación de las potencias tensoriales: sumando directamente las potencias tensoriales de las representaciones del álgebra de Lie, obtenemos la álgebra envolvente universal $U({\frak g})$ .

4 votos

Finalmente. No es un avatar de anime.

13voto

Neall Puntos 12075
  1. Los productos tensoriales convierten el álgebra multilineal en álgebra lineal. Esa es la cuestión (o al menos un punto).

  2. Permiten tratar diferentes tipos de extensión de base (por ejemplo, ver una matriz real como una matriz compleja, hacer un polinomio en ${\mathbf Z}[X]$ en un polinomio en $({\mathbf Z}/m{\mathbf Z})[X]$ , convirtiendo una representación de un subgrupo $H$ en una representación de todo el grupo $G$ ) como casos especiales de una construcción general.

  3. Proporcionan una explicación matemática del fenómeno de los estados "enredados" en la mecánica cuántica (un tensor que no es un tensor elemental).

Ver ¿Por qué es importante el producto tensorial si ya tenemos productos directos y semidirectos? para obtener más respuestas a su pregunta (es una pregunta duplicada).

7voto

Hui Yu Puntos 5727

Cuando estudié el producto tensorial, tuve la suerte de encontrar esto maravilloso artículo por Tom Coates. Empezando por lo más trivial funciones en el espacio del producto El autor explica la intuición que hay detrás de los productos tensoriales de forma muy clara.

1 votos

El enlace parece estar muerto ahora, pero alguna versión parece estar guardada en Internet Archive: web.archive.org/web/%2A/http://www.math.harvard.edu/~tomc/ web.archive.org/web/20110826113738/http://www.math.harvard.edu/ y probablemente también se puede encontrar en otros lugares: google.com/

6voto

muzzlator Puntos 5769

El mejor ejemplo para ver por qué el producto tensorial se define así es considerando las funciones bilineales $B : V \times V \rightarrow \mathbb{R}$

Supongamos que queremos representar $B$ por un único mapa lineal de espacios vectoriales $\hat{B} : X \rightarrow \mathbb{R}$ . ¿Qué tipo de base tendría nuestro espacio $X$ que hay que tener para definir $\hat{B}$ de $B$ ?

Dejemos que $\{e_i\}$ sea una base para $V$ , entonces cada término $B(e_i, e_j)$ pueden definirse de forma independiente. La razón por la que no podemos elegir simplemente $X$ para ser $V \times V$ es que si definimos $\hat{B}(x) = B(x_1, x_2)$ entonces $$\hat{B}(e_i, e_j) = \hat{B}(e_i, 0) + \hat{B}(0, e_j) = B(e_i, 0) + B(0, e_j) = 0 + 0 = 0$$

donde $x = (x_1, x_2) \in V \times V$ .

En cambio, necesitamos $X$ para ser generados por los pares de vectores base mismos, $X = \langle e_i \otimes e_j\rangle $ y entonces podemos pensar en $\hat{B}$ como un operador lineal en este espacio.

5voto

sq1020 Puntos 143

El producto tensorial ES un análogo del producto cartesiano, pero es un análogo del producto cartesiano. Lo que quiero decir con esto es lo siguiente.

Cuando se trabaja con conjuntos, el producto cartesiano satisface DOS propiedades.

  1. La primera propiedad es que si tienes dos funciones $f: A\to X$ y $g\colon A\to Y$ se pueden "emparejar" para obtener una función única $(f,g)=h\colon A\to X\times Y$ y a la inversa, cualquier función $h\colon A\to X\times Y$ hay funciones únicas $f\colon A\to X$ y $g\colon A\to Y$ para que $h=(f,g)$ .

  2. La segunda propiedad es que cualquier $X$ -familia parametrizada de funciones $\{f_x\colon Y\to B\}_{x\in X}$ corresponde a una función $f\colon X\times Y\to B$ bajo la identificación $f(x,y)=f_x(y)$ .

Cuando se trabaja con espacios vectoriales (o $R$ -módulos), el producto directo satisface la primera propiedad, mientras que el producto tensorial satisface la segunda. De hecho, la primera propiedad es la definición de producto la segunda propiedad es la definición de producto tensorial y es un teorema que estas definiciones pueden ser satisfechas por conjuntos y por espacios vectoriales, y de hecho por los mismos conjuntos, pero por diferentes espacios vectoriales.

La demostración del teorema para los conjuntos consiste en comprobar que el producto cartesiano (que hemos construido) satisface las propiedades. Para demostrar el teorema para los espacios vectoriales, tenemos que construir tanto el producto directo como el producto tensorial. (Por supuesto, las dos propiedades para espacios vectoriales hablarán de funciones lineales y parametrizaciones lineales en lugar de sólo funciones y parametrizaciones).

Para llevar a cabo estas construcciones, tenemos que tomar nota de ciertas relaciones (fáciles de comprobar, pero conceptualmente nuevas) entre los espacios vectoriales y los conjuntos. La palabra clave aquí es funtores adjuntos Aunque no lo utilizaré, sólo lo ilustraré.

Propiedades de los espacios vectoriales libres

En primer lugar, para cualquier espacio vectorial $V$ tenemos el conjunto subyacente $\mathcal SV$ formado por los vectores de $V$ . Además, para cualquier mapa lineal $\phi\colon V\to W$ tenemos el mapa de conjuntos subyacente $\mathcal S\phi\colon\mathcal SV\to\mathcal SW$ dado por $(\mathcal S\phi)(v)=w$ .

En segundo lugar, para cualquier conjunto $S$ tenemos el espacio vectorial libre $\mathcal FV$ consistente en combinaciones lineales finitas de elementos de $S$ (es el espacio vectorial con base $S$ ). Los espacios vectoriales libres satisfacen la siguiente propiedad:

  • Cualquier función $f\colon S\to \mathcal SV$ corresponde a una única función lineal $\phi\colon\mathcal FS\to V$ y a la inversa. En otras palabras, las funciones lineales están determinadas de forma única por sus valores en las bases.

En particular, hay que tener en cuenta que la función de identidad $\DeclareMathOperator{\id}{id}\id\colon\mathcal SV\to\mathcal SV$ tiene que corresponder a un único mapa lineal $\xi\colon \mathcal F\mathcal SV\to V$ . Este mapa es significativo porque su núcleo consiste precisamente en las relaciones de linealidad de los vectores en $V$ . De ello se desprende que $f\colon\mathcal SV\to\mathcal SW$ es el conjunto-mapa subyacente de un mapa lineal $\phi\colon V\to W$ si y sólo si el mapa inducido $\psi\colon \mathcal F\mathcal S V\to V$ se desvanece en $\ker\xi$ . Además, se puede demostrar que cuando ese es el caso, $\psi$ factores, sin embargo $\xi$ como $\psi=\phi\circ\xi$ donde $f=\mathcal S\phi$ .

Incluso mejor, si tenemos un mapa $f\colon\mathcal SV\to X$ esto da un mapa inducido $\psi\colon\mathcal F\mathcal S V\to\mathcal FX$ Si $\psi$ se desvanece en $\ker\xi$ , entonces se factoriza como $\psi=\phi\circ\xi$ con $\phi\colon V\to FX$ y la imagen tiene que tener un conjunto subyacente $X$ en el sentido de que $\mathcal S(\operatorname{im}(\phi))=X$ . Ahora, la condición de que $\psi$ se desvanece en $\ker\xi$ depende sólo de $f$ y corresponde exactamente al caso en que $f\colon SV\to X$ induce en $X$ la estructura de un espacio vectorial $X_f$ para que $f=\mathcal S\phi$ para $\phi\colon V\to X_f$ .

Producto directo

Consideremos dos funciones lineales $\phi\colon U\to V_1$ y $\psi\colon U\to V_2$ y que $f\colon \mathcal SU\to\mathcal SV_1$ y $g\colon\mathcal SU\to\mathcal SV_2$ sean los mapas de conjuntos subyacentes $f=\mathcal S\phi$ , $g=\mathcal S\psi$ . Entonces tenemos definitivamente un mapa de conjunto $(f,g)\colon\mathcal SU\to\mathcal SV_1\times\mathcal SV_2$ . No es difícil comprobar que $(f,g)$ induce una estructura de espacio vectorial en $\mathcal SV_1\times\mathcal SV_2$ aunque es un poco más trabajoso demostrar que se trata de la misma estructura de espacio vectorial para cualquier par de mapas $f$ $g$ . Sin embargo, este es el nos da el producto directo para espacios vectoriales es $V_1\oplus V_2$ .

Producto tensorial Considere una $V_1$ -familia parametrizada de funciones (lineales) $\{\phi_v\colon V_2\to W\}_{v\in V_1}$ . Aplicando el functor de olvido, obtenemos un $\mathcal SV_1$ -familia de mapas parametrizados $\{f_{v_1}\colon\mathcal SV_2\to\mathcal SW\}_{v\in \mathcal SV_1}$ . Por la segunda propiedad del producto cartesiano, esto da un mapa $f\colon \mathcal SV_1\times\mathcal S V_2\to\mathcal SW$ . Aplicando el functor libre obtenemos una función $\phi\colon\mathcal F(\mathcal SV_1\times\mathcal SV_2)\to W$ que es lineal. Por lo tanto, $V_1$ -familias parametrizadas $\{\phi_v\colon V_2\to W\}_{v\in V_1}$ de mapas lineales incrustados como mapas lineales $\phi\colon\mathcal F(\mathcal SV_1\times\mathcal SV_2)\to W$ . Con un poco de cuidado, podemos demostrar que la condición necesaria y suficiente para $f\colon\mathcal SV_1\times\mathcal SV_2\to\mathcal SW$ de una parametrización lineal es que el $\phi$ se desvanece en $\ker\xi_1\oplus\mathcal\ker\xi_2$ donde $\xi_i\colon\mathcal F\mathcal S V_i\to V_i$ son los mapas lineales inducidos por $\id\colon\mathcal SV_i\to\mathcal SV_i$ . Por lo tanto, tomando el cociente con respecto a ese subespacio (que es justo el que abarcan las relaciones de multilinealidad) se obtiene un nuevo espacio vectorial $V_1\otimes V_2$ con la propiedad de que $V_1$ -familias de mapas parametrizados linealmente $\{\phi_v\colon V_2\to W\}_{v\in V_1}$ corresponden naturalmente a mapas lineales $\bar\phi\colon V_1\otimes V_2\to W$ .

i-Ciencias.com

I-Ciencias es una comunidad de estudiantes y amantes de la ciencia en la que puedes resolver tus problemas y dudas.
Puedes consultar las preguntas de otros usuarios, hacer tus propias preguntas o resolver las de los demás.

Powered by:

X