17 votos

Entender la definición de los tensores como mapas multilineales

La cuestión surge de la definición del espacio de $(p,q)$ tensores como el set de mapas multilineales del producto cartesiano de elementos de un espacio vectorial y su dual sobre el campo, dotados de reglas de adición y s-multiplicación, dados en esta serie en este momento de la siguiente manera:

A $(p,q)$ tensor , $T$ es un MAPA MULTILINEAL que lleva $p$ copias de $V^*$ y $q$ copias de $V$ y mapea de forma multilineal (lineal en cada entrada) a $k:$

$$T: \underset{p}{\underbrace{V^*\times \cdots \times V^*}}\times \underset{q}{\underbrace{V\times\times \cdots V\times V}} \overset{\sim}\rightarrow K\tag 1$$

El $(p,q)$ ESPACIO TENSOR se define como un conjunto:

$$\begin{align}T^p_q\,V &= \underset{p}{\underbrace{V\color{darkorange}{\otimes}\cdots\color{darkorange}{\otimes} V}} \color{darkorange}{\otimes} \underset{q}{\underbrace{V^*\color{darkorange}{\otimes}\cdots\color{darkorange}{\otimes} V^*}}:=\{T\, |\, T\, \text{ is a (p,q) tensor}\}\tag2\\[3ex]&=\{T: \underset{p}{\underbrace{V^*\times \cdots \times V^*}}\times \underset{q}{\underbrace{V\times \cdots \times V}} \overset{\sim}\rightarrow K\}\end{align}\tag3$$

Esta expresión simboliza el conjunto de todos los tensores donde $T$ es $(p,q)$ , dotado esto de adición puntual y multiplicación s.

Esto es (no sorprendentemente) consistente con la Definición de Wikipedia de los tensores como mapas multilineales .


PREGUNTA:

No entiendo por qué en la ecuación (2), $p$ parece indexar (y es igual) el número de elementos del espacio vectorial $V$ mientras que en la Ec. (3), el mismo $p$ es la indexación del número de elementos del espacio dual $V^*.$

¿Podemos decir entonces que el $q$ elementos $V^*\otimes V^*\otimes\cdots$ en la Ec. (2) son funcionales lineales que esperan el mismo número de vectores $V$ para producir números reales que luego se multiplican?

Si es así, ¿cuáles son los $p$ $V$ elementos en $V\otimes V\otimes\cdots$ en la Ecuación 2? ¿Son vectores en $V$ "a la espera" de que un funcional se mapee en $K$ ? Y si es así, ¿dónde se define esa función? Supongo que como estamos definiendo un conjunto, puede ser cualquier ¿funcional?

¿Es ésta la interpretación correcta?

¿Y cómo son los $\color{darkorange}{\otimes}$ y $\times$ operaciones a interpretar en estas ecuaciones?

0 votos

@Peter Franek A medida que mi comprensión mejora, gracias a buenas respuestas como la tuya, espero que las ediciones del PO hagan más precisa la pregunta. ¿Es menos confuso ahora?

0 votos

@Peter Franek Gracias por señalarlo. Creo que ahora debería estar bien.

0 votos

@PeterFranek Ya está corregido. Gracias.

15voto

celtschk Puntos 13058

Veamos primero un tipo muy especial de tensor, a saber, el tensor $(0,1)$ tensor. ¿Qué es? Pues es el producto tensorial de $0$ copias de los miembros de $V$ y una copia de los miembros de $V^*$ . Es decir, es miembro de $V^*$ .

Pero, ¿qué es un miembro de $V^*$ ? Bueno, por la propia definición de $V^*$ es una función lineal $\phi:V\to K$ . Escribamos esto explícitamente: $$T^0_1V = V^* = \{\phi:V\to K\mid\phi \text{ is linear}\}$$ Verás, ya en este punto, donde ni siquiera usamos un producto tensorial, obtenemos un $V^*$ por un lado, y un $V$ en el otro, simplemente insertando la definición de $V^*$ .

A partir de esto, es obvio por qué $(0,q)$ -tensores tienen $q$ copias de $V^*$ en el producto tensorial $(2)$ pero $q$ copias de $V$ en el dominio de la función multilineal en $(3)$ .

Vale, pero ¿por qué tienes un $V^*$ en el mapa en $(3)$ para cada factor $V$ en el producto tensorial? Al fin y al cabo, los vectores no son funciones, ¿verdad?

Bueno, en cierto sentido lo son: Hay un mapa lineal natural desde $V$ a su doble dual $V^{**}$ es decir, el conjunto de funciones lineales de $V^*$ a $K$ . De hecho, para espacios vectoriales de dimensión finita, se tiene incluso que $V^{**} \cong V$ . Este mapa natural viene definido por la condición de que aplicando la imagen de $v$ a $\phi\in V^*$ da el mismo valor que aplicando $\phi$ a $v$ . Sospecho que la conferencia supone espacios vectoriales de dimensión finita. En ese caso, puede identificar $V$ con $V^{**}$ y por lo tanto se obtiene $$T^1_0V = V = V^{**} = \{T:V^*\to K\mid T \text{ is linear}\}$$ Aquí la segunda igualdad es exactamente esa identificación.

Ahora debería ser obvio por qué $p$ copias de $V$ en el producto tensorial $(2)$ dé $p$ factores de $V^*$ para el dominio de las funciones multilineales en $(3)$ .

Edita: A petición en los comentarios, algo sobre las relaciones de esos términos con el producto de Kronecker.

El producto tensorial $\color{darkorange}{\otimes}$ en $(2)$ es un producto tensorial no de (co)vectores, sino de (co)vectores espacios . El resultado de ese producto tensorial no describe un tensor, sino el conjunto de todos los tensores de un tipo determinado. Los tensores son entonces elementos del conjunto correspondiente. Y dada una base de $V$ los tensores se pueden especificar dando sus coeficientes en esa base.

Esto es completamente análogo al propio espacio vectorial. Tenemos el espacio vectorial, $V$ este espacio vectorial contiene vectores $v\in V$ y dada una base $\{e_i\}$ de $V$ podemos escribir el vector en componentes, $v = \sum_i v^i e_i$ .

Del mismo modo para $V^*$ podemos escribir cada miembro $\phi\in V^*$ en la base dual $\omega^i$ (definido por $\omega^i(e_j)=\delta^i_j$ ) como $\sum_i \phi_i \omega^i$ . Una forma alternativa de obtener los componentes $\phi_i$ es observar que $\phi(e_k) = \sum_i \phi_i \omega^i(e_k) = \sum_i \phi_i \delta^i_k = \phi_k$ . Es decir, los componentes del covector son sólo los valores de la función en los vectores base.

De esta forma también se ve inmediatamente que $\phi(v) = \sum_i \phi(v^i e_i) = \sum_i v^i\phi(e_i) = \sum_i v^i \phi_i$ que es algo así como como un producto interno, pero no exactamente, porque se comporta de forma diferente al cambiar de base.

Veamos ahora un $(0,2)$ tensor, es decir, una función bilineal $f:V\times V\to K$ . Tenga en cuenta que $f\in V^*\color{darkorange}{\otimes} V^*$ como $V^*\color{darkorange}{\otimes} V^*$ es por definición el conjunto de todas las funciones de este tipo (véase la ec. $(3)$ ). Ahora, al ser una función bilineal, de nuevo sólo es necesario conocer los valores en los vectores base, ya que $$f(v,w) = f(\sum_i v^i e_i, \sum_j w^j e_j) = \sum_{i,j}v^i w^j f(e_i,e_j)$$ y por lo tanto podemos definir como componentes $f_{ij} = f(e_i,e_j)$ y obtener $f(v,w)=\sum_{i,j}f_{ij}v^i w^j$ .

Esto también se aplica a los tensores generales: Un único tensor $T\in T^p_qV$ es una función multilineal $T:(V^*)^p\times V^q\to K$ y está completamente determinada por los valores que se obtienen al insertar vectores base y covectores base por todas partes, dando las componentes $$T^{i\ldots j}_{k\ldots l}=T(\underbrace{\omega^i,\ldots,\omega^j}_{p},\underbrace{e_k,\ldots,e_l}_{q})$$

Bien, ahora tenemos componentes, pero aún no hemos definido el producto tensorial de tensores. Pero en realidad es bastante fácil:

Sea $x\in T^p_qV$ y $y\in T^r_sV$ . Es decir, $x$ es una función que toma $p$ covectores y $q$ vectores, y da un escalar, mientras que $y$ toma $r$ covectores y $s$ vectores a un escalar. Entonces el producto tensorial $x\color{blue}{\otimes} y$ es una función que toma $p+r$ covectores y $q+s$ vectores, alimenta el primer $p$ covectores y el primer $q$ vectores a $x$ y el resto $r$ covectores y $s$ vectores a $y$ y multiplica el resultado. Es decir, $$(x\color{blue}{\otimes} y)(\underbrace{\kappa,\ldots,\lambda,\mu,\ldots,\nu}_{p+r},\underbrace{u,\ldots,v,w,\ldots,x}_{q+s}) = x(\underbrace{\kappa,\ldots,\lambda}_p,\underbrace{u,\ldots,v}_q)\cdot y(\underbrace{\mu,\ldots,\nu}_{r},\underbrace{w,\ldots,x}_{s})$$ No es difícil comprobar que, efectivamente, esta función también es multilineal, y por tanto $x\color{blue}{\otimes} y\in T^{p+r}_{q+s}V$ .

Y ahora, por fin, llegamos a la pregunta de cuáles son los componentes de $x\color{blue}{\otimes} y$ son. Pues bien, los componentes de $x\color{blue}{\otimes} y$ son sólo los valores de la función al insertar vectores base y covectores base, y cuando haces eso y usas la definición del producto tensorial, encuentras que efectivamente, los componentes del producto tensorial son el producto de Kronecker de los componentes de los factores.

Además, se puede demostrar que $T^p_q V$ es un espacio vectorial por derecho propio, y por lo tanto el $(p,q)$ -pueden escribirse como la combinación lineal de una base que es $1$ exactamente para una combinación de vectores base y covectores base y $0$ para todas las demás combinaciones. Sin embargo, se puede ver fácilmente que esto es sólo el producto tensorial de los covectores/vectores duales correspondientes. Como, además, en esa base, los coeficientes de los vectores de la base no son más que los componentes del tensor tal como se ha introducido antes, llegamos finalmente a la fórmula $$T = \sum T^{i\ldots j}_{k\ldots l}\underbrace{e_i\color{blue}{\otimes}\dots\color{blue}{\otimes} e_j}_{p}\color{blue}{\otimes}\underbrace{\omega^k\color{blue}{\otimes}\dots,\color{blue}{\otimes}\;\omega^l}_{q}$$

0 votos

Fantástica respuesta... ¿Podrías hacer que fuera más fácil de seguir "mapeando" los términos "en el producto tensorial" y "la función multilineal" con, supongo que la ecuación (2) y (3) respectivamente? Además, supongo que el cálculo numérico real (perdón por el término) se produciría en la ecuación (2), mientras que la ecuación (3) es más una definición "teórica" o "matemática" de un conjunto... de alguna manera... muy provisional...

0 votos

Gracias, señor. He añadido esas referencias de ecuaciones (espero haber entendido bien lo que quieres decir). De todos modos, (2) introduce la notación formal, mientras que (3) dice realmente lo que se puede hacer con ella (es decir, insertar vectores y covectores para obtener un escalar). Así que el "cálculo numérico" se produce en realidad en (3).

0 votos

Además, respecto a lo de "hacer números" entiendo lo que dices en el comentario, pero sé hacer una multiplicación de Kronecker matricial: $\begin{bmatrix}2\\3\end{bmatrix}\begin{bmatrix}1&2\end{bmatrix}=\begin{bmatrix}2&4\\3&6\end{bmatrix}$, which I presume is the $\otimes$ operation in Eq.(2), but I imagine the Cartesian product $\bf \times$ in Eq. (3) as basically a matrix of paired elements $(\begin{bmatrix}(V_1,V^*_1)&(V_2,V^*_2)\\ (V_3,V^*_4)&(V_{45},V^*_{67})\end{bmatrix})$ (viñeta sin sentido), más que un resultado numérico. Yo diría que este podría ser el último obstáculo para "conseguirlo".

4voto

kaka Puntos 222

Teniendo en cuenta lo que se ha dicho aquí recuerde que si $\{e_1,...,e_n\}$ es una base de $V$ y $\{\omega^1,...,\omega^n\}$ su base dual, entonces cualquier $T\in\mathcal T^{(p,q)}$ se puede escribir:

\begin{equation} T=\sum \lambda_{i_1, \cdots, i_p}^{j_1, \cdots, j_q} e_{i_1} \otimes \cdots \otimes e_{i_p} \otimes \omega^{j_1} \otimes \cdots \otimes \omega^{j_q} \end{equation}

Piensa en los casos sencillos. Tensores de tipo $(0,1)$ son mapas lineales $T:V\rightarrow K$ es decir, elementos de $V^*$ . Ahora bien, los tensores de tipo $(0,2)$ suelen denominarse formas bilineales . Son mapas multilineales $T:V\times V \rightarrow K$ . Ahora, la forma más fácil de construir un $(0,2)$ -tensor es elegir dos covectores $f_1$ y $f_2$ y utilizar el producto tensorial: $$T=f_1\otimes f_2$$ (nótese que he escrito subíndices, no hay diferencia entre escribir superíndices, y es recomendable hacerlo en el caso general, pero para $\mathcal T^{(0,2)}(V)$ no pasa nada).

Ahora, utilizando la primera ecuación, cada $(0,2)$ -tensor es así: $$T=\sum \lambda_{ij} \ \omega^i\otimes \omega^j$$ (recuérdese que $\{\omega^1,...,\omega^n\})$ es una base de $V^*$ . Así que ahora puedes ver que $\mathcal T^{(0,2)}(V)=V^*\otimes V^*$ .

En el caso general, todos Los tensores son sumas de múltiplos de tensores como éste: $$e_{i_1} \otimes \cdots \otimes e_{i_p} \otimes \omega^{j_1} \otimes \cdots \otimes \omega^{j_q} \qquad \qquad (1)$$

por eso $\mathcal T^{(p,q)}(V)=V\otimes \overset{p \text{ times}}{...} \otimes V \otimes V^*\otimes \overset{q \text{ times}}{...} \otimes V^*$


Centrémonos en tensores como $(1)$ . Si $v_1, ..., v_q\in V$ y $\xi^1, ... \xi^p\in V^*$ entonces

$$e_{i_1} \otimes \cdots \otimes e_{i_p} \otimes \omega^{j_1} \otimes \cdots \otimes \omega^{j_q}(\xi_1, ... \xi_q,v_1, ..., v_p,)=e_{i_1}(\xi^1)\cdots e_{i_p}(\xi^p) \cdot \omega^{j_1}(v_1)\cdots \omega^{j_q}(v_q)$$

como supongo que sabes. Así que, en cierto modo, se podría decir que estos $\omega$ son a la espera de un vector para producir números que luego se multiplicarán.

Ahora, olvida que conoces los elementos de $V^*$ son funcionales. Ahora lo son, simplemente, vectores (ya que son elementos de un espacio vectorial), y su dual es $V^{**}=V$ . Así que el $e$ considerados como funcionales sobre $V^*$ también son a la espera de un vector (pero ahora un vector es un elemento de $V^*$ ) para producir números que se multiplicarán.

Las dificultades de esta cuestión estriban en que hay que tener en cuenta los distintos puntos de vista. Es cierto que $V^*$ es el dual de $V$ y los elementos de $V^*$ son funcionales sobre $V$ . Pero, como $V^*$ es de nuevo un espacio vectorial, podemos olvidarnos por un momento de $V$ considerando los elementos de $V^*$ como vectores simples, y tomar el dual $V^{**}$ . Así que, al final, los vectores y los covectores se comportan de manera muy similar.

En cuanto al isomorfismo $\phi: V\to V^{**}$ si elegimos $v\in V$ . Así que ahora, $\phi(v)$ es un funcional en $V^*$ y definir quién $v$ es, tenemos que decir cuál es el valor de $\phi(v)(\omega)\in K$ para cada $\omega\in V^*$ . Pero sabemos que $\omega$ es un funcional sobre $V$ Así que $\omega(v)\in K$ . Así que utilizamos este hecho para definir $\phi(v)$ :

$$\phi(v)(\omega)=\omega(v)$$

Al final, acabaríamos escribiendo $\phi(v)=v$ así que al final, obtenemos $$v(\omega)=\omega(v)$$ y por eso el teorema que establece el isomorfismo $V\to V^{**}$ se llama teorema de reflexividad . Cuando vea $v(\omega)$ Sólo creo que es lo mismo que $\omega(v)$ .

0 votos

Gracias, señor. Su respuesta es muy buena. Por favor, no asumas que sé algo - soy completamente autodidacta, y sería muy útil tener esta gran respuesta editada una muesca o dos más abajo en la forma de suposiciones y abordar explícitamente las ecuaciones en el OP. Una cosa que sí he leído una y otra vez es el homomorfismo entre $V$ y $V^{**}$ para espacios vectoriales finitos.

0 votos

Haré todo lo que pueda. Quizá sea más fácil si me indica qué cosas no le quedan claras, para que pueda escribirlas con más detalle o de otra manera. Supongo que necesitas más detalles en el isomorfismo $V^{**}\to V$ así que voy a añadirlos a la solución.

0 votos

No entiendo el segundo párrafo: "En otras palabras, si $T $ debe aplicarse a $p$ covectores (elementos de $V^$ ), tendríamos que elegir $p$ elementos de $V^{}=V$ Eso es, $p$ vectores. Lo mismo funciona para $q$ . Si $T$ debe aplicarse a $q$ vectores, necesitaremos $q$ covectores".

3voto

fed Puntos 218

El espacio de los mapas lineales $f:V\to k$ es $V^*$ . Como tal, podemos demostrar que el espacio de mapas multilineales de $\Pi_i^n M_i$ a $k$ será exactamente $M_1^*\otimes M_2^*\otimes\dots \otimes M_n^*$ que es exactamente lo que ocurre aquí.

Por tanto, el espacio de mapas de $\Pi_1^p V\times \Pi_1^q V^*\to k$ sería $\bigotimes_1^p V^*\otimes \bigotimes_1^q V^{**}$

Dado que esta definición parece trabajar implícitamente con un espacio de dimensión finita $V^{**}$ puede sustituirse por $V$ .

0 votos

¿Podríamos dejar de lado los puntos finos y decir que en la segunda línea de la ecuación del espacio tensorial en el OP, el $q$ $V^*$ elementos están esperando para "comerse" un vector, y "escupir" un número real por cada uno de los $V^*$ y que los vectores que se les proporcionarán son los $q$ elementos de $V$ ? Probablemente no sea así, ya que parecería implicar que $p=q$ ...

2 votos

En $q$ $V^*$ elemetns en el producto tensorial que define el espacio tensorial representan el componente del tensor que "come" $q$ elementos de $V$ . No tiene por qué haber una relación entre $p$ y $q$ Creo que estás confundiendo $V$ s en la definición del producto tensorial como argumentos de $V^*$ que no lo son.

0 votos

OK... La mitad del problema está resuelto (?) - el p $V^*\times V^*$ esperan los p vectores en $V\otimes V$ para producir números que luego se multiplican. Entonces, ¿cuáles son los $V\times V$ vectores?

2voto

Andy Jacobs Puntos 4003

Probablemente no añadiré mucho nuevo, sólo utilizaré un lenguaje ligeramente diferente. A $V^*$ -términos de la ecuación $(2)$ para $(p,q)=(0,1)$ representa claramente un mapa lineal $V\to K$ (en eq $(3)$ )). Del mismo modo, $V$ (en ecuación $(2)$ con $(p,q)=(1,0)$ ) puede identificarse canónicamente con $V^{**}$ cuyos elementos son, por definición, mapas lineales $V^*\to K$ (es decir $(3)$ para $(p,q)=(1,0)$ ).

Utilizando la notación común en física, puede simplemente asumir una base fija y representar vectores en coordenadas como $v^i:=(v^1,\ldots, v^n)$ y duales como $\alpha_i:=(\alpha_1,\ldots,\alpha_n)$ y su emparejamiento $\alpha_i v^i:=\sum_i \alpha_i v^i\in K$ . Entonces puede preguntarse "¿qué es $v^i$ (¡un vector!) haciendo"? Respuesta: toma $\alpha_i$ y devuelve $\alpha_i v^i$ . Del mismo modo, ¿qué es $\alpha_i$ (¡un doble!) haciendo? Respuesta: toma $v^i$ y devuelve $\alpha_i v^i$ . Por supuesto, esta construcción se generaliza directamente. Lo que es $T^{i_1\ldots, i_p}_{j_1\ldots j_q}$ ¿Haciendo? Se necesita $(v_1)^{j_1},\ldots, (\alpha^p)_{i_p}$ --- En otras palabras, $q$ ve ctores y $p$ co y devuelve la suma correspondiente $$ \sum_{i_u,j_v} T_{j_1\ldots}^{i_1\ldots} \,\,(v_1)^{j_1}\ldots (\alpha^p)_{i_p} $$ La razón es que siempre se desea emparejar índices superiores (vectoriales) con índices inferiores y viceversa.

Además, pregunta

¿Podemos decir entonces que el $q$ elementos $V^*\otimes V^*\otimes\cdots$ en la Ec. (2) son funcionales lineales w vectores $V$ para producir números reales que luego se multiplican?

Aquí hay que tener más cuidado. Por comodidad, me limitaré a $V^*\otimes V^*$ ya que se generaliza inmediatamente. En cierto sentido, tienes razón y el objeto $T_{ij}$ (un elemento de $V^*\otimes V^*$ ) está "esperando" a dos vectores $v,w$ en el que se evaluará a $\sum T_{ij} v^i w^j$ .

Sin embargo, si tiene un elemento de $V^*\otimes V^*$ no hay forma de identificar "dos elementos" de $V^*$ que "representa". Observe que tiene un mapa natural $V^*\times V^*\to V^*\otimes V^*$ que a dos elementos $(\alpha,\beta)$ asigna $\alpha\otimes\beta$ que actúa sobre los vectores mediante $$ (\alpha\otimes\beta)(v,w):=\alpha(v) \beta(w). $$ Pero

  1. Este mapa no es suryectivo. Por ejemplo, un producto escalar sobre $\Bbb R^2$ no puede representarse de esta manera (ejercicio 1 para ti). De hecho, un tensor tiene esta forma si la matriz $T_{ij}$ definida anteriormente en coordenadas, tiene rango 1 (ejercicio 2 para ti)
  2. ¡Este mapa ni siquiera es lineal! (suponiendo la estructura lineal en $V^*\times V^*$ como $(\alpha,\beta)+(\alpha',\beta')=(\alpha+\alpha', \beta+\beta')$ ). Intente verificar que $(\alpha\otimes \beta)(v,w)+(\alpha'\otimes\beta')(v,w)\neq (\alpha+\alpha')\otimes (\beta+\beta')(v,w)$ en general (ejercicio 3 para ti).
  3. Sin embargo, este mapa es multilineal: $(\alpha+\alpha')\otimes \beta=\alpha\otimes \beta+\alpha'\otimes \beta$ y de forma similar en el segundo componente (ejercicio 4)
  4. Hay otra definición, quizá más natural, del producto tensorial que puede gustarte más y que evita completamente los "duales". Puede considerar $V^*\otimes V^*$ sea un espacio vectorial abstracto generado libremente por vectores $\alpha\otimes \beta$ donde $\alpha,\beta\in V^*$ donde sólo tiene las relaciones $(\alpha+\alpha')\otimes \beta=\alpha\otimes \beta + \alpha'\otimes \beta$ , $(k\alpha)\otimes \beta=k(\alpha\otimes \beta)$ etc. En otras palabras, puedes simplemente acostumbrarte a estas relaciones, ignorando por completo el significado de estos objetos. Entonces no necesitas todos esos duales que te molestan. (Ejercicio 5: demuestre la equivalencia de estos dos enfoques)

Además, tengo dos recomendaciones generales. Piense en un forma bilineal que es un tensor de tipo $(0,2)$ es decir, un elemento de $V^*\otimes V^*$ . En coordenadas, sólo una "matriz" $T_{ij}$ que actúa sobre dos vectores. Quizá ayude recorrer todos estos textos con esto en mente. Quizá intentar demostrar (ejercicio 6) que a forma bilineal puede identificarse con un lineal mapa $V\otimes V\to K$ (esto es confuso, lo sé)

La segunda recomendación: como este material es muy estándar y se enseña en todas las universidades, es cuestionable que la mejor manera de aprenderlo sea sólo por internet (si lo haces así, no lo sé). Quizá repasar un libro o algún curso de Coursarea podría ayudar.

0 votos

Gracias. Es confuso cuando pasamos a la ecuación (2) a (3) que donde había $V$ en la ecuación (2), hay $V^*$ en la ec. (3). Así que en su primer párrafo, ¿se refiere a la $V$ y $V^*$ en la ec.(2) o en la ec.(3)?

1 votos

@AntoniParellada He intentado añadir referencias más claras, espero que ahora esté mejor

0 votos

En efecto, está mucho más claro. Nunca fue un problema con tu respuesta, es un problema con mi comprensión, y la naturaleza "quisquillosa" de todos estos índices sin nombres inequívocos en inglés... Gracias por la corrección.

1voto

John Hughes Puntos 27780

¿Cuáles son todos los $(1,0)$ tensores en $V$ ? Son funciones lineales de $V^{*}$ a $\Bbb R$ . Resulta que cada función lineal de este tipo es simplemente "evaluar en un elemento de $V$ ". Así que se corresponden, 1 a 1, con elementos de $V$ . (Esto no funciona en dimensiones infinitas, pero para dimensiones finitas definitivamente).

¿Qué pasa con $(2,0)$ tensores en $V$ ? Son funciones bilineales sobre $V^{*}$ . Así que toman dos covectores y producen un número. Una forma de producir tal cosa es elegir un par de vectores $v$ y $w$ y anota

$$ T_{v,w}(\phi, \theta) = (\phi(v)) \cdot (\theta(w)) $$

Por supuesto, si eligió el par $(2v, w/2)$ se obtendría la misma función bilineal. Y también la misma función bilineal para $(v/3, 3w)$ etc. De hecho, TODA función bilineal sobre $V^{*}$ se parece a "evaluar en dos vectores y tomar el producto de los resultados" (o una suma de cosas así).

Así pues, estas funciones bilineales corresponden exactamente a elementos de $V \otimes V$ .

¿Ves el patrón aquí?

0 votos

Siempre he estado confundido entre este punto de vista y la construcción del producto tensorial en álgebra abstracta. En la construcción algebraica, los espacios duales no aparecen en absoluto. Pero en las aplicaciones físicas, lo único que importa es el espacio dual. ¿Cuál es el eslabón que falta para conectar estas dos ideas?

1 votos

Creo que te equivocas con la construcción del álgebra: se puede aplicar a espacios vectoriales arbitrarios y, en geometría diferencial, muchos de ellos acaban siendo espacios duales. En cuanto a la relación con la física... está fuera de mi campo de especialización, aunque me gusta pensar en los vectores duales como "medidas": un vector dual toma algo concreto (como un intervalo de tiempo, o un trozo de material) y le asocia un número real (la duración del tiempo, la masa real del material, etc.). Una vez que se piensa así, los "duales" parecen bastante naturales.

0 votos

@JohnHughes Gracias, la idea de un funcional como medida es útil.

i-Ciencias.com

I-Ciencias es una comunidad de estudiantes y amantes de la ciencia en la que puedes resolver tus problemas y dudas.
Puedes consultar las preguntas de otros usuarios, hacer tus propias preguntas o resolver las de los demás.

Powered by:

X