Tiene mucho cuidado en distinguir un tensor sobre un espacio vectorial de sus componentes con respecto a una base, que (desgraciadamente) suelen tratarse como si fueran lo mismo en varios contextos. En este caso concreto, su principal objetivo es advertir a los estudiantes de que no deben confundir diferentes tensores sólo porque sus componentes puedan tener el mismo valor numérico (en una base determinada).
Por cierto, tiene otras series de conferencias; una sobre la relatividad general (véase la conferencia 3 sobre el álgebra multilineal) y otra llamada Anatomía geométrica de la física (o algo así; véase la conferencia 8 sobre la teoría del espacio tensorial sobre un campo). Puede que estas conferencias te resulten útiles.
Para que quede absolutamente claro, reuniré aquí algunas definiciones/teoremas. En lo que sigue, dejemos que $V$ sea un espacio vectorial de dimensión finita sobre un campo $\Bbb{F}$ (más tarde lo tomaremos como $\Bbb{R}$ pero por ahora no es necesario), y denotamos $V^*$ para ser el espacio dual. Entonces, tenemos la definición importante:
Definición.
Un $(r,s)$ tensor sobre $V$ es por definición un mapa multilineal $\underbrace{V^* \times \dots \times V^*}_{r \text{ times}} \times \underbrace{V \times \dots \times V}_{s \text{ times}} \to \Bbb{F}$ . El conjunto de todos estos $(r,s)$ los tensores se denotarán $T^r_s(V)$ .
También tenemos un teorema importante:
Teorema.
Si $V$ es un espacio vectorial de dimensión finita sobre $\Bbb{F}$ entonces $V$ es isomorfo a $(V^*)^* \equiv V^{**}$ el doble espacio dual. De hecho, el mapa $\iota : V \to V^{**}$ definida por el establecimiento para todos $v \in V$ y todos $\alpha \in V^*$ : \begin{align} \left(\iota(v) \right)(\alpha) &:= \alpha(v) \end{align} es un isomorfismo.
Utilizando el teorema anterior, se puede demostrar que $T^1_1(V)$ y $\text{End}(V)$ son canónicamente isomorfas; en otras palabras, se puede pensar en cualquier $(1,1)$ tensor como un endomorfismo o viceversa. A continuación, hacemos la definición de las componentes de un tensor relativas a una base:
Definición.
Dejemos que $T$ ser un $(r,s)$ tensor sobre $V$ . Sea $\{e_1, \dots, e_n\}$ sea una base de $V$ y que $\{\epsilon^1, \dots, \epsilon^n\}$ sea la base dual de $V^*$ . Entonces, la colección de números \begin{align} T(\epsilon^{i_1}, \dots \epsilon^{i_r}, e_{j_1}, \dots, e_{j_s}) \in \Bbb{F} \end{align} (donde los índices son $i_1, \dots, i_r, j_1, \dots, j_s \in \{1, \dots, n\}$ ) se denominan componentes del tensor $T$ con respecto a la base $\{e_1, \dots, e_n\}$ (y la base dual correspondiente). Estos números se escriben normalmente como $T^{i_1 \dots i_r}_{j_1 \dots j_s}$ para abreviar.
La razón de hacer esta definición de componentes es porque si se conocen todos estos componentes, se puede reconstruir de forma única el tensor como \begin{align} T = \sum T^{i_1 \dots i_r}_{j_1 \dots j_s}\,\, \iota(e_{i_1}) \otimes \dots \otimes \iota(e_{i_r}) \otimes \epsilon^{j_1} \otimes \dots \otimes \epsilon^{j_s}. \end{align} En otras palabras, una vez que se elige una base para el espacio vectorial, toda la información sobre el $(r,s)$ tensor $T$ está contenida en su totalidad en sus componentes, $T^{i_1 \dots i_r}_{j_1 \dots j_s}$ en relación con esa base (obsérvese cómo un $(r,s)$ tensor tiene $r$ índices arriba y $s$ índices abajo). Pero para divertirme, permítanme repetirlo de nuevo: todo esto requiere una elección de base .
Ahora, dejemos que $V$ sea un espacio vectorial de dimensión finita sobre $\Bbb{R}$ y que $g: V \times V \to \Bbb{R}$ sea un producto interno (probablemente lo denotó como $\langle \cdot, \cdot \rangle $ pero esto es mucho más largo de escribir así que lo llamaré $g$ ). Además, dejemos que $I: V \to V$ denotan el mapa de identidad. Observamos lo siguiente:
- Por definición, un producto interior (en un espacio vectorial REAL) es un mapa bilineal $V \times V \to \Bbb{R}$ es decir, es un $(0,2)$ tensor en $V$ . Como tal, si elegimos una base, podemos empezar a hablar de cuáles son sus componentes.
- El mapa de identidad $I: V \to V$ es un endomorfismo. Por mi observación anterior, para las dimensiones finitas $V$ , $\text{End}(V)$ es isomorfo a $T^1_1(V)$ . Denotaré la imagen del endomorfismo de identidad, $I$ bajo el isomorfismo $\text{End}(V) \to T^1_1(V)$ como tensor como $\tilde{I} : V^* \times V \to \Bbb{R}$ . Como es un tensor, podemos empezar a hablar de sus componentes en relación con una base.
Así que, ahora, dejemos $\{e_1, \dots, e_n\}$ sea una base para $V$ y $\{\epsilon^1, \dots \epsilon^n\}$ sea la base dual. Entonces, según mi definición anterior, denotamos las componentes de los tensores como \begin{align} g_{ij}:= g(e_i, e_j) \quad \text{and} \quad (\tilde{I})^i_j &:= \tilde{I}(\epsilon^i, e_j) \end{align} ¿A qué equivalen estos números? Para el segundo caso, si realmente te fijas en cómo se definió el isomorfismo, verás que $\tilde{I}(\epsilon^i, e_j) = \epsilon^i(e_j)$ (evaluando el vector base dual en el vector del espacio vectorial original), y esto es igual a \begin{align} \tilde{I}(\epsilon^i, e_j) &= \epsilon^i(e_j) = \begin{cases}1 & \text{if $i = j$} \\ 0 & \text{if $i \neq j$} \end{cases} \end{align} (la última igualdad es por definición de la base dual).
¿Qué es? $g(e_i, e_j)$ ? No podemos decirlo sin más información. Pero, si decimos que $\{e_1, \dots e_n\}$ es una base ortonormal, entonces por definición \begin{align} g_{ij} &= g(e_i, e_j) = \begin{cases}1 & \text{if $i = j$} \\ 0 & \text{if $i \neq j$} \end{cases} \end{align} (la última igualdad es por definición de "ortonormal").
Así, lo que vemos es que para todos $i,j$ los números $g_{ij}$ y $(\tilde{I})^i_j$ son iguales. Pero, ¿significa esto que los tensores reales $g$ y $\tilde{I}$ son iguales? Por supuesto que no; ni siquiera tienen el mismo "tipo", uno es un $(0,2)$ tensor, mientras que el otro es un $(1,1)$ tensor. Este es el punto que el profesor está tratando de hacer; él está tratando de evitar la confusión de dos tensores diferentes $g$ y $\tilde{I}$ dado que en una base ortonormal particular, sus componentes son iguales en valor numérico: $g_{ij} = (\tilde{I})^i_j$ .
Así que, ahora para el delta de kronecker, hay tres maneras de interpretarlo; la primera es puramente como un símbolo, así que $\delta^i_j$ , $\delta_{ij}$ , $\delta^{ij}$ , $^i\delta_j$ etc. son sólo símbolos cortos para el asignador de números a trozos: \begin{align} \begin{cases} 1 & \text{if $i = j$} \\ 0 & \text{if $i \neq j$} \end{cases} \end{align} (por supuesto, nadie escribe nunca $^i \delta_j$ o algo así; sólo escribí algunas tonterías para enfatizar el hecho de que este delta de kronecker debe ser interpretado enteramente como un símbolo, no siendo más que una forma concisa de enunciar un montón de números).
Pero como he mostrado anteriormente, existen tensores cuyas componentes con respecto a una base particular son iguales en valor numérico al símbolo del delta de kronecker; como resultado de esto, a veces lo que la gente hace es en lugar de escribir $g$ y $\tilde{I}$ como los nombres del tensor, se suele escribir $\delta$ para referirse al tensor abstracto. En este caso, es muy peligroso confundir la colocación de los índices, porque entonces estarás confundiendo el tipo de tensor que tienes realmente (los físicos suelen llevar la cuenta de sus tensores por el número de índices y su colocación). Así que, en última instancia, el profesor sólo quiere evitar esta confusión.