Aunque esto es raramente destacó, ciertos tensores ya aparecen naturalmente en el contexto de multi-variable cálculo en $\mathbb{R}^n$. Si uno quiere tratar a todas las derivadas de orden superior de una función de $f$ en un sistema unificado, base independiente y de forma coherente, es una ventaja, naturalmente, a la noción de (simétrica) tensores de diversos órdenes. Desde esta perspectiva, es natural para discutir los tensores de orden arbitrario juntos y juntarlas porque tensores de orden superior aparecen de forma natural, como las derivadas de orden inferior tensores. Por ejemplo, si usted se preocupa acerca de la segunda derivada (también conocido como el de Hesse) de una función escalar (un $(0,0)$-tensor), usted debe preocuparse acerca de la $(0,2)$-tensores.
Permítanme demostrar cómo funciona esto:
Deje $f = (f_1, \dots, f_m) \colon \mathbb{R}^n \rightarrow \mathbb{R}^m$ ser suave, un mapa (en el sentido de que todos los posibles derivadas parciales de las $f_i$ de todos los pedidos de existir). Entonces:
- La primera derivada (o diferenciales) de $f$ a un punto de $p \in \mathbb{R}^n$ se define como la única lineal mapa de $(Df)(p) = Df|_p \colon \mathbb{R}^n \rightarrow \mathbb{R}^m$ que satisface
$$ \lim_{h \to 0} \frac{f(p + h) - f(p) - (Df|_p)(h)}{\| h \|_{\mathbb{R}^n}} = 0. $$
Al $m = 1$, el escalares $Df|_p(h)$ nos da la derivada direccional $\frac{d}{dt} f(p + th)|_{t = 0}$ $f$ a un punto de $p$ en la dirección $h$. En general, la lineal mapa de $Df|_p$ puede ser representado con respecto a las bases canónicas de $\mathbb{R}^n$ $\mathbb{R}^m$ $m \times n$ matriz
$$ \begin{pmatrix} \frac{\partial f_1}{\partial x^1} & \dots & \frac{\partial f_1}{\partial x^n} \\
\vdots & \ddots & \vdots \\
\frac{\partial f_m}{\partial x^1} & \dots & \frac{\partial f_m}{\partial x^n} \end{pmatrix} $$
pero cuando nos movemos en el contexto de los colectores, no vamos a tener una noción de "bases estándar" así que lo mejor es pensar que de la primera derivada $Df_p$ lineal en el mapa y no como una matriz.
Por último, una lineal mapa de $\mathbb{R}^n \rightarrow \mathbb{R}^m$ puede ser identificado de forma natural con un elemento del producto tensor $\left( \mathbb{R}^n \right)^{*} \otimes \mathbb{R}^m$, por lo que el total de la primera derivada $p \mapsto Df(p)$ es un buen mapa de$\mathbb{R}^n$$\left( \mathbb{R}^n \right)^{*} \otimes \mathbb{R}^m$.
- El segundo derivado $(D^2f)(p) = D^2f|_p$ $f$ a un punto de $p$ es la primera derivada de la mapa de $p \mapsto Df(p)$$p$. El mapa de $p \mapsto Df(p)$ es un buen mapa de $\mathbb{R}^n$ $\operatorname{Hom}(\mathbb{R}^n, \mathbb{R}^m)$(de la cual podemos identificar por el uso de las bases de $M_{m \times n}(\mathbb{R}) \cong \mathbb{R}^{m \times n}$) por $(D^2f)(p)$ es lineal en el mapa con la firma
$$(D^2f)(p) \colon \mathbb{R}^n \rightarrow \operatorname{Hom}(\mathbb{R}^n, \mathbb{R}^m). $$
Este tipo de mapas son, naturalmente, identificado con bilineal mapas de $\mathbb{R}^n \times \mathbb{R}^n \rightarrow \mathbb{R}^m$ cual, de nuevo, puede ser identificado como elementos de $\left( \mathbb{R}^n \right)^{*} \otimes \left( \mathbb{R}^n \right)^{*} \otimes \mathbb{R}^m$.
De manera más general, el $k$-ésima derivada de $f$ resulta ser un suave mapa de $\mathbb{R}^n$ a el espacio
$$\underbrace{\left( \mathbb{R}^n \right)^{*} \otimes \dots \otimes \left( \mathbb{R}^n \right)^{*}}_{k\text{ times}} \otimes \mathbb{R}^m $$
que, en su nota, sería un $(0,k)$ ($\mathbb{R}^m$-valorado) tensor de campo en $\mathbb{R}^n$. Si $m = 1$, esto es sólo un $(0,k)$ tensor de campo.
Si $n = m$ (y entonces podemos pensar que de $f$ como un campo de vectores en $\mathbb{R}^n$) $k$- ésima derivada de $f$ $(1,k)$- tensor en $\mathbb{R}^n$.