Encontrar el gradiente de un campo escalar
Entiendo que se puede encontrar el gradiente de un campo escalar, en un número arbitrario de dimensiones así :
grad(f)=→∇f=⟨∂f∂x1,∂f∂x1,...,∂f∂xn⟩=[∂f∂x1∂f∂x2...∂f∂xn]
donde f es una función escalar, f:Rn→R . Y como se puede ver esto se generaliza de forma consistente a campos escalares de mayor dimensión. Todo esto está sacado del Cálculo Multivariable.
Encontrar el gradiente de un campo vectorial
Además, encontrar el gradiente de un campo vectorial, viene dado por un tensor, es decir, dado f sea una función vectorial, f:Rm→Rn :
grad(→f)=∇→f=T=[∂f1∂x1∂f1∂x2...∂f1∂xm∂f2∂x1∂f2∂x2...∂f2∂xm............∂fn∂x1∂fn∂x2...∂fn∂xm]
con T denotando el tensor (a n x n matriz de derivadas parciales de →f de los componentes escalares, es decir, rank- 0 componentes del tensor, corregidme si lo que he dicho en estos paréntesis está mal ) que nos indica cómo cambia el campo vectorial en cualquier dirección.
¿Cómo encontrar el gradiente de un campo tensorial?
¿Pero cómo se encuentra el gradiente de un campo tensorial? Entiendo que para responder a esta pregunta quizá tengamos que generalizar un poco más el concepto de campo tensorial.
Si entiendo bien, un escalar es un tensor de rango- 0 un vector es un tensor de rango- 1 . ¿Está bien entonces generalizar los campos escalares como campos tensoriales de rango- 0 y los campos vectoriales como campos tensoriales de rank- 1 ? Si es así, significa que hemos estado encontrando el gradiente de campos tensoriales (aunque de rango 0 siendo campos escalares) en nuestros cursos de Multivariable todo el tiempo, sólo que no lo sabíamos.
Extendiendo la lógica detrás del salto entre tomar el gradiente de un Campo Escalar, a tomar el gradiente de un Campo Vectorial, es entonces correcto decir que :
El gradiente de un campo tensorial de rango- n es un campo tensorial de rango-( n+1 ) ?