7 votos

Encontrar el gradiente de un campo tensorial

Encontrar el gradiente de un campo escalar

Entiendo que se puede encontrar el gradiente de un campo escalar, en un número arbitrario de dimensiones así :

$$grad(f) = \vec{\nabla}f = \left<\frac{\partial f}{\partial x_{1}}, \frac{\partial f}{\partial x_{1}},...,\frac{\partial f}{\partial x_{n}}\right> = \begin{bmatrix} \frac{\partial f}{\partial x_{1}} \\ \frac{\partial f}{\partial x_{2}} \\ ... \\ \frac{\partial f}{\partial x_{n}} \end{bmatrix}$$

donde $f$ es una función escalar, $f: \mathbb{R^n} \to \mathbb{R}$ . Y como se puede ver esto se generaliza de forma consistente a campos escalares de mayor dimensión. Todo esto está sacado del Cálculo Multivariable.

Encontrar el gradiente de un campo vectorial

Además, encontrar el gradiente de un campo vectorial, viene dado por un tensor, es decir, dado $f$ sea una función vectorial, $f : \mathbb{R^m} \to \mathbb{R^n}$ :

$$grad(\vec{f}) = \displaystyle \nabla \vec{f} = T = \begin{bmatrix} \frac{\partial f_1}{\partial x_1} & \frac{\partial f_1}{\partial x_2} & ... & \frac{\partial f_1}{\partial x_m} \\ \frac{\partial f_2}{\partial x_1} & \frac{\partial f_2}{\partial x_2} & ... & \frac{\partial f_2}{\partial x_m} \\ ... & ... & ... & ... \\ \frac{\partial f_n}{\partial x_1} & \frac{\partial f_n}{\partial x_2} & ... & \frac{\partial f_n}{\partial x_m} \\ \end{bmatrix}$$

con $T$ denotando el tensor (a $n\ $ x $\ n$ matriz de derivadas parciales de $\vec{f}$ de los componentes escalares, es decir, rank- $0$ componentes del tensor, corregidme si lo que he dicho en estos paréntesis está mal ) que nos indica cómo cambia el campo vectorial en cualquier dirección.


¿Cómo encontrar el gradiente de un campo tensorial?

¿Pero cómo se encuentra el gradiente de un campo tensorial? Entiendo que para responder a esta pregunta quizá tengamos que generalizar un poco más el concepto de campo tensorial.

Si entiendo bien, un escalar es un tensor de rango- $0$ un vector es un tensor de rango- $1$ . ¿Está bien entonces generalizar los campos escalares como campos tensoriales de rango- $0$ y los campos vectoriales como campos tensoriales de rank- $1$ ? Si es así, significa que hemos estado encontrando el gradiente de campos tensoriales (aunque de rango 0 siendo campos escalares) en nuestros cursos de Multivariable todo el tiempo, sólo que no lo sabíamos.

Extendiendo la lógica detrás del salto entre tomar el gradiente de un Campo Escalar, a tomar el gradiente de un Campo Vectorial, es entonces correcto decir que :

El gradiente de un campo tensorial de rango- $n$ es un campo tensorial de rango-( $n+1$ ) ?

5voto

Derek Elkins Puntos 417

Un tensor no es más que una función escalar multilineal. Si escribo $V \multimap W$ para la colección de funciones lineales de un espacio vectorial $V$ a un espacio vectorial $W$ entonces, sobre los reales, un rango $n$ tensor es simplemente $V^{\otimes n}\multimap\mathbb R$ donde $V^{\otimes n}$ significa que el $n$ -producto tensorial doble, por ejemplo $V^{\otimes 2} = V\otimes V$ . Un campo tensorial no es más que una familia de tensores suavemente indexados.

Para simplificar, sólo hablaré del colector $\mathbb{R}^n$ pero en cualquier lugar escribo explícitamente $\mathbb{R}^n$ (a diferencia de $V$ ), también se podría utilizar un submanifold de $\mathbb{R}^n$ por ejemplo, una curva unidimensional en $\mathbb{R}^n$ . Un rango $k$ campo tensorial en $\mathbb{R}^n$ es una función (convenientemente suave) $\tau : \mathbb{R}^n \to (V^{\otimes k} \multimap \mathbb R)$ donde $V$ es en sí mismo $\mathbb{R}^n$ . Ahora digamos que escribimos la derivada direccional de $\tau$ en alguna dirección $v \in V$ en $x \in \mathbb{R}^n$ como $D(\tau)(x; v)$ . El resultado en sí sería un rango- $k$ tensor, es decir $D(\tau)(x; v) : V^{\otimes k} \multimap \mathbb R$ . Entonces, ¿cuál es el tipo de $D(\tau)$ sí mismo. Bien sabemos el tipo de $\tau$ y sabemos el tipo de $V$ y sabemos $D(\tau)(x; v)$ es lineal en $v$ y no lineal en $x$ . Así que tenemos $$D(\tau) : \mathbb{R}^n \to (V \multimap (V^{\otimes k}\multimap\mathbb{R}))$$ pero es fácil demostrar que $(V \multimap (V^{\otimes k}\multimap\mathbb{R})) \cong (V\otimes V^{\otimes k} \multimap \mathbb R) = (V^{\otimes k+1}\multimap \mathbb R)$ . Es decir $D(\tau)$ en función de $x$ solo - esencialmente currying $D(\tau)$ - es un rango- $(k+1)$ campo tensorial.

Así que para responder a tu pregunta, encuentras el gradiente de un campo tensorial viendo la derivada direccional como una función lineal de la dirección. Cuando se tiene una base, como en el caso de $\mathbb{R}^n$ Esta función lineal puede representarse mediante un vector de derivadas parciales (que son derivadas direccionales a lo largo de las direcciones de la base). Un poco más concretamente, $$D(\tau)(x)_i = \frac{\partial\tau}{\partial x_i}(x)$$

Y sí, incluso en la escuela secundaria, el cálculo de una sola variable hacía esto para los $n = 1$ caso. Es que $\mathbb{R}^{\otimes k} \cong \mathbb{R}$ para cualquier $k$ y $(\mathbb{R}\multimap\mathbb{R}) \cong \mathbb{R}$ .

i-Ciencias.com

I-Ciencias es una comunidad de estudiantes y amantes de la ciencia en la que puedes resolver tus problemas y dudas.
Puedes consultar las preguntas de otros usuarios, hacer tus propias preguntas o resolver las de los demás.

Powered by:

X