20 votos

Propiedades y notación de las derivadas parciales de tercer orden (y superiores)

Esta pregunta me preocupa desde hace tiempo y todavía no he encontrado una respuesta satisfactoria en ningún sitio de Internet ni en ninguno de mis libros (lo que puede no ser que avanzada, eso sí...). Como no he podido encontrar una pregunta similar aquí en MSE, probablemente sea bastante obvia si tienes un nivel suficientemente avanzado, cosa que yo no tengo (¡todavía soy estudiante y mis conocimientos de tensores son realmente escasos!) Por simplicidad, tomaré un ejemplo concreto para mi pregunta. Aquí está:

Dejemos que $f : \mathbb{R}^2 \rightarrow \mathbb{R}$ ; $(x,y) \rightarrow f(x,y)$ sea una función continua con dos variables $x$ y $y$ .

El "equivalente" de la primera derivada conocida de las funciones de una sola variable sería el gradiente:

$\nabla f = \left(\begin{array}{cccc} f_x \\ f_y \end{array}\right)$

La segunda derivada es la matriz hessiana: $H_f(x,y) = \left(\begin{array}{cccc} f_{xx} & f_{xy} \\ f_{yx} & f_{yy} \end{array}\right)$

¿Cómo es la derivada de tercer orden de esta función (o en general...)? He podido averiguar que es un tensor de orden $3$ . ¿Cómo se anota un objeto geométrico así?

En cuanto a las propiedades: el gradiente es un campo vectorial que representa la "pendiente" de la función en cualquier punto mediante un vector (es decir: una orientación y una magnitud). La matriz hessiana nos muestra la tasa de cambio del gradiente (¿uso correcto de las palabras?). Así que por esta analogía, la tercera derivada mide la tasa de cambio de la segunda derivada. ¿Pero cómo?

Siéntase libre de cambiar las etiquetas y editar mi respuesta, si lo considera necesario. ¡Espero con interés cualquier respuesta!

Gracias de antemano, SDV

1 votos

La convención de escribir las derivadas de los campos escalares en una columna es la peor práctica que existe

0 votos

@janmarqz Estoy de acuerdo, pero creo que es en la práctica porque decir "La derivada toma un punto y devuelve una función lineal, que a su vez toma vectores tangentes a ese punto en el origen y devuelve vectores tangentes a la imagen de ese punto en el codominio" es simplemente demasiado "de orden superior" para los estudiantes de cálculo multivariable

1 votos

Aunque personalmente creo que es un gran momento para estirar la mente de los estudiantes para que acepten este tipo de cosas.

10voto

Steven Gubkin Puntos 3929

He escrito un curso algo excéntrico sobre esto, que se puede encontrar aquí:

http://ximera.osu.edu/course/kisonecat/m2o2c2/course/activity/week1/

Una respuesta corta a su pregunta, sin embargo, es que si $f:\mathbb{R}^n \to \mathbb{R}$ entonces $D^{k+1} f$ es un localmente a $(k+1)$ -con la propiedad de que

$$ D^{k}f\big|_{p+v_{k+1}}(v_1,v_2,...,v_k) \approx D^{k}f\big|_{p}(v_1,v_2,...,v_k) +D^{k+1}\big|_{p}(v_1,v_2,...,v_k,v_{k+1}) $$

En otras palabras, el $(k+1)$ El derivado mide los cambios en el $k$ derivado.

Para escribir las cosas en una base, en notación de Einstein, tenemos

$$D^k f = f_{i_1i_2...i_k} dx^{i_1} \otimes dx^{i_2} \otimes ... \otimes dx^{i_k}$$

donde $f_{i_1i_2...i_k}$ es la derivada parcial superior de $f$ con respecto a $x_{i_1}$ entonces $x_{i_2}$ etc.

Debo señalar que el teorema de Taylor multivariable resulta especialmente fácil de escribir utilizando este formalismo:

$$ f(x+h) = f(x)+Df\big|_x (h)+\frac{1}{2!} D^2 f\big|_x (h,h)+\frac{1}{3!} D^3 f\big|_x (h,h,h)+... $$

Esto también puede iluminar la presencia de $\frac{1}{k!}$ en el teorema de Taylor: surge de la $k!$ permutaciones de los argumentos.

3 votos

Por ejemplo, $D^2f = \frac{\partial^2f}{\partial x^2}dx \otimes dx + \frac{\partial^2f}{\partial x \partial y}dx \otimes dy + \frac{\partial^2f}{\partial y \partial x}dy \otimes dx + \frac{\partial^2f}{\partial y^2} dy \otimes dy$

3 votos

Parece realmente difícil encontrar esta perspectiva en los libros de texto.

0 votos

Es aún mayor para los estudiantes de cálculo multivariable

7voto

Amitai Yuval Puntos 9374

El gradiente no es el equivalente real, aunque muchos textos lo tratan como si lo fuera.

El derivado de una función $f:\mathbb{R}^n\to\mathbb{R}$ en un punto $p\in\mathbb{R}^n$ es un $1$ -tensor, lo que significa que come un vector y escupe un número. Más concretamente, la cosa es obtener una función $I\to\mathbb{R}$ , donde $I$ es un segmento abierto en $\mathbb{R}$ y luego diferenciarlo. Así que dado un punto $p\in\mathbb{R}^n$ y una "dirección" $v\in\mathbb{R}^n$ definimos $g_{p,v}:(-\epsilon,\epsilon)\to\mathbb{R}$ por $t\mapsto f(p+tv)$ y luego: $$df_p(v)=g_{p,v}'(0).$$ Por lo tanto, como se ha afirmado anteriormente, el $1$ -tensor $df_p$ se come un vector ( $v$ la dirección), y devuelve un número (la derivada direccional correspondiente). Dado que $df_p$ es una transfomación lineal $\mathbb{R}^n\to\mathbb{R}$ la matriz adecuada para representarla es un vector de filas (en lugar de un vector de columnas).

El segunda derivada es un $2$ -tensor, es decir, se come dos vectores. El procedimiento es el siguiente: dado un punto $p\in\mathbb{R}^n$ y dos direcciones $u,v\in\mathbb{R}^n$ primero definimos $h_{p,u,v}:(-\epsilon,\epsilon)\to\mathbb{R}$ por $t\mapsto df_{p+tu}(v)$ y luego (usando $d^2f_p$ para el tensor de la segunda derivada) $$d^2f_p(u,v)=h_{p,u,v}'(0).$$ Desde $d^2f_p$ no es más que un forma bilineal puede ser representado por un $n\times n$ matriz.

Las derivadas superiores se definen de forma análoga, y sí, la $m$ La derivada es una $m$ -tensor, lo que significa que uno le da $m$ y devuelve un número. Se puede representar (si insistimos) por un $m$ matriz dimensional $n\times n\times\ldots\times n$ .

1 votos

¡Buena respuesta! ¿Dónde puedo encontrar más información sobre esto? ¿En un libro de geometría diferencial?

i-Ciencias.com

I-Ciencias es una comunidad de estudiantes y amantes de la ciencia en la que puedes resolver tus problemas y dudas.
Puedes consultar las preguntas de otros usuarios, hacer tus propias preguntas o resolver las de los demás.

Powered by:

X