En cálculo multivariable hemos visto hasta ahora el gradiente y la hessiana,
Así que es natural preguntarse si $\nabla^3 f(x)$ existe
¿Alguien puede decirme qué viene después de la arpillera?
En cálculo multivariable hemos visto hasta ahora el gradiente y la hessiana,
Así que es natural preguntarse si $\nabla^3 f(x)$ existe
¿Alguien puede decirme qué viene después de la arpillera?
Consideremos un ( $k$ veces) función diferenciable $f: \Bbb R^n \to \Bbb R$ . La derivada de esta función $Df(\mathbf x)$ también se denomina gradiente y viene dado por $$Df(\mathbf x) = \pmatrix{\partial_1 f(\mathbf x) & \cdots & \partial_n f(\mathbf x)}$$
Se trata de un $n\times 1$ matriz de filas. Sin embargo, una vez fijado el vector $\mathbf x\in \Bbb R^n$ , $Df(\mathbf x)$ también puede considerarse una función de $\Bbb R^n\to \Bbb R$ . En particular, es la función lineal $$Df(\mathbf x)(\mathbf h) = \pmatrix{\partial_1 f(\mathbf x) & \cdots & \partial_n f(\mathbf x)}\pmatrix{h_1 \\ \vdots \\ h_n} = \sum_{i=1}^n h_i\partial_i f(\mathbf x)$$
¿Qué pasa con el segundo ¿derivado? Pues si $Df(\mathbf x)$ es una función de $\Bbb R^n\to \Bbb R$ entonces podríamos simplemente llamar a esta función $g$ y tomar su derivada. Sabemos que una vez fijado un vector $\mathbf y$ la derivada de $g$ viene dada por $Dg(\mathbf y)(\mathbf h) = \sum_{i=1}^n h_i\partial_i g(\mathbf y)$ . Luego volver a enchufar $Df(\mathbf x) = g$ obtenemos $$Dg(\mathbf y)(\mathbf h) = D^2f(\mathbf x)(\mathbf y)(\mathbf h) = \sum_{i=1}^n h_i\partial_i\sum_{j=1}^n y_j\partial_j f(\mathbf x) \stackrel{(*)}= \sum_{i=1}^n\sum_{j=1}^n h_iy_j\partial_i\partial_j f(\mathbf x)$$
donde $(*)$ es posible porque $\mathbf y$ fue fijo . En notación matricial, observe que se trata simplemente de $$D^2 f(\mathbf x)(\mathbf y)(\mathbf h) = \pmatrix{h_1 & \cdots & h_n}\pmatrix{\partial_1\partial_1 f(\mathbf x) & \cdots & \partial_1\partial_n f(\mathbf x) \\ \partial_2\partial_1 f(\mathbf x) & \cdots & \partial_2\partial_n f(\mathbf x) \\ \vdots & \ddots & \vdots \\ \partial_n\partial_1 f(\mathbf x) & \cdots & \partial_n\partial_n f(\mathbf x)}\pmatrix{y_1 \\ y_2 \\ \vdots \\ y_n} = \mathbf h^T[Hf(\mathbf x)]\mathbf y$$ donde $Hf(\mathbf x)$ es el Matriz hessiana de $f$ en $\mathbf x$ .
Utilizando la notación sumatoria hay una forma clara de continuar hasta la tercera (e incluso la $k$ ª) derivada. Por ejemplo, podemos ver que $$D^3f(\mathbf x)(\mathbf y)(\mathbf z)(\mathbf h) = \sum_{i=1}^n\sum_{j=1}^n\sum_{k=1}^n h_iz_jy_k\partial_i\partial_j \partial_kf(\mathbf x)$$ Sin embargo no hay forma de representar esta suma utilizando matrices. Lo que necesitaríamos es una forma de obtener un escalar (o equivalentemente un $1\times 1$ matriz) a partir de matrices de tres columnas y algún otro tipo de matriz, pero no hay ninguna forma de hacerlo que produzca el resultado correcto. Lo que necesitas es el concepto de tensor . Pero esto no suele tratarse en los cursos de cálculo multivariable, por lo que es poco probable que veas la $k$ derivada de una función de $\Bbb R^n\to \Bbb R$ .
Sin embargo, lo que deberías poder hacer ahora es evaluar la tercera derivada de a (al menos $3$ veces diferenciable) función $f:\Bbb R^n \to \Bbb R$ en la ordenada $4$ -pareja de puntos $(\mathbf x, \mathbf y, \mathbf z, \mathbf h)$ .
Una pequeña exposición sobre los tensores
A $k$ -es una función multilineal de $k$ copias de un espacio vectorial a escalares. Así, $T: \underbrace{V\times V \times \cdots \times V}_{k\text{ times}} \to \Bbb R$ donde $V$ es un espacio vectorial, es un $k$ -tensor. (Una pequeña nota: esta no es la definición completa de un tensor, pero funcionará para lo que estamos haciendo).
De ello se desprende que $Df(\mathbf x)$ definido por $[Df(\mathbf x)](\mathbf h) = \nabla f(\mathbf x)\cdot \mathbf h$ es un $1$ -tensor y $D^2f(\mathbf x)$ definido por $[D^2f(\mathbf x)](\mathbf h_1,\mathbf h_2) = {\mathbf h_2}^T[Hf(\mathbf x)]\mathbf h_1$ es un $2$ -tensor. Obsérvese que las expresiones matriciales dejan claro que $Df(\mathbf x)$ es una función lineal de $\Bbb R^n\to \Bbb R$ y $D^2f(\mathbf x)$ es un bi función lineal de $\Bbb R^n\times\Bbb R^n\to \Bbb R$ .
Entonces sabemos que la tercera derivada $D^3f(\mathbf x)$ debe definirse mediante $$[D^3f(\mathbf x)](\mathbf h_1, \mathbf h_2, \mathbf h_3) = \sum_{i,j,k} (\mathbf h_3)_i(\mathbf h_2)_j(\mathbf h_1)_k\partial_i\partial_j\partial_k f(\mathbf x)$$
Usando esto y continuando de la manera obvia, podemos ver que el $k$ polinomio de Taylor de orden a $k$ -veces función diferencial $f:\Bbb R^n\to \Bbb R$ en el punto $\mathbf x+\mathbf h$ viene dada por $$P_k(\mathbf x + \mathbf h) = f(\mathbf x) + [Df(\mathbf x)](\mathbf h) + \frac{1}{2!}[D^2f(\mathbf x)](\mathbf h,\mathbf h) + \cdots + \frac{1}{k!}[D^kf(\mathbf x)](\underbrace{\mathbf h,\cdots, \mathbf h}_{k \text{ arguments}})$$ donde $D^nf(\mathbf x)$ con $n\in\{1,2,\dots, k\}$ se define como arriba.
Compárese con la versión escalar del teorema de Taylor: Sea $f:\Bbb R\to \Bbb R$ ser un $k$ -veces función diferenciable. Entonces la $k$ polinomio de Taylor de $f$ en $x+h$ viene dada por $$P_k(x+h) = f(x) + f'(x)h + \frac1{2!}f''(x)h^2 + \cdots + \frac{1}{k!}f^{(k)}(x)h^k$$
Una pequeña crítica: en general un $k$ -tensor tomará $k$ distinto argumentos. En la fórmula de Taylor se da la situación relativamente inusual de que todos los argumentos son iguales.
Reescribí el principio de mi respuesta para mostrar cómo se especifica la función $D^nf(\mathbf x)$ antes de mostrar al final cómo se relaciona con el teorema de Taylor.
I-Ciencias es una comunidad de estudiantes y amantes de la ciencia en la que puedes resolver tus problemas y dudas.
Puedes consultar las preguntas de otros usuarios, hacer tus propias preguntas o resolver las de los demás.