Queremos llegar a una definición de derivada funcional que nos permita aprovechar el principio de que los puntos extremos son puntos estacionarios para resolver problemas de optimización de funcionales.
Recapitulemos cómo se generalizan las derivadas de una sola variable real a muchas variables reales: dejemos que f:Rd→R Se puede definir entonces
∂→vf(→x):=lim
para ser la derivada de f en dirección a \vec{v}\in\mathbf{R}^{d} en el punto \vec{x}\in\mathbf{R}^{d} .
Pensé entonces en hacer algo similar para los funcionales F:C(\mathbf{R})\to\mathbf{R} : definir
\partial_{\eta} F[f] := \lim_{\varepsilon\to0} \frac{F[f+\varepsilon\eta] - F[f]}{\varepsilon}
para ser la derivada funcional de F en la "dirección" de \eta\in C(\mathbf{R}) en el "punto" f\in C(\mathbf{R}) (la adición y la multiplicación escalar de las funciones se hace puntualmente). Entonces, como decimos que un f:\mathbf{R}^{d}\to\mathbf{R} es estacionario en un punto \vec{x}\in\mathbf{R}^{d} si
\forall\vec{v}\in\mathbf{R}^{d}\qquad \partial_{\vec{v}}f(\vec{x}) = 0
podemos decir que un F:C(\mathbf{R})\to\mathbf{R} es estacionario en un punto f\in C(\mathbf{R}) si
\forall\eta\in\mathbf C(\mathbf{R}) \qquad \partial_{\eta} F[f] = 0
y luego, si queremos optimizar alguna función F pasamos a la ecuación funcional \partial_{\eta}F[f] = 0 .
Sin embargo, parece que, por desgracia, la definición anterior de derivada funcional no es útil. Intenté usarla para optimizar ciertas funcionales pero terminó en un sinsentido (ver más abajo) . Además, según Wikipedia la derivada funcional se define de forma diferente, aunque similar; concretamente: la derivada funcional \frac{\delta F}{\delta f} (aparentemente una función real) se define para satisfacer
\int \frac{\delta F}{\delta f}(x) \eta(x) \, dx = \partial_{\eta}F[f]
donde el RHS emplea la notación desarrollada en este post.
Me interesaría que se justificara esta definición: ¿por qué es la correcta? ¿Y qué tiene de malo mi definición?, ¿por qué no es útil?
Este es un ejemplo de intento de utilizar \partial_{\eta}F = 0 para optimizar una función F : dejar
F[f] = \int\limits_{0}^{1}\sqrt{1 + (f'(x))^{2}} \, dx
queremos minimizar F con sujeción a f(0) = a y f(1) = b digamos. Entonces
\begin{align*} \partial_{\eta} F[f] &= \lim_{\varepsilon\to0}\frac{\int\limits_{0}^{1}\sqrt{1+(f(x)+\varepsilon\eta(x))'^{2}} \, dx- \int\limits_{0}^{1}\sqrt{1+f'(x)^{2}}\,dx}{\varepsilon} \\ &= \lim_{\varepsilon\to0} \int\limits_{0}^{1}\frac{\sqrt{1+(f'(x)+\varepsilon\eta'(x))^{2}} - \sqrt{1+f'(x)^{2}}}{\varepsilon}\, dx \\ &= \int\limits_{0}^{1}\lim_{\varepsilon\to0}\frac{\sqrt{1+(f'(x)+\varepsilon\eta'(x))^{2}} - \sqrt{1+f'(x)^{2}}}{\varepsilon}\, dx \\ &= \int\limits_{0}^{1}\frac{f'(x)\eta'(x)}{\sqrt{1+f'(x)^{2}}}\,dx = 0 \qquad \forall\eta \end{align*}
Ahora, por el lema fundamental del cálculo de variaciones,
\begin{align*} \frac{f'(x)}{\sqrt{1+f'(x)^{2}}} &= 0 \qquad \forall x\\ \therefore f'(x) &= 0 \qquad \forall x \end{align*}
pero esto es incorrecto. La solución es una línea recta, cuya derivada no es necesariamente idéntica a cero. ¿Qué estoy haciendo mal?