Problema: minimizar $F(x,y,y')$$x$, limitada por $G(x,y,y')=0$.
$$J_1(x,y,y')=\large \int_{x_0}^{x_1}F(x,y,y')+ \lambda (x) G(x,y,y')dx$$
Entiendo que el de Euler-Lagrange ecuación y multiplicadores de Lagrange en multivariable (es decir, no variacional) cálculo, pero estoy teniendo un tiempo difícil ponerlos juntos, no entiendo la lógica detrás de esta ecuación.
- Es este el mismo $\lambda$ que aparece en el multivariable $\nabla f (x,y)= \lambda \nabla g (x,y) $? Si es así, ¿por qué no es también una función de $y$?
- Por el lema fundamental del cálculo de variaciones, no $ \int_{x_0}^{x_1}\lambda (x) G(x,y,y')dx=\int_{x_0}^{x_1}\lambda (x) 0dx=0$, lo $J=J_1$, y por lo que la restricción no ha tenido ningún efecto en la integral?
-
Lo que es más importante, ¿qué es la prueba de que si el mínimo de $J_1$ (es decir, el de Euler-Lagrange las ecuaciones están satisfechos con esta nueva integrando) $G$ va a ser limitada correctamente?
En resumen: ¿cuál es la lógica detrás de esa integrando?
Nota al margen: Sin restricciones, el problema es simplemente para minimizar $$J(x,y,y')=\large \int_{x_0}^{x_1}F(x,y,y')dx$$ es decir, resolver el de Euler-Lagrange ecuación para el funcional $F$ y la variable $y$. (Pregunta: ¿por qué es $G$ generalmente dada como una función de sólo$x$$y$, e $J$$y$? Seguramente en $J$'s caso de que esto limita el número de posibles funcionales $F$ [como la integral no debe ser una función de la $x$ o $y'$], y en $G$'s caso hay muchas posibles limitaciones que implican $y'$ que son pasados por alto?).