La forma más intuitiva que he encontrado para entenderlo es pensar en la formulación lagrangiana como una forma computacionalmente más manejable de aplicar la teorema de la función implícita . Requiere más esfuerzo mental que sacar un lagrangiano de la nada y pasar por las pruebas, pero llega al mismo lugar y, en última instancia, creo que proporciona una mejor motivación.
La idea básica es la siguiente: se elimina la restricción componiendo el funcional de coste con el operador de solución de la ecuación de la restricción. A continuación, se pueden tomar derivadas y encontrar los extremos del sistema compuesto utilizando el teorema de la función implícita. El sistema de ecuaciones que tienes que resolver basándote en una aplicación ingenua del teorema de la función implícita es un desperdicio, y una simplificación inteligente del sistema permite obtener los multiplicadores de Lagrange de forma natural.
Suponga que tiene
- una función de costes $F:X \rightarrow \mathbb{R}$ ,
- una función de restricción parametrizada $G:Q \times X \rightarrow X$ , ( $q \in Q$ es el parámetro)
- un operador de soluciones $S:Q \rightarrow X$ tal que $G(q,S(q))=b$ para cualquier $q\in Q$ ,
y quieres encontrar la sensibilidad de $F$ con respecto al parámetro $q$ pasando por el operador de la solución: $$\frac{d}{dq} F(S(q)).$$
En su caso, los espacios y operadores son
- $X=\mathbb{R}^2$ , $Q=\mathbb{R}^1$ ,
- $F(x_1,x_2)=f(x_1,x_2)$ ,
- $G(q,(x_1,x_2))=(g(x_1,x_2), q-x_1)^T$
- $b=(c,0)^T$ .
Le site teorema de la función implícita nos dice cómo calcular esta derivada total en términos de derivadas parciales de cosas que conocemos: $$\frac{d}{dq} F(S(q)) \cdot \delta q = F^{'}_x(S(q)) \circ [G^{'}_x (q,S(q))]^{-1} \circ G^{'}_q (q,S(q)) \cdot \delta q.$$
Esto es teóricamente todo lo que se necesita para encontrar los puntos críticos de un problema de optimización suave, pero hay un problema importante: para usarlo hay que calcular la inversa de la matriz $[G^{'}_x (q,S(q))]^{-1}$ que puede ser muy difícil.
Por otro lado, calcular la inversa completa es un desperdicio ya que $[G^{'}_x ]^{-1}:X \rightarrow X$ (matriz n por n), mientras que el operador a su izquierda es $F^{'}_x : X \rightarrow \mathbb{R}$ (vector 1 por n). Podemos ignorar con seguridad la acción de $[G^{'}_x ]^{-1}$ en cualquier dirección que esté en el núcleo de $F^{'}_x$ ya que los vectores en ese núcleo se envían a cero de todos modos.
Por lo tanto, es natural buscar un representante de Riesz $\lambda$ para el operador combinado $F_x \circ [G^{'}_x]^{-1}: X \rightarrow \mathbb{R}$ . Es decir, un vector $\lambda$ tal que $$F_x \circ [G^{'}_x]^{-1} \cdot x = (\lambda,x) ~~~ \forall x \in X$$ O dándole la vuelta a la ecuación, queremos $\lambda$ que resuelve $$G^{'}_x \lambda = F^{'}_x,$$ la conocida ecuación del multiplicador de Lagrange. Tenemos que resolver un sistema n por n una vez para un solo lado derecho, en lugar de invertirlo completamente para cualquier lado derecho posible. Entonces, la evaluación de las derivadas implícitas es mucho más sencilla, con la conocida fórmula $$\frac{d}{dq} F(S(q)) \cdot \delta q = (\lambda, G^{'}_q (q,S(q)) \cdot \delta q).$$
Por lo tanto, la "lagrangiana" puede verse como una abreviatura conveniente para el objeto cuyo gradiente le da las ecuaciones correctas para calcular las derivadas implícitas de manera eficiente.
(Como apunte, también hay una motivación completamente diferente para el lagrangiano de la teoría de juegos - espero que alguien más publique más sobre ello).