El método de los multiplicadores de Lagrange se utiliza para encontrar los extremos de $f(x)$ sujeto a las restricciones $\vec g(x)=0$ donde$x=(x_1,\dots,x_n)$$\vec g=(g_1,\dots,g_m)$$m \leq n$.
A pesar de que muchos libros de texto de llegar a la final ecuaciones argumentando que en un extrema, la variación de $f(x)$ debe ser ortogonal a la superficie de la $g(x)=0$, el "simple" (y eso que se ve comúnmente en la teoría de campo / optimización funcionales) es la construcción de la función de Lagrange $$ L(x,\lambda) = f(x) + \vec\lambda\cdot\vec g(x) $$ y la variación de w.r.t. $x$ $\lambda$ para obtener el vector de ecuaciones $$ \begin{align} &x:& 0 &= \nabla f(x) + \sum_i \lambda_i \nabla g_i(x) \,, \\ &\vec \lambda:& 0 &= \vec g(x) \ . \end{align} $$
El método sólo funciona si el extremal punto es un punto habitual de la superficie de restricción, es decir, si $\mathrm{rnk}(\nabla\vec g) = m$.
¿Cuál es la mejor manera de entender lo que va mal cuando los extremos no es un punto habitual de la restricción?
Y, lo que es más importante para mí, ¿cómo esta generalizar a campo de las teorías (es decir, la optimización funcionales) con las restricciones locales? ¿Cuál es el equivalente de la regularidad a condición de que las limitaciones en el campo de la teoría?
Ejemplos instructivos son más que bienvenidos.