8 votos

Demostrando Lagrange método mediante el Teorema de la Función Implícita

Estoy tratando de mostrar la prueba del multiplicador de Lagrange método. De acuerdo a esto, en general, si $f$ $g$ $D+1$ dimensiones de las funciones que $f,g : \mathbb{R}^{D+1} \mapsto \mathbb{R}$, y si el punto de $p$ $p=(x',y')$ donde $x'$ $D$ dimensiones del vector y $y'$ es un escalar, es restringido local del extremo sujeto a la restricción $g(x,y)=0$$\dfrac{\partial g(p)}{\partial y} \neq 0$, en $p$ $\nabla f(p) = \lambda \nabla g(p)$.

Mi enfoque utilizando el teorema de la función implícita es la siguiente: A partir de la declaración anterior, por $g$, se puede determinar una bola alrededor de $x'$ $r > 0$ tal forma que hay una función de $h: B(x',r) \mapsto \mathbb{R}$ e es $g(x,h(x))=0$ por cada $x \in B(x',r)$. En esta pelota, podemos decir $f$ $f(x,h(x))$ que siempre satisface la restricción. Ahora, en $B(x',r)$ con las restricciones de optimización de $f(x,h(x))$ nos dará la limitación de punto extremo, $(x',y')$ y a las $x'$ el gradiente de $f(x,h(x))$ wrt $x$ se desvanece. Así es en $p=(x',y')$ $$\sum_{i=1}^D \dfrac{\mathrm{d} F}{\mathrm{d} x_i}=\sum_{i=1}^D (\dfrac{\partial F}{\partial x_i} + \dfrac{\partial F}{\partial y}\dfrac{\partial h}{\partial x_i} )=0$$

Podemos diferenciar $g(x,h(x))$ $p=(x',y')$ wrt a$x$. Debe ser trivialmente igual a cero. Así, es $$\sum_{i=1}^D \dfrac{\mathrm{d} g}{\mathrm{d} x_i}=\sum_{i=1}^D (\dfrac{\partial g}{\partial x_i} + \dfrac{\partial g}{\partial y}\dfrac{\partial h}{\partial x_i} )=0$$.

He obtenido todas las partes que pertenecen a los gradientes de dos funciones de $f$$g$, pero todavía no estoy capaz de mostrar $\nabla f(p) = \lambda \nabla g(p)$. Lo que falta en mi construcción, ¿cómo podemos llegar a esta declaración de los derivados escrito arriba?

4voto

Jesus RS Puntos 2014

Uno escribe que el gradiente de $\alpha(x)=f(x,h(x))$ wrt x se desvanece como usted dice. Usando la regla de la cadena para calcular las derivadas respecto de la $x_j$'s: $$ 0=\frac{\partial\alpha}{\partial x_j}=\Big(\sum_{i=1}^D\frac{\partial f}{\partial x_i}\frac{\partial x_i}{\partial x_j}\Big)+ \frac{\partial f}{\partial y}\dfrac{\partial h}{\partial x_i}=\frac{\partial f}{\partial x_j}+ \frac{\partial f}{\partial y}\dfrac{\partial h}{\partial x_i} \quad (1\le j\le D). $$ Del mismo modo, de $g(x,h(x))=0$ uno se $$ \phantom{\frac{\partial\alpha}{\partial x_j}}0=\frac{\partial g}{\partial x_j}+ \frac{\partial g}{\partial y}\dfrac{\partial h}{\partial x_i}\quad (1\le j\le D). $$ El primer sistema de ecuaciones decir $\nabla f$ es proporcional a $\nabla h$, y el segundo gradiente viene el segundo sistema. Explícitamente $$ \nabla f=-\frac{\partial f}{\partial y}\nabla h=\frac{\frac{\partial f}{\partial y}}{\frac{\partial g}{\partial y}}\nabla g=\lambda\nabla g, $$ lo cual es posible mediante la suposición de $\frac{\partial g}{\partial y}\ne0$ (todo en el punto dado). Propiamente hablando, los sistemas de darle a $\lambda$ $x_i$- componentes del gradiente, mientras que para el $y$-componente funciona trivialmente. De hecho, se podría haber predicho el valor de $\lambda$ solo busca que el último componente.

i-Ciencias.com

I-Ciencias es una comunidad de estudiantes y amantes de la ciencia en la que puedes resolver tus problemas y dudas.
Puedes consultar las preguntas de otros usuarios, hacer tus propias preguntas o resolver las de los demás.

Powered by:

X