Processing math: 87%

1 votos

Multiplicadores de Lagrange y puntos críticos

Tengo (probablemente) un problema fundamental para entender algo relacionado con los puntos críticos y los multiplicadores de Lagrange.

Como sabemos, si una función asume un valor extremo en un punto interior de algún conjunto abierto, entonces el gradiente de la función es 0.

Ahora bien, cuando se trata de la optimización de restricciones mediante multiplicadores de Lagrange, también encontramos un valor extremo de la función restringido a alguna curva.

Entonces, ¿por qué en el caso de la optimización por restricciones no podemos buscar también puntos en los que el gradiente sea 0? ¿Qué me falta aquí?

Gracias.

1voto

Ya Basha Puntos 130

Porque el gradiente a lo largo de la restricción puede ser cero aunque el propio gradiente no lo sea. Por ejemplo, en R3 , toma la función f(x,y,z)=z y lo limitamos a la esfera unitaria. El gradiente de f es distinto de cero en todas partes.

Sin embargo, imagina que vives en la esfera y no tienes ni idea de que forma parte de un espacio mayor. Es decir, como hacemos en la Tierra si olvidamos que podemos volar hacia arriba o cavar hacia abajo. Entonces pensaríamos que el gradiente de la función f era cero en los polos norte y sur, simplemente porque en cualquier dirección que podamos concebir, f si está inmóvil en esos dos puntos. Esos son el tipo de puntos que los multiplicadores de Lagrange nos permiten encontrar.

Por supuesto, si el verdadero gradiente resulta ser cero en la restricción, entonces por supuesto también es cero a lo largo de la restricción. Sin embargo, ese es sólo un pequeño caso especial entre todos los casos en los que el gradiente a lo largo de la superficie es cero, y utilizando el método de los multiplicadores de Lagrange los recogemos automáticamente junto con todos los demás.

1voto

F.N Puntos 11

En realidad, en el método de Lagrange, sí se buscan puntos con gradiente cero, ¡pero esto se hace para la función de Lagrange y no para la dada! Creo que la diferencia entre los métodos de Lagrange y de la derivada se entiende mejor haciendo un solo ejemplo utilizando ambos métodos. El libro de Cálculo escrito por Stewart edición 6, ejemplos 14.7.6 p.928 y 14.8.1 p.936, contiene un ejemplo de este tipo hecho en ambos métodos. Por favor, anota las soluciones en ambos métodos en una hoja de papel en columnas separadas y compara los métodos. Aquí hay algunos puntos que pueden ayudar:

//

1- En el método de la derivada necesitamos una fórmula explícita de la función dada con variables dependientes e independientes especificadas. En cambio, al aplicar el método de Lagrange no es necesario decidir de antemano qué variable es dependiente o independiente, lo que supone una gran ventaja. //

2- Si quieres aplicar el método de Lagrange para una función como z=f(x,y), tienes que ir una dimensión más arriba y formar la nueva función F(x,y,z)=f(x,y)-z. Creo que has confundido grad(f) con grad(F), y esa fue la fuente de tu confusión-grad(F) es obviamente distinto de cero. En el método de la derivada buscas los puntos donde grad(f)=0, pero en el de Lagrange, primero haces la función de Lagrange L, que es una combinación de F y la restricción, y luego buscas los puntos donde grad(L)=0.

//

3-El método de la derivada trabaja para regiones sólidas en el dominio de la función original, mientras que en el método de Lagrange se trabaja con la envoltura de ciertas formas que son conjuntos de niveles de una función de una dimensión superior.

//

Espero que estas explicaciones ayuden.

0voto

Andy Puntos 21

Así que si el gradiente fuera cero en la superficie de la restricción, estaría bien (y satisfaría la condición de Lagrange). Pero normalmente esto no ocurre; por ejemplo, si estás extremando f(x,y)=x+y su gradiente nunca es 0 pero esta función sigue teniendo extremos en el círculo unitario.

El hecho clave aquí es que si S es la superficie {x:g(x)=0} el (hiper)plano tangente de S en cada punto es perpendicular al gradiente de g en ese punto. Esto significa que la condición de Lagrange puede entenderse como "el gradiente de f es perpendicular al (hiper)plano tangente de S ". Así que la condición de Lagrange te dice que si te mueves en una dirección tangente a S , f no cambiará a primer orden. Si lo hiciera, entonces se podría recorrer una distancia suficientemente corta en una dirección para aumentar f y una distancia suficientemente corta en la dirección opuesta para disminuir f . Por último, resulta que lo que hemos dicho sobre las direcciones tangentes se traslada a la propia superficie.

Por lo tanto, la condición de Lagrange es necesaria (bajo las hipótesis de "regularidad" del teorema del multiplicador de Lagrange, que incluye la calificación de la restricción - ver comentarios). Al igual que en el caso sin restricciones, no es suficiente.

0voto

H. H. Rugh Puntos 1963

Al buscar sólo los gradientes que desaparecen, normalmente se pierden los extremos de la restricción.

Supongamos que las restricciones vienen dadas por S={x:g1(x)=c1,...,gk(x)=0} . Tome cualquier C1 curva x(t) que satisface las restricciones y con x(0)=a . Entonces, para todos los i : 0=ddt|t=0gi(x(t))=gi(a)x(0)

Ahora bien, si f(x) tiene un extremo en a con estas limitaciones entonces también debemos tener 0=ddt|t=0f(x(t))=f(a)x(0) Esto está claramente bien si f(a)=λ1g1(a)++λkgk(a) es decir, es una combinación lineal de los gi(a) 's. Ahora es un teorema del álgebra lineal que esta es la única posibilidad. El teorema es que si W es un subespacio (en este caso, el tramo del gi(a) ) y uW entonces uW .

0voto

Hrhm Puntos 499

En este post, sólo voy a trabajar con 2 variables, pero esto se puede generalizar a n variables.

Maximizar f(x,y) cuando se limita a g(x,y)=0 .

Podemos expresar g(x,y) como una ecuación paramétrica, digamos (X(t),Y(t)) .

Digamos que (x0,y0) es un extremo de f(x,y) a lo largo de la curva g(x,y)=0 . Podemos encontrar un valor t0 tal que X(t0)=x0 y Y(t0)=y0 . Entonces, el punto t0 debe ser un extremo de la función f(X(t),Y(t)) . En otras palabras: df(X(t),Y(t))dt|t=t0=f(x,y)X(t)|t=t0dX(t)dt|t=t0+f(x,y)Y(t)|t=t0dY(t)dt|t=t0=0

Esto significa que f(X(t0),Y(t0))(dX(t)dt|t=t0,dY(t)dt|t=t0)=0 .

En otras palabras, el vector f(X(t0),Y(t0)) es perpendicular a (dX(t)dt|t=t0,dY(t)dt|t=t0) .

Además, sabemos que, mientras \displaystyle\left(\frac{dX(t)}{dt}\bigg|_{t=t_0},\frac{dY(t)}{dt}\bigg|_{t=t_0}\right) es un vector tangente a la curva g(x,y)=0 el vector \nabla g(X(t_0),Y(t_0)) es un vector normal (ya que g(x,y)=0 es un contorno). Ergo, concluimos que estos vectores también son perpendiculares.

Esto significa que \nabla f(X(t_0),Y(t_0))=\nabla f(x_0,y_0) y \nabla g(X(t_0),Y(t_0))=\nabla g(x_0,y_0) deben ser paralelos. En otras palabras \nabla f(x_0,y_0)=\lambda \nabla g(x_0,y_0) .

i-Ciencias.com

I-Ciencias es una comunidad de estudiantes y amantes de la ciencia en la que puedes resolver tus problemas y dudas.
Puedes consultar las preguntas de otros usuarios, hacer tus propias preguntas o resolver las de los demás.

Powered by:

X