6 votos

Intuición detrás del principio variacional

Hofer-Zehnder, en la sección 1.5, demuestra que todo campo hamiltoniano sobre una superficie de energía regular estrictamente convexa y compacta lleva una órbita periódica. He entendido la prueba. Lo que me pregunto es cómo obtiene los principios variacionales. Al principio de la prueba se encuentra una función $H$ teniendo la hipersuperficie convexa dada como superficie de energía y satisfaciendo la homogeneidad positiva de grado dos, la definición positiva del hessiano, y $\mathcal{C}^2$ regularidad. Entonces la prueba normaliza el período para obtener el período $2\pi$ y luego se va:

Por ejemplo, el principio variacional:

$$\min\int_0^{2\pi}H\big(x(t)\big)\,dt\quad{\rm under}\quad\frac{1}{2}\int_0^{2\pi}\langle Jx,\dot x\rangle=1.$$

[ ] tiene las ecuaciones anteriores como ecuaciones de Euler.

En primer lugar, ¿qué son las ecuaciones de Euler de un principio variacional? Y en segundo lugar, ¿cómo han conseguido este principio en particular?

Actualización

Permítanme precisar mi pregunta. Hay 3-4 puntos con los que tengo problemas.

  1. ¿Por qué consideran este principio con esta extraña restricción de que la integral sea 2? Es decir, ¡ni siquiera es un espacio vectorial! Quizá ni siquiera sea un espacio afín, no tiene ninguna propiedad particular. ¿Por qué debería ser útil esta restricción? ¿Y por qué ese funcional?
  2. ¿Cómo puedo obtener las ecuaciones de Euler para este principio, y cuáles son? Si intento decir "derivadas direccionales 0", me bloqueo enseguida, porque ¿cómo se supone que debo hacer la variación?
  3. El libro continúa, y dice que este funcional no alcanza ni el infimum, ni el supremum. ¿Cómo se pueden demostrar estas afirmaciones?
  4. El libro entonces transformaciones de Legendre $H$ en $G$ , da las propiedades de $G$ e introduce el mismo principio en $G$ :

    $$\min\int_0^{2\pi}G(\dot z)\,dt\quad{\rm under}\quad\frac{1}{2}\int_0^{2\pi}\langle Jz,\dot z\rangle=1.$$

    De nuevo, ¿por qué debería considerar este principio concreto, con esta restricción concreta? Es decir, he entendido el resto de la prueba, así que sé que este es el principio correcto a considerar, pero ¿cómo se llegó a él? ¿Hay alguna razón que haga pensar en este principio como una posible elección correcta?

4voto

krvolok Puntos 821

No consideremos por ahora una trayectoria cerrada sino alguna curva suave $\gamma:[0,1]\to M$ y considerar la función $$S[\gamma]:=\int_0^1 \sum_ip_i(\gamma(t)) \mathrm d q_i(\gamma(t))-H(\gamma(t)) \mathrm d t$$ donde estoy trabajando en un gráfico con coordenadas $(q_1,\dots,q_n,p_1,\dots,p_n)$ . Un viejo problema de la mecánica clásica (encontrar trayectorias con puntos finales fijos) se formuló de manera que esta función es estacionaria respecto a la verdadera trayectoria física. Puedes leer más sobre cómo funciona el cálculo de variaciones, así que aquí obtendré la primera variación de esta función de forma un poco heurística. Para obtener la variación, calculamos $S[\gamma + \epsilon \eta]-S[\gamma]=\epsilon \delta S[\gamma]+O(\epsilon^2)$ , donde $\eta:[0,1]\to M$ es una variación con $\eta(0)=\eta(1)=0$ . En la práctica, podemos obtener la variación operando con $\delta$ como si fuera una diferencial ordinaria, así por ejemplo $\delta(a b)=a\delta b + b\delta a$ , $\delta(f(x,y))=f_x \delta x + f_y \delta y$ etc. El hamiltoniano depende explícitamente de $H(p_1(\gamma(t)),q_1(\gamma(t)),\dots,p_n(\gamma(t)),q_n(\gamma(t)))$ Así que al variar esto obtenemos

$$\delta S = \int_0^1 \sum_i\left(\delta p_i \mathrm d q_i + p_i\mathrm d \delta q_i\right)-\sum_i\left(\frac{\partial H}{\partial p_i}\delta p_i + \frac{\partial H}{\partial q_i}\delta q_i\right)\mathrm d t$$ y ahora observamos que $p_i\mathrm d \delta q_i=p_i\delta q_i-\delta q_i\mathrm d p_i$ . Esto significa que podemos integrar por partes: $$\delta S = \sum_i\int_0^1 \left(\mathrm d q_i -\frac{\partial H}{\partial p_i}\mathrm d t \right) \delta p_i -\left(\mathrm d p_i +\frac{\partial H}{\partial p_i} \mathrm d t \right) \delta q_i + \sum_i p_i\delta q_i|_{0}^1.$$ El último término suele llamarse término de superficie, y desaparece porque la variación desaparece en los puntos extremos, ya que éstos son fijos.

Requiere $\delta S = 0$ da $$\frac{\mathrm d q_i}{\mathrm d t}=\frac{\partial H}{\partial p_i},\,\frac{\mathrm d p_i}{\mathrm d t}=-\frac{\partial H}{\partial q_i}$$ a lo largo de $\gamma$ . Esto es lo mismo que exigir que $\gamma$ sea el flujo del campo vectorial hamiltoniano $X_H$ dado por $dH=i_{X_H}\omega$ (modulo un signo menos que siempre olvido). Históricamente, esta fue la motivación para la geometría simpléctica, con el colector simpléctico como el haz cotangente $T^*Q$ de la $n$ -espacio de configuración de dimensiones $Q$ que no es más que el colector donde viven las coordenadas (generalizadas). Como alternativa, podemos escribir $$\dot x = J\nabla H$$

Se denominan propiamente ecuaciones de Hamilton, aunque pueden verse como ecuaciones de Euler-Lagrange, que vienen dadas por el mismo procedimiento pero con una funcional $\int L(\dot q,q;t)\mathrm dt$ . Probablemente el libro se refiera a las ecuaciones de Hamilton como ecuaciones de Euler, porque eso es lo que son pero para esta funcional en particular.

Ahora, para tu problema particular, tienes un movimiento periódico. Recuerdo que preguntaste en esta pregunta sobre por qué en un camino cerrado obtenemos $$\int_{\gamma} \lambda:=\int_{\gamma} \sum_i p_i\mathrm d q_i = \frac12\int_0^{2\pi}\langle-J\dot x,x\rangle dt$$ La restricción es una normalización de esto, básicamente. Y como $\langle J x,Jy\rangle=\langle x,y\rangle$ Esto es realmente equivalente a su restricción. Para obtener las ecuaciones de movimiento correctas (como se llaman) a partir del cálculo variacional, cuando las restricciones están presentes, utilizamos los multiplicadores de Lagrange. Consideremos el problema de hacer $\int F(\dot x,x,t) \mathrm dt $ estacionario, donde $F$ es un funcional con la restricción $\int M(\dot x,x,t) \mathrm dt= m$ Esto puede significar, por ejemplo, que la masa total es m, lo que sea. El funcional correcto al que podemos aplicar las ecuaciones de Euler-Lagrange es

$$\int\left(F(\dot x,x,t) + \lambda(x)M(\dot x,x,t)\right)\mathrm dt$$

Así que, al decir minimizar $\int H(x(t))\mathrm dt$ junto con la restricción, en realidad estoy diciendo que se minimice el llamado "funcional de acción", que es con el que empecé esta respuesta ( $\lambda$ se desprenderá durante el cálculo, y resultará ser una constante en este caso). Todo esto debería responder a tus preguntas 1. y 2.

Si $S[\gamma]$ alcanza un infimum o supremum no es importante, sólo lo es si es estacionario. No sé cómo demostraría que alcanza un mínimo o un máximo. Eso requeriría la segunda variación, o algo como la no negatividad de la función de exceso de Weierstrass (o simplemente E) $E(x,y,z,w)=F(x,y,w)-F(x,y,z)-(w-z)F_{y'}(x,y,z)$ .

3voto

Han de Bruijn Puntos 6161

Sea dada una curva $\vec{p}(t)$ y una función de valor real $L$ con los siguientes argumentos: esta curva, la derivada temporal de la curva y el tiempo $t$ mismo. Ahora considera la siguiente integral: $$ W\left(\vec{p},\dot{\vec{p}}\right) = \int_{t_1}^{t_2} L\left(\vec{p},\dot{\vec{p}},t\right) dt $$ La integral $W$ depende de la curva elegida $\vec{p}(t)$ es una de las llamadas funcional de $\vec{p}$ y $\dot{\vec{p}}$ .
Queremos determinar para qué curvas $\vec{p}(t)$ el funcional $W(\vec{p},\dot{\vec{p}})$ tiene un valor extremo. Pero no es posible simplemente tomar una derivada y ponerla a cero. Así que debemos hacer algo más.
Supongamos que el valor extremo se obtiene para la curva $\vec{q}(t)$ y que $\vec{p}(t) = \vec{q}(t) + \epsilon \vec{f}(t)$ con los mismos puntos finales $\vec{p}(t_1) = \vec{q}(t_1)$ y $\vec{p}(t_2) = \vec{q}(t_2)$ Por lo tanto $\vec{f}(t_1) = \vec{f}(t_2) = \vec{0}$ . Por lo demás, la curva $\vec{f}(t)$ es arbitraria y la variable $\epsilon$ no depende de $t$ . De este modo, nuestro funcional $W$ se ha convertido en un función común de $\epsilon$ : $$ W\left(\vec{p},\dot{\vec{p}}\right) = \int_{t_1}^{t_2} L\left(\vec{q} + \epsilon \vec{f},\dot{\vec{q}} + \epsilon \dot{\vec{f}},t\right) dt $$ Una función común de valor real, que se puede diferenciar de la manera común para encontrar los extremos: $$ \frac{dW}{d\epsilon} = 0 \qquad \Longleftrightarrow \qquad \int_{t_1}^{t_2} \frac{dL\left(\vec{q} + \epsilon \vec{f},\dot{\vec{q}} + \epsilon \dot{\vec{f}},t\right)} {d\epsilon} dt \quad \mbox{for} \; \epsilon = 0 $$ Que los componentes (vectoriales) de $\,\vec{p}\,$ sea $\,p_k$ . Aplicar la regla de la cadena: $$ \frac{dL}{d\epsilon} = \sum_k \frac{\partial L}{\partial p_k} \frac{d p_k}{d\epsilon} + \sum_k \frac{\partial L}{\partial \dot{p}_k} \frac{d \dot{p}_k}{d\epsilon} + \frac{\partial L}{\partial t} \frac{d t}{d\epsilon} = \sum_k \frac{\partial L}{\partial p_k} f_k + \sum_k \frac{\partial L}{\partial \dot{p}_k} \dot{f}_k + 0 $$ El último término se puede reescribir con ayuda de: $$ \frac{d}{dt} \left\{ \frac{\partial L}{\partial \dot{p}_k} f_k\right\} = \frac{\partial L}{\partial \dot{p}_k} \dot{f}_k + \frac{d}{dt} \left(\frac{\partial L}{\partial \dot{p}_k}\right) f_k $$ De ello se desprende que: $$ \frac{dW}{d\epsilon} = \sum_k \int_{t_1}^{t_2} \left[\frac{\partial L}{\partial p_k} f_k - \frac{d}{dt} \left(\frac{\partial L}{\partial \dot{p}_k}\right) f_k + \frac{d}{dt} \left\{ \frac{\partial L}{\partial \dot{p}_k} f_k\right\} \right] dt = \\ \sum_k \int_{t_1}^{t_2} \left[\frac{\partial L}{\partial p_k} - \frac{d}{dt} \left(\frac{\partial L}{\partial \dot{p}_k}\right) \right] f_k\, dt + \sum_k \left[ \frac{\partial L}{\partial \dot{p}_k} f_k \right]_{t_1}^{t_2} $$ Pero sabemos que $f_k(t_1) = f_k(t_2) = 0$ por lo que el último término es cero. Además, sabemos que, para $\epsilon = 0$ : $p_k = q_k$ y las funciones $f_k$ son completamente arbitrarios. Por lo tanto se concluye que la integral es cero si se cumplen las siguientes condiciones necesarias (no suficientes) eventualmente) se cumplen para todo $k$ : $$ \frac{\partial L}{\partial q_k} - \frac{d}{dt} \left(\frac{\partial L}{\partial \dot{q}_k}\right) = 0 $$ Son las conocidas ecuaciones de Euler-Lagrange. Se observa que las notaciones especiales como $\delta W$ para la "variación" de la integral no son necesarios. La variación se reduce a la diferenciación común, lo que hace que el (IMHO confuso) $\delta$ práctica completamente redundante.

i-Ciencias.com

I-Ciencias es una comunidad de estudiantes y amantes de la ciencia en la que puedes resolver tus problemas y dudas.
Puedes consultar las preguntas de otros usuarios, hacer tus propias preguntas o resolver las de los demás.

Powered by:

X