7 votos

Cómo aplicar correctamente la serie de mentira

Estoy tratando de solucionar este problema de Simetría métodos para ecuaciones diferenciales para principiantes guía (Peter E. Hydon).

Utilizar la serie de mentira $$F(\hat{x},\hat{y})=\sum_{j=0}^{\infty}\frac{\varepsilon^j}{j!}X^j F(x,y)$ $

donde $$X = \xi(x,y)\partial_x +\eta(x,y)\partial_y$ $

para verificar, que $$\hat{x}=\exp{(\varepsilon X)}x,$ $ $$\hat{y}=\exp{(\varepsilon X)}y$ $

lleva a cabo para

$$a) X = x\partial_x-y\partial_y$$ $$b) X = x^2\partial_x+xy\partial_y$$ $$c) X = -y\partial_x+x\partial_y$$

Ni siquiera sé dónde empezar.... Una solución paso a paso para uno de lo $X$ estaría bien:).

3voto

Han de Bruijn Puntos 6161

Una referencia de la misma se encuentra aquí:

Se recomienda para absorber esta unidimensional de la teoría en primer lugar, antes de proceder a 2-D.

$c)\; X = -y\, \partial_x+x\, \partial_y$

Descargo de responsabilidad. En nuestro (Látex) notas tenemos $f$ en lugar de $F$ , $(x_1,y_1)$ en lugar de $(\hat{x},\hat{y})$ , $\theta$ en lugar de $\varepsilon$ , $k$ en lugar de $j$ , y más. Yo no sustituir las notaciones porque mis ojos son malos y se espera que el peligro de cometer errores es mayor que la ventaja de ser coherente con la pregunta.

Un ejemplo de la Continua Transformación en dos dimensiones es una Rotación sobre un ángulo $\theta$: $$ \left\{ \begin{array}{c} x_1 = \cos(\theta) . x - \sin(\theta) . y \\ y_1 = \sin(\theta) . x + \cos(\theta) . y \end{array} \right. $$ Se podría preguntar cómo la rotación del sistema de coordenadas trabaja fuera de la la función de estas variables. Con otras palabras, cómo la siguiente función se expandió como una expansión en series de Taylor alrededor de la original $f(x,y)$: $$ f_1(x,y) = f(x_1,y_1) = f(\,\cos(\theta).x - \sin(\theta).y\, , \, \sin(\theta).x + \cos(\theta).y\, ) $$ Definir otros (polares) variables $(r,\phi)$ como: $$ x = r.\cos(\phi) \quad \mbox{y} \quad y = r.\el pecado(\phi) $$ Para las variables transformadas: $$ x_1 = r.\cos(\phi).\cos(\theta) - r.\el pecado(\phi).\el pecado(\theta) = r.\cos(\phi+\theta) \\ y_1 = r.\cos(\phi).\el pecado(\theta) + r.\el pecado(\phi).\cos(\theta) = r.\el pecado(\phi+\theta) $$ Vemos que $\phi$ es una variable canónica. Otra función $g(\phi)$ se define con este canónica de la variable independiente uno: $$ g(\phi) = f(\,r.\cos(\phi)\, ,\,r.\el pecado(\phi)\,) = f(x,y) $$ Ahora rotación $f(x,y)$ a través de un ángulo de $\theta$ se corresponde con una traducción de $g(\phi)$ sobre una distancia $\theta$. Por lo tanto, $g(\phi+\theta)$ puede ser desarrollado en una serie de Taylor alrededor del punto de salida: $$ g(\phi+\theta) = g(\phi) + \theta.\frac{dg(\phi)}{d\phi} + \frac{1}{2} \theta^2.\frac{d^2 g}{d\phi^2} + ... $$ Trabajando de nuevo a las variables originales $(x,y)$ con una conocida regla de la cadena para derivadas parciales: $$ \frac{dg}{d\phi} = \frac{\partial g}{\partial x}\frac{dx}{d\phi} + \frac{\partial g}{\partial y}\frac{dy}{d\phi} $$ Donde: $$ \frac{dx}{d\phi} = - r.\el pecado(\phi) = - y \quad \mbox{y} \quad \frac{dy}{d\phi} = + r.\cos(\phi) = + x \quad \Longrightarrow \\ \frac{dg}{d\phi} = \frac{\partial g}{\partial x}.(-y) + \frac{\partial g}{\partial y}.(+x) \quad \Longrightarrow \quad \frac{d}{d\phi} = x.\frac{\partial}{\partial y} - y.\frac{\partial}{\partial x} $$ Aquí nos encontramos con que $X = (x.\frac{\partial}{\partial y} - y.\frac{\partial}{\partial x})$ es el infinitesimal operador para el Plano de Rotación.
Es igual a la diferenciación con respecto a la variable canónica, como se esperaba. El resultado final es: $$ f_1(x,y) = \sum_{k=0}^{\infty} \frac{1}{k!} \left[ \theta \left(x.\frac{\partial}{\partial y} - y.\frac{\partial}{\partial x}\right) \right]^k f(x,y) = e^{ \theta (x\, \partial / \partial y - y\, \partial / \partial x) } f(x,y) $$ Esto es cierto para cualquier función de $f(x,y)$. En particular, el independiente las variables pueden ser concebidos como tales funciones. Lo que significa que: $$ x_1 = e^{ \theta (x\, \partial / \partial y - y\, \partial / \partial x) } x \quad \mbox{y} \quad y_1 = e^{ \theta (x\, \partial / \partial y - y\, \partial / \partial x) } y $$ Es fácil comprobar que: $$ (x\frac{\partial}{\partial y} y\frac{\partial}{\partial x}) x = - y \quad \mbox{y} \quad (x\frac{\partial}{\partial y} y\frac{\partial}{\partial x}) y = x $$ Aquí nos encontramos con: $$ \sum_{k=0}^{\infty} \left[ \theta (x.\frac{\partial}{\partial y} - y.\frac{\partial}{\partial x}) \right]^k x = 1 - \theta.y - \frac{1}{2} \theta^2.x + \frac{1}{3!} \theta^3.y + \frac{1}{4!} \theta^4.x + ... \\ = \cos(\theta).x - \sin(\theta).y = x_1 $$ Del mismo modo podemos encontrar: $$ \sum_{k=0}^{\infty} \left[ \theta (x.\frac{\partial}{\partial y} - y.\frac{\partial}{\partial x} ) \right]^k y = 1 + \theta.x - \frac{1}{2} \theta^2.y - \frac{1}{3!} \theta^3.x + \frac{1}{4!} \theta^4.y + ... \\ = \sin(\theta).x + \cos(\theta).y = y_1 $$ Por lo tanto, de hecho, las fórmulas a distancia de forma infinitesimal de rotación a través de un finito ángulo de $\theta$ puede ser reconstruido a partir de las expansiones.

$a)\; X = x\, \partial_x-y\, \partial_y$

Leer la 1-D de referencia. Tenemos los siguientes resultados: $$ e^{ln(\lambda) \,x \frac{d}{dx}} f(x) = f(\lambda\,x) $$ Donde $\lambda$ es positivo scaling factor. También tenemos: $$ e^{-ln(\lambda) \,x \frac{d}{dx}} f(x) = e^{ln(1/\lambda) \,x \frac{d}{dx}} f(x) = f(x/\lambda) $$ Estos resultados se traducen en 2-D de la siguiente manera: $$ e^{ln(\lambda) \,x \frac{\partial}{\partial x}} f(x,y) = f(\lambda\,x,y) \\ e^{-ln(\lambda) \,y \frac{\partial}{\partial y}} f(x,y) = f(x,y/\lambda) $$ Los dos exponentes son conmutativas, así que podemos escribir, con $\;\ln(\lambda)=\mu\;\Longrightarrow\;\lambda=e^\mu=\exp(\mu)$ : $$ e^{\mu(x\, \partial_x - y\, \partial_y)}\; f(x,y) = f\left(e^\mu x,e^{-\mu} y\right) $$ En particular, con $\;X = x \frac{\partial}{\partial x} - y \frac{\partial}{\partial y}$ : $$ \exp(\mu X) x = exp(\mu) x \quad \mbox{y} \quad \exp(\mu X) y = \exp(-\mu) y $$

$b)\; X = x^2\,\partial_x+xy\,\partial_y$

Como para este caso, no veo cómo podemos decir más que, en el OP de la notación: $$ F(\hat{x},\hat{y})=\sum_{j=0}^{\infty}\frac{\varepsilon^j}{j!}X^j F(x,y) = \exp{(\varepsilon X)} F(x,y) $$ Luego de ello se sigue que, para funciones especiales $F(x,y)=x$ o $F(x,y)=y$ : $$ \hat{x}=\exp{(\varepsilon X)}x \\ \hat{y}=\exp{(\varepsilon X)}y $$ Por favor, no me digas que eso es todo lo que quiero ..

0voto

Han de Bruijn Puntos 6161

Una alternativa mucho más eficaz enfoque que se propone en esta segunda respuesta. Referencias:

En la primera referencia, la siguiente fórmula es probado: $$ x_1(t) = e^{t\,g(x)\frac{d}{dx}} x \quad \Longleftrightarrow \quad \dot{x}_1(t) = g(x_1(t)) \quad \mbox{con} \quad x = x_1(0) $$ Pero yo me he encontrado en mi viejo observa que hay un mayor resultado. Para cualquier $(t)$ parámetro Mentira grupo el siguiente teorema se tiene: $$ {\bf x}_1(t) = e^{t X} {\bf x} = e^{t\,{\bf g(x)}\cdot\nabla} {\bf x} \quad \Longleftrightarrow \quad \dot{{\bf x}}_1(t) = {\bf g}({\bf x}_1(t)) \quad \mbox{con} \quad {\bf x} = {\bf x}_1(0) $$ Lo que significa que el problema de encontrar la Mentira de la serie para las variables independientes ${\bf x}$ puede ser reduce a resolver un sistema de ecuaciones diferenciales ordinarias. En el caso de dos dimensiones: $$ X = {\bf g(x)}\cdot \nabla = \xi(x,y)\,\partial_x +\eta(x,y)\,\partial_y $$ Tan sólo tenemos que resolver el sistema de educación a distancia: $$ \left\{\begin{matrix}\dot{x}_1 = \xi(x_1,y_1) \\ \dot{y}_1 = \eta(x_1,y_1)\end{de la matriz}\right. $$ Con condiciones de frontera, siempre el mismo: $$ \left\{\begin{matrix} x_1(0) = x \\ y_1(0) = y\end{de la matriz}\right. $$ Ahora vamos a hacerlo para los operadores en la mano.

$a)\; X = x\, \partial_x-y\, \partial_y$

El acompañamiento de la educación a distancia sistema: $$ \left\{\begin{matrix}\dot{x}_1 = x_1 \\ \dot{y}_1 = -y_1\end{de la matriz}\right. $$ Junto con las condiciones de frontera de dar una solución, ya que se ha encontrado en la primera respuesta: $$ \left\{\begin{matrix} x_1 = x\,e^t \\ y_1 = y\,e^{-t} \end{de la matriz}\right. $$

$b)\; X = x^2\,\partial_x+xy\,\partial_y$

El acompañamiento de la educación a distancia sistema: $$ \left\{\begin{matrix}\dot{x}_1 = x_1^2 \\ \dot{y}_1 = x_1 y_1\end{de la matriz}\right. $$ Resolver la primera ecuación y sustituir la solución en el segundo. Resolver de nuevo y aplicar las condiciones de contorno: $$ \left\{\begin{matrix} x_1 = {\Large \frac{x}{1-t\,x}} \\ y_1 = {\Large \frac{y}{1-t\,x}} \end{de la matriz}\right. $$ Esta solución se merece un poco de atención porque es que no en la primera respuesta.

$c)\; X = -y\, \partial_x+x\, \partial_y$

El acompañamiento de la educación a distancia sistema: $$ \left\{\begin{matrix}\dot{x}_1 = -y_1 \\ \dot{y}_1 = x_1\end{de la matriz}\right. $$ Independiente de dos ecuaciones para $x_1$ $y_1$ se puede encontrar: $$ \left\{\begin{matrix}\ddot{x}_1 + x_1 = 0 \\ \ddot{y}_1 + y_1 = 0 \end{de la matriz}\right. \quad \Longrightarrow \quad \left\{\begin{matrix}x_1 = A\cos(t) + B\sin(t) \\ y_1 = C\cos(t) + D\sin(t) \end{de la matriz}\right. $$ El empleo de la original ODE : $\;\dot{y}_1=x_1$ da $\;-C = B\;$$\;D = A\;$ .
Por último, se aplican las condiciones de contorno: $$ \left\{\begin{matrix}x_1 = x\cos(t) - y \sin(t) \\ y_1 = x\sin(t) + y \cos(t)\end{de la matriz}\right. $$ Como se ha visto en la primera respuesta.

i-Ciencias.com

I-Ciencias es una comunidad de estudiantes y amantes de la ciencia en la que puedes resolver tus problemas y dudas.
Puedes consultar las preguntas de otros usuarios, hacer tus propias preguntas o resolver las de los demás.

Powered by:

X