29 votos

Intuición detrás del método de variación de parámetros para resolver ecuaciones diferenciales

He utilizado el método de variación de parámetros (y me lo han enseñado, aunque no profundamente) y me preguntaba si he entendido la intuición detrás de él. En particular, he estado pensando en el método para ODEs de segundo orden: $$a_{2}(x)y''(x)+a_{1}(x)y'(x)+a_{0}(x)y(x)=f(x)$$

¿Es la motivación para considerar una solución particular de la forma $$y_{p}(x)=u_{1}(x)y_{1}(x)+u_{2}(x)y_{2}(x)$$ (donde $y_{1},\;y_{2}$ son soluciones para la ecuación homogénea correspondiente) porque $(y_{p}/y_{1})\neq\text{ constante}$ y de igual manera $(y_{p}/y_{2})\neq\text{ constante}$, de lo contrario simplemente obtendríamos la solución complementaria nuevamente. Esto sugiere que ambos son en cambio funciones de $x$, es decir, $(y_{p}/y_{1})=u_{1}(x)$ y $(y_{p}/y_{2})=u_{2}(x)$, lo que lleva a la forma del ansatz que mencioné anteriormente?

En segundo lugar, ¿es la razón por la que colocamos una restricción adicional en la forma de $y_{p}$ (además de que sea una solución a la ODE original) porque, en principio, habrá un número infinito de soluciones particulares de la forma $$y_{p}(x)=u_{1}(x)y_{1}(x)+u_{2}(x)y_{2}(x)$$ pero solo requerimos una solución particular, y al imponer una restricción adicional tenemos dos ecuaciones para los dos incógnitas $u_{1}$ y $u_{2}$, lo que nos permite determinar de manera única una solución para cada uno de ellos y posteriormente encontrar una solución general para la ODE original?!

18voto

Edmund Tay Puntos 712

Aquí hay una forma de obtener las fórmulas de variación de parámetros. En primer lugar, algo de motivación mezclado con un poco de jerga:

Pensamos en $a_{2}(x)y''(x)+a_{1}(x)y'(x)+a_{0}(x)y(x)$ como el resultado de aplicar a $y(x)$ una operación $D=a_{2}(x)\frac{d^2}{dx^2 }+a_{1}(x)\frac{d}{dx}+a_{0}(x) Id$. Esta es una operación lineal (también conocida como operador diferencial lineal), lo que significa que $D(c_1y_1(x)+c_2y_2(x))=c_1 D(y_1(x))+c_2 D((y_2(x))$. Nuestra ecuación es entonces $D (y(x))=f(x).

La linealidad asegura que si $y_a(x)$ e $y_b(x)$ resuelven $Dy_a=f_a$ y $Dy_b=f_b$ entonces $y_a+y_b$ resuelve $Dy=f_a+f_b$. Entonces, si podemos descomponer nuestro término inhomogéneo $f(x)$ como una suma $f=f_a+f_b$ y resolver las dos "piezas" $Dy=f_a$ y $Dy=f_b$, estaríamos listos - solo sumamos las dos soluciones y obtenemos una solución para $f$.

La idea clave ahora (esto se conoce como método de la función de Green, o tal vez a veces el principio de Duhamel) es pensar en $f$ como una "suma" de una cantidad continua de funciones delta $f(x)=\int f(t)\delta(x-t) dt. Así que queremos resolver $Dy(x)= \delta(x-t)$ para cada $t$ (estas soluciones son las funciones de Green para nuestra ecuación), obtener soluciones $y_t(x)=y(t,x)$, y luego escribir nuestra solución a $Dy=f$ como la "suma" sobre t $y(x)=\int f(t) y_t (x) dt = \int f(t) y (t , x) dt.

Continuando de esta manera (sin prestar mucha atención a los detalles técnicos o introduciendo la teoría de distribuciones necesaria para proporcionar tales detalles y hacer lo anterior riguroso), ahora tenemos la tarea de encontrar $y_t(x)$ es decir, resolver $Dy_t(x)=\delta(x-t) La solución es, por supuesto, no única, pero es única solo hasta agregar $y_h$ - una solución arbitraria de la ecuación homogénea $Dy=0. Note que de hecho para $x>t$ y para $x

Ahora, cualquier $y_h$ es una combinación de soluciones homogéneas fijas $y_1$ y $y_2, es decir, $y_h(x)=c_1y_1(x)+c_2y_2(x). Entonces nuestra función de Green $y_t=0$ para $xt. ¿Qué deberían ser $c_1, c_2? Queremos que $Dy_t(x)= a_{2}(x)y_t''(x)+a_{1}(x)y_t'(x)+a_{0}(x)y_t(x)= \delta(x-t). Así que $y_t$ debe ser continua, para que $y_t'$ tenga solo una discontinuidad de paso en $x=t, y $y_t''$ solo un delta (y no $\delta'(x-t) Continuidad impone $c_1y_1(t)+c_2y_2(t)=0. También queremos tener un salto delta unitario y no más grande o más pequeño. El tamaño del salto está controlado por $a_2 \frac{d^2}{dx^2}$ en $x=t$ y también lo es $a_2(t)[ c_1y'_1(t)+c_2y'_2(t)]. Igualar a 1 impone $ c_1y'_1(t)+c_2y'_2(t)=\frac{1}{a_2(t).

Para resumir:

La función de Green en $t$ es [$0$ para $xt]

con $c_1(t), c_2(t)$ sujetos a

$c_1(t)y_1(t)+c_2(t)y_2(t)=0

$ c_1y'_1(t)+c_2y'_2(t)=\frac{1}{a_2(t)

Comparar con la variación de parámetros: $c_1=\frac{u_1'}{f}, c_2=\frac{u_2'}{f}

Y la solución a $Dy=f$ es

$y(x)=\int f(t) y_t (x) dt = \int f(t) y (t , x) dt

Al completar, obtenemos

$y(x)=\int_{x>t} f(t) (c_1(t)y_1(x))+c_2(t)y_2(x)) dt=[\int_{-\infty}^{x} f(t)c_1(t)) dt] y_1(x)+[\int_{-\infty}^{x} f(t)c_2(t))dt] y_2(x)=u_1(x)y_1(x)+u_2(x)y_2(x).

Entonces recuperamos $y$ como una combinación de $y_1$ y $y_2$ con coeficientes de función, y sabemos exactamente qué relaciones deben satisfacer las derivadas de estos coeficientes (deben combinarse para dar las funciones de Green veces $f(x$). Escribiendo estas relaciones obtenemos las mismas fórmulas que para las fórmulas de variación de parámetros, que luego podemos justificar independientemente de manera ad hoc.

Por supuesto, esto se generaliza de manera sencilla a ecuaciones lineales de orden superior - los $c_i$ tendrán más restricciones lineales de 'igualación de derivadas' que satisfacer para dar una función de Green, y el resto es lo mismo.


i-Ciencias.com

I-Ciencias es una comunidad de estudiantes y amantes de la ciencia en la que puedes resolver tus problemas y dudas.
Puedes consultar las preguntas de otros usuarios, hacer tus propias preguntas o resolver las de los demás.

Powered by:

X