6 votos

(¿Por qué) podemos tratar una función de una variable como otra variable independiente?

Actualmente estoy leyendo mi análisis numérico de libros de texto y algo me molesta. Para entrar en él, echemos un vistazo a la siguiente ecuación diferencial;

$$u'(x) = f(x, u(x))$$

Con el fin de determinar la estabilidad de la ecuación, se puede calcular el Jacobiano,

$$J(x, u(x)) = \frac{\partial f}{\partial u}|_{(x, u(x))}$$

Aquí es una ecuación diferencial:

$$u'(x) = -\alpha(u(x) - sin(x)) + cos(x)$$

Para que el Jacobiano es

$$J(x, u(x)) = -\alpha$$

Básicamente, se trata tanto de $sin(x)$ e $cos(x)$ como constantes con respecto a $u$, pero yo realmente no entiendo por qué. La mayoría de las veces, cuando tomamos un derivado de que las variables son independientes, lo cual no es el caso aquí, ya que ambos dependen de la misma variable $x$.

Esto significa que la "tasa de cambio de $sin(x)$ con respecto al $u(x)$" es cero, pero el valor de $u(x)$ sólo cambia si el valor de x en sí mismo cambia, por lo que no debe el valor de $sin(x)$ cambio así?

Gracias!

4voto

Dante Grevino Puntos 461

Hay una diferencia entre la derivada parcial $\frac{\partial}{\partial x}$ y el total derivado $\frac{d}{dx}$. Por ejemplo, si tenemos las variables de $(u,x)$ y la ecuación de $f=f(x,u(x))=x^2+u^3$ y tomamos la derivada parcial llegamos $\frac{\partial f}{\partial x}=2x$ pero si tomamos el total de la derivada obtenemos $\frac{d f}{dx}=2x+3u^2\frac{\partial u}{\partial x}$, aplicando la regla de la cadena. Esta distinción es un punto clave en la mecánica clásica, por ejemplo, y captura la esencia de lo que están pidiendo.

Ver: ¿Qué es exactamente la diferencia entre un derivado y un total de derivados?

2voto

caverac Puntos 588

Para simplificar las cosas, imaginar una forma muy sencilla autónoma de sistema dinámico

$$ \frac{{\rm d}u}{{\rm d}x} = \alpha (u - u_0) \etiqueta{1} $$

para algunas constantes $\alpha$ e $u_0$. Las soluciones de este sistema son de la forma

$$ u(x) - u_0 = ce^{\alpha x} \etiqueta{2} $$

Lo interesante a destacar aquí es que si $\alpha > 0$ entonces la distancia entre $u(x)$ e $u_0$ crece exponencialmente con el aumento de $x$, lo $u = u_0$ se dice que es inestable. Mientras que si $\alpha < 0$ se produce el efecto contrario, y la distancia entre $u$ e $u_0$ se reduce con el aumento de la $x$, en este caso $u = u_0$ es estable.

Ahora vamos a hacer las cosas un poco más general. Imagine un sistema de la forma

$$ \frac{{\rm d}u}{{\rm d}x} = f(u) \etiqueta{3} $$

y supongamos que existe un punto de $u_0$ tal que $f(u_0) = 0$ (como en la ecuación. (1)), si se quiere entender la estabilidad local de (3) usted podría Taylor expandir $f$ todo $u_0$

$$ f(u) = f(u_0) + \left.\frac{{\rm d}f}{{\rm d}u}\right|_{u = u_0}(u - u_0) + \cdots \etiqueta{4} $$

Recuerde que $f(u_0) = 0$, por lo que en primer orden $f(u)\approx f'(u_0)(u - u_0)$, y Eq. (3)

$$ \frac{{\rm d}u}{{\rm d}x} \approx \underbrace{f'(u_0)}_{\alpha}(u - u_0) \etiqueta{5} $$

Ahora compara esto con Eq. (1) y te das cuenta de que para entender la estabilidad del sistema alrededor del punto de $u_0$ usted necesita saber el valor de $f'(u_0) $ a.k.el Jacobiano. Hay un montón de advertencias aquí usted debe ser consciente de que, probablemente, el texto habla de ellos (por ejemplo, ¿qué sucede si $f'(u_0) = 0$, ...)


EDITAR

Ahora imagine un sistema en dos dimensiones, algo así como

$$ \frac{{\rm d}u}{{\rm d}x} = f(u, v) ~~~~ \frac{{\rm d}v}{{\rm d}x} = g(u, v)\etiqueta{6} $$

Usted puede definir vectores ${\bf z} = {u \choose v}$ e ${\bf F} = {f \choose g}$ , de modo que el sistema anterior puede ser escrita como

$$ \frac{{\rm d}{\bf z}}{{\rm d}x} = {\bf F}({\bf z}) \etiqueta{7} $$

En este caso, nada cambia mucho, puede repetir el mismo análisis como en la primera parte y darse cuenta de que la estabilidad del sistema alrededor de un punto de ${\bf z} = {\bf z}_0$ está dado por los valores propios de la Jacobiana evaluada en esa ubicación. Y como antes de exigir que $\color{blue}{{\bf F}({\bf z}_0) = 0}$. Debo destacar a este problema ya que serán importantes en el futuro.

Ahora para la parte final. En lugar de un sistema autónomo, considere un sistema de la forma

$$ \frac{{\rm d}u}{{\rm d}x} = f(x, u) \etiqueta{8} $$

Puede cambiar el nombre de $v = x$ (es decir, crear un nuevo estado), y se nota que

$$ \frac{{\rm d}u}{{\rm d}x} = f(u, v) ~~~~ \frac{{\rm d}v}{{\rm d}x} = 1 \etiqueta{9} $$

Así que, en teoría, usted podría repetir el mismo análisis se repite de nuevo, pero, se puede ver a partir de esto que el campo resultante ${\bf F}$ nunca desaparece (es decir, el azul de la expresión anterior nunca puede ser satisfecho)

i-Ciencias.com

I-Ciencias es una comunidad de estudiantes y amantes de la ciencia en la que puedes resolver tus problemas y dudas.
Puedes consultar las preguntas de otros usuarios, hacer tus propias preguntas o resolver las de los demás.

Powered by:

X