25 votos

Notions of stability for differential equations

Considere un sistema de ecuaciones diferenciales $$\dot{x} = f(x,u)$$ $$y = h(x,u)$$ donde $x(t), u(t)$ son vectores en algún $\mathbb{R}^n$. Definimos la norma infinito de una función más o menos de la manera usual $$||z(t)||_{\infty} = \sup_{t \geq 0} ||z(t)||_{\infty}$$ donde la norma infinito de un vector es el valor absoluto de su entrada más grande.

Este sistema de ecuaciones diferenciales se llama estable BIBO (entrada acotada, salida acotada) si cada $u$ con norma infinito acotada resulta en $y$ con norma infinito acotada, independientemente de la condición inicial $x(0)$. Se llama estable ${\mathcal L}_{\infty}$ si tenemos $$||y||_{\infty} \leq g(||u||_{\infty}) + q(x(0))$$ donde $g: \mathbb{R} \rightarrow \mathbb{R}, q: \mathbb{R}^n \rightarrow \mathbb{R}$ son algunas funciones (de valores finitos).

Mi pregunta: ¿es cierto que un sistema estable BIBO es estable ${\mathcal L}_{\infty}$?

Esta es realmente una pregunta sobre compacidad, tomando una subsucesión convergente cuidadosamente - estoy teniendo problemas para hacer eso. Si fuera cierto que los sistemas estables BIBO son estables $L_{\infty}$, necesitaríamos descartar la posibilidad de que, si bien cada $u$ con norma infinito acotada resulta en $y$ con norma infinito acotada, no haya un límite uniforme de qué tan grandes son estas normas.

Motivación: el libro de texto de Khalil Sistemas No Lineales tiene una frase confusa sobre estas dos nociones: en la página 198 de la tercera edición,

La definición de estabilidad $L_{\infty}$ es la conocida noción de estabilidad de entrada acotada-salida acotada; es decir, si el sistema es estable ${\mathcal L}_{\infty}$, entonces para cada entrada acotada $u(t)$, la salida...es acotada.

La parte antes del punto y coma parece sugerir que las dos nociones son equivalentes, mientras que la parte posterior sugiere que la implicación fue pensada solo en una dirección.

Además: ¿depende la respuesta de suposiciones sobre $f$ y $h$? Por ejemplo, los $f,h$ a los que me gustaría aplicar esto son diferenciables, pero no Lipschitz en todo $\mathbb{R}^n$. ¿Importa si asumimos que estas funciones también son diferenciables infinitas veces así como Lipschitz en $\mathbb{R}^n$?

1voto

Helmut Puntos 66

$\newcommand{\CC}{{\mathbb{C}}}\newcommand{\RR}{{\mathbb{R}}}\newcommand{\ra}{\rightarrow}\newcommand{\ds}{\displaystyle}$La implicación no es cierta sin condiciones adicionales sobre las funciones. Ni siquiera es cierto para $f, h$ independientes de una función $u$. Por lo tanto, el problema no es (solo) la compacidad en el espacio de funciones acotadas.
Permítanme recordar primero un contraejemplo de la teoría de estabilidad que me impresionó mucho cuando era estudiante.

Consideremos $r : \RR \times [0,1] \ra \RR$ dado por $$r(t,a) = \frac{1+2a t^4}{1+t^2+a^3 t^6} \ \ \mbox{ para }t \in\RR, a \in [0,1].$$ Entonces $r$ es una función positiva de clase ${\mathcal C}^\infty$ y tenemos $\ds\lim_{t \ra +\infty} r(t,a) = 0\mbox{ para }a \in [0,1].$ Sin embargo, la convergencia no es uniforme con respecto a $a \in [0,1]$, porque $\ds\lim_{a \ra 0} a^{1/2} r(a^{-3/4},a) = 1.$ Ahora definamos $s : \RR^3 \ra \RR^2$ por $$s(t,x) = \left(\frac{1}{r} \frac{\partial r}{\partial t}\right) \left(t,\frac{x^2 _2}{x^2 _1 + x^2 _2}\right) \cdot x {\rm ,if} \ \ x = (x_1, x_2) \neq 0,$$ mientras que $s(t,(0,0))=0$. $s$ es continua y satisface una condición local de Lipschitz con respecto a $x$ (En el vecindario de $x=(0,0)$, esto es un poco difícil de verificar. De todas maneras, para la unicidad de soluciones a los problemas de valor inicial esto no es necesario). Entonces el problema de valor inicial $$z' = s(t,z),\ \ z(t_0) = b\mbox{ con }t_0\in\RR, b \in \RR^2$$
tiene una solución única y para $b= (b_1,b_2)\neq 0$ esta solución está dada por $$z(t) = \frac{r(t,a_0)}{r(t_0, a_0)} b \ \ {\rm con} \ \ a_0 = \frac{b^2 _2}{b^2 _1 + b^2 _2}.$$ Por lo tanto, todas las soluciones de la ecuación diferencial tienden a $0$ a medida que $t\to+\infty$, pero dados $\varepsilon,M>0$, $t_0\in\RR$ existe $b\in\RR^2$, $|b|<\varepsilon$ tal que la solución de $z' = s(t,z),\ \ z(t_0) = b$ satisface $||z||_\infty>M$. Es suficiente elegir primero $a_0>0$ lo suficientemente pequeño para que $r(a_0^{-3/4},a_0)>2M\,r(t_0,a_0)/\varepsilon$, luego $B$ con $|B|=1$ tal que $a_0=\frac{B^2 _2}{B^2 _1 + B^2 _2}$ y finalmente $b=\frac\varepsilon2B$.

Ahora adaptamos este ejemplo al sistema $x,y$ dado; más precisamente, a uno independiente de $u$. Con la función $s$ definida anteriormente, esencialmente ponemos $t=x_3$: $$f:\RR^3\to\RR^3,\ f(x_1,x_2,x_3)=(s(x_3,(x_1,x_2)),1)\mbox{ y }h:\RR^3\to\RR,\ h(x_1,x_2,x_3)=x_1^2+x_2^2.$$ La solución de $\dot x=f(x)$, $x(0)=x_0=(x_{01},x_{02},x_{03})$ es entonces $x_3(t)=x_{03}+t$ y $z(u)=(x_1(u-x_{03}),x_2(u-x_{03}))$ satisface $$\frac{dz}{du}=s(u,z),\ \ z(x_{03})=(x_{01},x_{02}).$$ Como se señaló anteriormente, para todas las soluciones $x(t)$, la salida $y(t)=x_1^2(t)+x_2^2(t)=||z(t+x_{03})||_2^2$ está acotada, pero dados $\varepsilon,M>0$, $x_{03}\in\RR$ existe $(x_{01},x_{02})\in\RR^2$, de norma menor que $\varepsilon$ tal que la solución de $\dot x=f(x),\ x(0)=x_0, y=h(x)$ satisface $||y||_\infty>M$. Por lo tanto, una función $g$ como la deseada en la pregunta no puede existir.
Por supuesto, la función $f$ en este ejemplo no es muy suave, pero me parece que también se podrían construir ejemplos más suaves.

i-Ciencias.com

I-Ciencias es una comunidad de estudiantes y amantes de la ciencia en la que puedes resolver tus problemas y dudas.
Puedes consultar las preguntas de otros usuarios, hacer tus propias preguntas o resolver las de los demás.

Powered by:

X