Un desarrollo algo interesante en las ecuaciones diferenciales parciales es el estudio de la wellposedness del problema de valor inicial para al azar datos iniciales. Un ejemplo es este reciente trabajo de Burq y Tzvetkov . Permítanme describir breve y vagamente lo que mostraron.
La buena composición de los problemas de valores iniciales
El enunciado más aproximado de la cuestión de la buena composición de los problemas de valores iniciales en ecuaciones diferenciales parciales es preguntar "si prescribimos la valor inicial en el momento $t = 0$ ¿existe una solución única para $t > 0$ ". Sin embargo, para precisar matemáticamente, el primer problema es especificar en qué sentido y en qué conjuntos permites que la solución exista y exiges que sea única (y también en qué sentido y en qué conjuntos prescribes los datos iniciales). Bueno, como las funciones definidas en cualquier colector forman un espacio vectorial, tenemos que nuestro conjunto tendrá al menos una estructura de espacio vectorial. Además, se sabe que un requisito físicamente natural para la wellposedness es una propiedad de aproximación: que dos datos iniciales que no difieran demasiado deberían generar soluciones que no difieran demasiado. Para cuantificar el "no diferir demasiado" nos lleva a requerir que nuestros conjuntos tengan topología (así obtenemos una noción de continuidad). De hecho, ésta es la noción habitual de "wellposedness":
Se dice que un problema de valor inicial está bien planteado si existe algún espacio vectorial topológico (de funciones definidas en $t=0$ ) $X$ de datos iniciales, y algún espacio vectorial topológico (de funciones definidas en $T > t\geq 0$ ) $Y$ de soluciones tal que existe una función continua $f:X\to Y$ la asignación de los datos iniciales a las soluciones.
El trabajo principal es entonces encontrar un par adecuado de $(X,Y)$ tal que $f$ puede existir como una función (por lo que el dominio es el conjunto de $X$ y para cada elemento de $X$ sólo hay una imagen en $Y$ ) y es continua.
Problemas de regularidad
Ahora, está bastante claro que si haces $X$ más pequeño, entonces es "más fácil" encontrar el mapeo $f$ : hay "menos" elementos (menos comportamientos patológicos) de los que preocuparse, por lo que es más probable encontrar que el mapa de soluciones existe para todos los datos iniciales en $X$ . También está bastante claro que si se hace la topología Más fino la continuidad se hace más fácil de probar. Si la topología del espacio vectorial viene dada por una familia de seminormas, al añadir más seminormas el espacio se hace más "pequeño" y se genera una topología más fina.
En realidad, esto es así: dejar que $X$ estar en el $L^2$ -Escala de Sobolev de los espacios de funciones $H^s$ , donde $s$ mide el número de derivados que controla, cuanto mayor sea el $s$ más probable es que se pueda demostrar una declaración de bondad.
Burq y Tzvetkov estudiaron una ecuación particular -la ecuación de onda semilineal cúbica, en adelante 3SLW- en su artículo. Se sabe por resultados anteriores que, de hecho, hay un límite para la buena composición. En la escala de Sobolev, la 3SLW está bien compuesta con el tiempo de existencia $T$ posiblemente sólo finito para $\frac12<s<\frac34$ (algunos de los signos de desigualdad pueden ser en realidad no estrictos, pero no recuerdo en qué sentido van las inclusiones con seguridad), y con $T$ infinito cuando $s > \frac34$ . Para $0 < s < \frac12$ Sin embargo, se sabe que la wellposedness falla porque la ruptura de la continuidad (la topología de $X$ se vuelve demasiado gruesa).
Probabilidad de la buena composición
Sin embargo, se razona que la ruptura de la continuidad para 3SLW es una situación muy especial, y que la "mayoría" de los datos aproximados seguirán dando un buen comportamiento. En este sentido, la fijación de $s$ sea cualquier número entre 0 y 1, Burq y Tzvetkov construyeron una medida de probabilidad $\mu$ (véase más abajo) en $H^s$ tal que existe un conjunto de medidas completo $\Sigma\subset H^s$ tal que el mapa solución está bien definido (existencia y unicidad) en $\Sigma$ y $\Sigma$ es invariante bajo el flujo de solución (lo que implica que el tiempo de existencia es infinito). Además, con respecto a esta medida $\mu$ mostraron una "continuidad probabilística" del mapa de solución: es decir, definiendo el conjunto
$$ G(\epsilon,\delta):= \left\{ (V,U)\in X\times X \mid \|f(V)-f(U)\|_Y \geq \epsilon, \|V-U\|_X\leq \delta\right\} $$
de pares de puntos en los que la solución difiere en una gran cantidad al menos $\epsilon$ mientras que los datos difieren en una pequeña cantidad como máximo $\delta$ Burq y Tzvetkov pudieron demostrar que para cualquier $\epsilon$ ,
$$ \lim_{\delta\to 0} \left|G(\epsilon,\delta)\right|_{\mu\times\mu} = 0$$
en la medida del producto.
La medida
Usted se preguntará, bueno, ¿y si simplemente se define la medida a apoyar precisamente en $H^1 \subset H^s$ ? El punto principal de la construcción es que dado cualquier $H^s$ se puede construir la medida $\mu$ "aleatorizando" la función dada, de tal manera que la regularidad no aumenta. (Más concretamente, demostraron que si la función dada está en $H^s$ pero no en $H^r$ para $r > s$ entonces la medida $\mu$ que construyeron tendrán la propiedad de que $H^r$ tiene $\mu$ -medida cero. Así que la medida $\mu$ es esencialmente un objeto que vive en el espacio de baja regularidad).