Antes de empezar, me gustaría llamar su atención sobre tres puntos.
( i ) Las pruebas que encontramos en los libros modernos no son las original una descubierta por Picard y Lindelöf, sino versiones refinadas de la misma. En 1894 tenían otra mentalidad, otras intuiciones y muchos menos conocimientos disponibles. Además, la rama del análisis funcional estaba en sus primeros años, la continuidad de Lipschitz aún no era conocida como continuidad de Lipschitz (de hecho aún estaba vivo) y Banach era apenas un bebé.
( ii ) La iteración de Picard se propone en el capítulo XI, sección III, de (E. Picard) Traté D'Analyse II como método de aproximaciones sucesivas para mostrar la existencia (e implícitamente la unicidad) de soluciones como método alternativo al de Cauchy-Lipschitz, que se estudia en detalle en los subcapítulos XI.I y XI.II. Es muy probable que el contenido discutido en estas dos secciones sea lo que motivó su propio método; en particular XI.II, titulado "Sobre una importante propiedad del método Cauchy-Lipschitz" . (Actualmente el teorema de Cauchy-Lipschitz y el teorema de Picard-Lindelöf se refieren al mismo teorema).
( iii ) El tipo de intuición que debería esperar es una intuición más abstracta y técnicamente refinada que se encuentra en todo el análisis funcional, ya que el argumento utilizado en el teorema de Picard-Lindelöf es esencialmente un argumento de análisis funcional. Este tipo de intuición sugiere, en efecto, "condiciones ad hoc" en algunas situaciones, pero tenga en cuenta que en el fondo son conjeturas muy bien fundamentadas .
Dicho esto, vamos a discutir un camino moderno plausible para elaborar la prueba de la unicidad con la intención de que en el momento adecuado la Lipschitzianidad parezca evidente. Empezamos con un conjunto abierto $\mathcal{O} \subseteq \mathbb{R}^n$ un intervalo abierto $I \subseteq \mathbb{R}$ , $ f: \mathcal{O} \times I \to \mathbb{R}^n $ continua, $x : I \to \mathbb{R}^n$ diferenciable, el problema en su forma diferencial $$\begin{cases} \dot{x}(t) = f(x(t), t) \\ x(t_0) = x_0 \end{cases} \tag{1}$$
y su equivalente forma integral $$ x(t) = x_0 + \int_{t_o}^t f(x(s), s)\ ds \tag{2}$$
(Según las hipótesis, existe una solución local).
Alguien que conozca los espacios funcionales y los mapas entre ellos puede notar que la RHS de $(2)$ es uno de ellos, a saber $$ \mathcal{F} : X \to Y : x \mapsto \left(I \to \mathbb{R}^n : t \mapsto x_0 + \int_{t_o}^t f(x(s), s)\ ds \right) $$
donde $X$ y $Y$ son espacios funcionales adecuados. Así, $(2)$ es simplemente $$ x = \mathcal{F}(x) \tag{3} $$
Esto significa que la función $x$ es un punto fijo de la función de orden superior $\mathcal{F}$ . (Los puntos en los espacios funcionales son funciones).
Con la suficiente familiaridad con los espacios métricos completos o de Banach, como queremos que este punto fijo sea único, empezamos a preguntarnos por el teorema del punto fijo de Banach. Entonces, si de alguna manera pudiéramos encontrar un espacio métrico completo invariante bajo $\mathcal{F}$ en el sentido de que, $\mathcal{F}(X) \subseteq X$ con $x \in X$ podríamos usarlo.
No hace falta recordar uno de los espacios más conocidos: el conjunto de funciones acotadas, $\mathcal{B}(I, \mathbb{R}^n)$ que junto con la norma del supremum, $\| \cdot \|_{\infty}$ constituye un espacio de Banach, por lo que induce un espacio métrico completo. Dado que $x$ es continua, para acotarla, simplemente tomamos un subintervalo compacto $J \subset I$ y en lo sucesivo considerar $X = Y = (\mathcal{B}(J, \mathbb{R}^n), \| \cdot \|_{\infty})$ .
Omitiendo los detalles más finos, ya que tratamos de mostrar $\mathcal{F}(X) \subseteq X$ encontramos que $X$ y $Y$ debe limitarse a las funciones tales que $\| x(t) - x_0 \| \le \beta$ para un adecuado $\beta$ , es decir, las funciones tales que la distancia a $x_0$ no supera $\beta$ . Resulta que dicho subespacio sigue siendo completo. Además para asegurarnos de que las soluciones no salen $f$ lo restringimos a $\overline{B}(x_0, \beta) \times J$ .
Ahora estamos seguros de que $X$ es un espacio métrico completo adecuado y $\mathcal{F}(X) \subseteq X$ nos preguntamos si es posible $\mathcal{F}$ sea una contracción. Bien. Ya tenemos un dominio convexo compacto muy bonito, no hay mucho más que pedir aquí. Entonces, ¿a qué cambiar ahora? Lo único que queda es $f$ (que, por cierto, ahora es uniforme). Bueno, hay diferentes niveles de continuidad. Los tipos habituales de continuidad en conjuntos compactos se jerarquizan de la siguiente manera
- uniformemente (globalmente) continua
- localmente Hölderian
- (globalmente) Hölderiano
- localmente Lipschitzian
- (globalmente) Lipschitziano
- derivada acotada
- continuamente diferenciable
Desde que se demostró que $\mathcal{F}$ es una contracción está mostrando la innealidad
$$ \| \mathcal{F}(x)(t) - \mathcal{F}(y)(t) \| = \left\| \int_{t_0}^{t} f(x(s),s) - f(y(s), s)\ ds \right\| \le \lambda \|x(t) - y(t) \| \tag{4}$$
y la integración interactúa muy bien con las normas
$$ \left\| \int_{t_0}^{t} (f(x(s),s) - f(y(s), s))\ ds \right\| \le \left| \int_{t_0}^{t} \| f(x(s),s) - f(y(s), s) \| ds \right| \tag{5}$$
es razonable preguntarse por un tipo de continuidad que también relaciona norma y desigualdad. En particular, $(4)$ y $(5)$ sugieren la continuidad de Hölder o de Lipshitz. Como la continuidad de Hölder no parece conveniente aquí debido a su exponente, elegimos la continuidad (global) de Lipshitz. Esto permite inmediatamente la siguiente estimación
$$ \left| \int_{t_0}^{t} \| f(x(s),s) - f(y(s), s) \| ds \right| \le L \left| \int_{t_0}^{t} \| (x(s), s) - (y(s), s) \| ds \right| \tag{6}$$
que es suficiente para hacer $\mathcal{F}$ una contracción en estos escenarios. Hemos logrado nuestro objetivo.
Obsérvese que la Lipschitzianidad no es necesaria en $t$ porque se anula en $(6)$ . Además, dado que una función localmente lipschitziana sobre un conjunto compacto es globalmente lipschitziana y que, de todos modos, restringiremos $f$ a un conjunto compacto, sólo necesitamos $f$ sea localmente lipschitziano en $x$ .
Lo que hace que esta prueba sea interesante (y lo que la ha hecho popular) es que da elegantemente un método para construir el (localmente, ya que reducimos $f$ ) solución única a través de $\mathcal{F}$ . A la luz del teorema del punto fijo de Banach, simplemente elegimos cualquier función de arranque en $X$ , digamos que $\gamma_0 \in X$ , e itera $\mathcal{F}$ sobre ella: $\mathcal{F}^n(\gamma_0)$ . Así, $\gamma = \lim_\limits{n \to \infty} \mathcal{F}^n(\gamma_0)$ existe y es (localmente) único. Por lo tanto, $\gamma$ es el punto fijo (localmente) único de $\mathcal{F}$ y, en consecuencia, la solución (localmente) única de $(1)$ . Elegimos $\gamma_0(t) = x_0$ porque es la única función que estamos seguros que pertenece a $X$ .
La secuencia $\mathcal{F}^n(\gamma_0)$ se denomina iteración de Picard porque coincide exactamente con el método original de aproximaciones sucesivas de Picard. Aquí es importante destacar que es la prueba de unicidad la que produce la "iteración de Picard" y no al revés. Sin embargo, lo que Picard (asombrosamente) consiguió hacer, con los conocimientos y la madurez matemática disponibles en la época, fue saltarse este pulido razonamiento (que hoy se considera sencillo).
Ahora tómate un momento para contemplar lo aguda que debe ser tu intuición para conseguir este razonamiento sin la estructura que proporciona el análisis funcional.
Por último, pero no menos importante, la Lipschitzianidad no local no permite necesariamente soluciones no únicas. La unicidad se mantiene bajo una condición más débil, conocida como Criterio de Osgood . Para más teoremas sobre la unicidad, véase (R.P. Agarwal, V. Lakshmikantham) Uniqueness and Nonuniqueness Criteria for Ordinary Differential Equations. World Scientific (1993).
0 votos
Creo que el uso de la iteración de Picard se debe intuitivamente a la aproximación de Euler de la derivada. al menos esto es lo que sé de mi profesor de ODE. fr.wikipedia.org/wiki/Méthode_d%27Euler
0 votos
@GuyFsone No puedo decir que esté de acuerdo con esa afirmación en absoluto. El método de Euler es básicamente "ejecuta un paso de la iteración de Picard, calcula las integrales relevantes usando la regla del rectángulo de la izquierda, termina", lo cual no es muy similar a la iteración de Picard como aparece en el análisis.