Dadas dos funciones $u$ y $v$, usted puede calcular $(u|v) = \int_0^1 (u(t)-u(t)) v(t)-v(t)) \,\mathrm{d}t$. Es similar al producto escalar $\int_{-1}^1 u(t)v(t) \,\mathrm{d}t$, lo que conduce a polinomios de Legendre, con una diferencia importante: mientras que el segundo es un producto escalar sobre funciones continuas, el primero no es, ya que por $f(t)=e^t$, $(f|f)=0$.
Sin embargo, es obvio que es un producto escalar sobre polinomios (las soluciones de $(f|f)=0$ no son polinomios, y todas las otras propiedades de definición de producto por un escalar son triviales).
Por lo tanto, podemos encontrar una ortonormales base de polinomios, el uso de Gram-Schmidt orthogonalization sobre la base de $[1,t,t^2,...] de dólares. Vamos a llamar a $P_n$ este ortonormales.
Ahora, después de hacer esto numéricamente con un CAS, y después de algunas parcelas, parece que $\frac{P_n}{P_n(0)}$ tiende uniformemente a la función $t \e^t$ (en $[0,1]$), una solución de $y'-y=0$, que está estrechamente relacionado con la definición del producto escalar anterior.
Pero no sé cómo probar esto. Alguna idea?
También, si hago lo mismo con $(u|v)=\int_0^1 (u"(t)-u(t))(v(t)-v(t)) \,\mathrm{d}t$, no estoy absolutamente seguro, pero numéricamente parece, hasta un factor constante de $P_{2n} \a \cos t$ y $P_{2n+1} \a \sen t$, de manera uniforme en $[0,1]$, por lo que la base ortogonal de polinomios conduce a una base de soluciones de $y"-y=0$.
Me gustaría saber si el proceso se puede generalizar a otras ecuaciones diferenciales lineales (siempre que no tenga el polinomio de soluciones). Funciona con ecuaciones con coeficientes no constantes?
Esta no es la tarea. Es algo que he descubierto mientras jugaba con una Ti89 hace mucho tiempo (en un principio, para probar un programa haciendo de Gram-Schmidt orthogonalization), y nunca he sido capaz de probar o refutar la evidencia numérica.
$\color{red}{\textbf{Ahora, ¿por qué esta pregunta?}}$ Aparte de matemática curiosidad, puede haber un poco de motivación: el método parece bastante robusto, no hay convergencia, probablemente, bajo ciertas condiciones, para varios de peso funciones y ecuaciones diferenciales. Y llegamos uniforme de la aproximación de soluciones de ecuaciones diferenciales lineales, polinomios, que puede ser muy útil en la práctica. Ya que muchos lineal ODE dar lugar a funciones especiales, que daría una manera barata para calcular uniforme aproximaciones de sus soluciones, en arbitrario (pero limitado) intervalos.
Para ayudar a visualizar, aquí hay algunos ejemplos de gráficos de hecho con Maxima, calculado con un sencillo algoritmo de Gram-Schmidt.
Los dos siguientes son de $P_4(x)/P_4(0)-\exp(x)$ y $P_9(x)/P_9(0)-\exp(x)$, en el caso de $(u|v) = \int_0^1 (u(t)-u(t)) v(t)-v(t)) \,\mathrm{d}t$. La división por $P_n(0)$, sólo se hace con el fin de "normalizar" polinomios, ya que $\exp 0=1$.
Ahora de ejemplo con "trigonométricas" en la ecuación diferencial $y"+y=0$. Y $(u|v) = \int_0^{2\pi} (u(t)+u(t)) v(t)+v(t)) \,\mathrm{d}t$. Aviso de la integración obligado difieren de la anterior, y ahora convergencia uniforme de $P_n$ se lleva a cabo en $[0,2\pi]$. La normalización es aquí $P_{2n}(x)/P_{2n}(0)$ $\cos 0 = 1$ ans $P_{2n+1}(x)/P_{2n+1}(\pi/2)$, $\sin \pi/2=1$, y precisamente, $P_{8}(x)/P_{8}(0)-\cos x$ y $P_{9}(x)/P_{9}(\pi/2)-\sin x$ son, respectivamente, graficó.
Aviso, es también posible añadir una función de ponderación para nuestro producto escalar, por ejemplo, $(u|v) = \int_0^1 (u(t)-u(t)) v(t)-v(t)) \mathcal{W}(t)\,\mathrm{d}t$. Por ejemplo, con$\mathcal{W}(t)=\frac{1}{\sqrt{t(1-t)}}$ en $[0,1]$, todavía hay convergencia, y por ejemplo $P_9(x)/P_9(0) -\exp x$ se obtiene el siguiente gráfico.