47 votos

Una función continua en $[0,1]$ ortogonal a cada monomio de la forma $x^{n^2}$

Consideremos las funciones continuas sobre $[0,1]$ cumpliendo con $$ \int_{0}^{1} f(x) x^n\,dx = 0 $$ para $n=0$ y para cada $n\in E\subseteq\mathbb{N}^+$ . El Teorema de Müntz-Szász da que $$ \sum_{n\in E}\frac{1}{n} = +\infty \Longleftrightarrow f(x)\equiv 0 $$ por lo que existe una función continua no nula $f(x)$ tal que $$ \int_{0}^{1} f(x) x^{n^2}\,dx = 0 \tag{1}$$ es válida para cada $n\in\mathbb{N}$ .

Pregunta Podemos construir una función agradable y explícita $f\neq 0$ cumpliendo con $(1)$ por cada $n\in\mathbb{N}$ ?

Podemos considerar funciones de la forma $$ f(x) = \sum_{n\geq 0} c_n P_n(2x-1) $$ con $P_n(2x-1)$ siendo el $n$ -polinomio de Legendre desplazado.
La ortogonalidad a $1$ y $x$ se traduce en $c_0=c_1=0$ la ortogonalidad a $x^4$ se traduce en $\frac{2}{35}c_2+\frac{1}{70}c_3+\frac{1}{630}c_4=0$ la ortogonalidad a $x^9$ se traduce en $\frac{3}{55}c_2+\frac{21}{715}c_3+ \frac{9}{715}c_4 +\frac{3}{715}c_5+\frac{3}{2860}c_6+\frac{9}{48620}c_7+\frac{1}{48620}c_8+\frac{1}{923780}c_9=0$ y así sucesivamente. El mínimo (con respecto al $\ell^2$ norma) solución de este sistema infinito con $c_2=1$ (o $c_4=1$ ) debe dar una secuencia $\{c_n\}_{n\geq 0}$ garantizar la continuidad de $f(x)$ pero esto no es trivial y agradecería una construcción / ejemplo más explícito de tal $f$ .

Apéndice Otra construcción posible es aplicar el proceso de Gram-Schmidt a $\{1,x,x^4,x^9,\ldots\}$ para obtener una secuencia de polinomios $\{p_n(x)\}_{n\geq 0}$ tal que

  • $p_n(x)=\sum_{k=0}^{n} c_k x^{k^2}$
  • $n\neq m \Longrightarrow \langle p_n(x),p_m(x)\rangle = 0$
  • $\max_{x\in [0,1]} |p_n(x)| = 1$ ou $\langle p_n(x),p_n(x)\rangle = 1$

entonces toma $f(x)$ como el límite puntual de una subsecuencia convergente de $\{p_n(x)\}_{n\geq 0}$ .
Aun así, no es muy explícito.

Un enfoque más prometedor es considerar algunas series de Fourier lacunares, como $$ g(\theta) = \sum_{n\geq 1}\frac{\cos(n\theta)}{n^2} - \sum_{n\geq 1}\frac{\cos(n^2\theta)}{n^4}, $$ que claramente cumple con $\int_{-\pi}^{\pi}g(\theta)\cos(n^2\theta)\,d\theta = 0$ , a continuación, girar tal $g(\theta)$ en un $f(x)$ cumpliendo con $(1)$ a través de alguna sustitución hábil.

Otra forma es considerar la transformada inversa de Laplace de $$ \frac{1}{s}\prod_{k=0}^{n}\frac{k^2+1-s}{k^2+1+s} $$ evaluado en $-\log x$ . Esto da un polinomio, acotado entre $-1$ y $1$ que es ortogonal a $1,x,x^4,\ldots,x^{n^2}$ . ¿Es esta secuencia de polinomios (o una subsecuencia de esta secuencia) convergente a una función continua? No lo sé. Si es así, $$ f(x)=\mathcal{L}^{-1}\left(\frac{\sin(\pi\sqrt{s-1})}{\sqrt{s-1}}\cdot\frac{\sqrt{s+1}}{\sin(\pi\sqrt{s+1})}\cdot \frac{1}{s}\right)(-\log x)$$ es una solución explícita. Aquí es un gráfico de los primeros polinomios producidos por el último enfoque:

enter image description here

23voto

psychotik Puntos 171

Respuesta corta. Ampliar @orangeskid de la respuesta, deja que

$$ F(x) := \frac{1}{\Psi_{\infty}(0)^2} - x - \frac{1}{\Psi_{\infty}(0)} \sum_{k=1}^{\infty} (-1)^{k} \frac{2k^2 \operatorname{sinhc}(\pi\sqrt{k^2 + 3})}{(k^2 + 1)(k^2 + 2)} x^{k^2+2}, $$

donde $\operatorname{sinhc}(x) = \frac{\sinh x}{x}$ y

$$ \Psi_{\infty}(0) = \frac{\operatorname{sinhc}(\pi\sqrt{p+1})}{\operatorname{sinhc}(\pi\sqrt{p})}. $$

Aunque la serie anterior sólo converge para $x \in [0, 1)$ podemos demostrar que $F$ se extiende a una función absolutamente continua en $[0, 1]$ al establecer $F(1) = 0$ y satisface

$$ \int_{0}^{1} F(x) x^{n^2} \, \mathrm{d}x = 0 $$

para cualquier $ n = 1, 2, \ldots$ A continuación se muestra el gráfico de $f(x)$ sur $[0, 1]$ :

graph of F


Prueba de la reclamación.

Paso 1. Considere una secuencia $-\frac{1}{2} < \alpha_1 < \alpha_2 < \ldots$ . Además, definimos la función $f_n$ por

\begin{align*} f_n(x) &:= \frac{ \begin{vmatrix} 1 & x^{\alpha_1} & \cdots & x^{\alpha_n} \\ \langle 1, t^{\alpha_1} \rangle & \langle t^{\alpha_1}, t^{\alpha_1} \rangle & \cdots & \langle t^{\alpha_n}, t^{\alpha_1} \rangle \\ \vdots & \vdots & \ddots & \vdots \\ \langle 1, t^{\alpha_n} \rangle & \langle t^{\alpha_1}, t^{\alpha_n} \rangle & \cdots & \langle t^{\alpha_n}, t^{\alpha_n} \rangle \end{vmatrix} }{ \begin{vmatrix} \langle t^{\alpha_1}, t^{\alpha_1} \rangle & \cdots & \langle t^{\alpha_n}, t^{\alpha_1} \rangle \\ \vdots & \ddots & \vdots \\ \langle t^{\alpha_1}, t^{\alpha_n} \rangle & \cdots & \langle t^{\alpha_n}, t^{\alpha_n} \rangle \end{vmatrix} }, \ para terminar

donde $\langle g(t), h(t) \rangle = \int_{0}^{1} g(t)h(t) \, \mathrm{d}t$ denota el producto interior sobre $L^2([0,1])$ . Entonces, como se explica en la respuesta de @orangeskid, para $\alpha > -\frac{1}{2}$ con $\alpha \notin \{\alpha_1, \alpha_2, \ldots\}$ ,

$$ x^{\alpha} = f_n + (x^{\alpha} - f_n) $$

es una descomposición ortogonal de $x^{\alpha}$ , donde $x^{\alpha} - f_n \in V_n := \operatorname{span}(x^{\alpha_1}, \ldots, x^{\alpha_n})$ y $f_n \perp V_n$ . Desde $V_n$ está aumentando en $n$ Esto implica que $f_n$ converge en $L^2([0,1])$ . Además,

$$ \|f_n\|^2 = \operatorname{dist}(t^{\alpha}, V_n)^2 = \frac{G(t^{\alpha}, t^{\alpha_1}, \ldots, t^{\alpha_n})}{G(t^{\alpha_1}, \ldots, t^{\alpha_n})}, $$

donde $G(v_1, \ldots, v_n) = \det[\langle v_i, v_j \rangle]$ es el determinante de Gram.

Paso 2. Podemos expandir el determinante en el numerador a lo largo de la primera fila y calcular los coeficientes utilizando Determinantes de Cauchy . Tras un poco de cálculos, resulta que

\begin{align*} f_n(x) = x^{\alpha} - \sum_{k=1}^{n} \frac{\psi_{n,k}(\alpha_k)}{\psi_{n,k}(\alpha)} x^{\alpha_k}, \end{align*}

donde $\phi_{n,k}(\alpha)$ es la función racional en $\alpha$ dado por

$$ \psi_{n,k}(\alpha) := (\alpha_k - \alpha) \Psi_n(\alpha) \qquad\text{and}\qquad \Psi_n(\alpha) := \frac{\prod_{j=1}^{n} (\alpha_j + \alpha + 1)}{\prod_{j=1}^{n} (\alpha_j - \alpha)}. $$

Un cálculo similar también muestra que

$$ \| f_n \|^2 = \frac{\prod_{j=1}^{n} (\alpha - \alpha_j)^2}{(2\alpha+1)\prod_{j=1}^{n} (\alpha + \alpha_j + 1)^2} = \frac{1}{(2\alpha+1)\Phi_n(\alpha)^2}. $$

Paso 3. Ahora vamos a especializarnos en el caso de que $(\alpha_k)$ es de la forma $\alpha_k = k^2 + p$ . Entonces la fórmula de reflexión de Euler para la función gamma y la aproximación de Stirling muestran que

\begin{align*} \prod_{j=1}^{n} (j^2 - q) = \frac{(n-\sqrt{q})!(n+\sqrt{q})!}{(-\sqrt{q})!\sqrt{q}!} = (n!)^2 \operatorname{sinc} (\pi \sqrt{q}) \prod_{j=n+1}^{\infty} \frac{j^2}{j^2 - q}, \end{align*}

donde $\operatorname{sinc}(x) = \frac{\sin x}{x}$ es la función sinc (no normalizada) y $s! = \Gamma(s+1)$ . Conectando esto a $\Phi_n(\alpha)$ obtenemos

\begin{align*} \Psi_{n}(\alpha) &= \frac{\operatorname{sinhc}(\pi\sqrt{p+\alpha+1})}{\operatorname{sinc}(\pi\sqrt{\alpha - p})} \prod_{j=n+1}^{\infty} \frac{j^2 + p - \alpha}{j^2 + p + \alpha + 1}. \end{align*}

y

\begin{align*} \psi_{n,k}(\alpha_k) &= \lim_{s \to k} \left( k^2 - s^2 \right) \Psi_{n}(s^2 + p) \\ &= (-1)^{k-1} 2k^2 \operatorname{sinhc}(\pi\sqrt{\smash[b]{k^2 + 2p + 1}}) \prod_{j=n+1}^{\infty} \frac{j^2 - k^2}{j^2 + k^2 + 2p + 1}. \end{align*}

Tenga en cuenta que ambos $\Psi_n(\alpha)$ y $\psi_{n,k}(\alpha_k)$ converge como $n \to \infty$ :

\begin{gather*} \Psi_{\infty}(\alpha) := \lim_{n\to\infty} \Psi_{n}(\alpha) = \frac{\operatorname{sinhc}(\pi\sqrt{p+\alpha+1})}{\operatorname{sinhc}(\pi\sqrt{p-\alpha})}, \\[0.5em] \lim_{n\to\infty} \psi_{n,k}(\alpha_k) = (-1)^{k-1} 2k^2 \operatorname{sinhc}(\pi\sqrt{\smash[b]{k^2 + 2p + 1}}). \end{gather*}

Además, de la fórmula anterior se desprende que

$$ |\psi_{n,k}(\alpha_k)| \leq \frac{2k^2}{\pi\sqrt{k^2 + 2p + 1}} e^{\pi\sqrt{k^2 + 2p + 1}}$$

para todos $1 \leq k \leq n$ . Por lo tanto, por el teorema de convergencia dominada, para cada $x \in [0, 1)$ ,

\begin{align*} f(x) &:= \lim_{n\to\infty} f_n(x) \\ &= x^{\alpha} - \lim_{n\to\infty} \frac{1}{\Psi_n(\alpha)} \sum_{k=1}^{n} \frac{\psi_{n,k}(\alpha_k)}{k^2 + p - \alpha} x^{k^2 + p} \\ &= \bbox[color:navy;border:1px dotted navy;padding:3px]{x^{\alpha} + \frac{1}{\Psi_{\infty}(\alpha)} \sum_{k=1}^{\infty} (-1)^{k} \frac{2k^2}{k^2 + p - \alpha} \operatorname{sinhc}(\pi\sqrt{\smash[b]{k^2 + 2p + 1}}) x^{k^2+p}.} \end{align*}

Por supuesto, esto $f(x)$ debe coincidir con el $L^2$ -límite de $f_n$ . Por lo tanto, para cada $n = 1, 2, \ldots,$

$$ \int_{0}^{1} f(x)x^{n^2+p} \, \mathrm{d}x = \lim_{N \to \infty} \int_{0}^{1} f_N(x)x^{n^2+p} \, \mathrm{d}x = 0. $$

A continuación se muestra el gráfico de $f(x)$ para $x \in [0, 1)$ cuando $\alpha = 0$ y $p = 1$ .

graph of f when a = 0 and p = 1

Paso 4. La función $f$ es casi bueno, pero la cuestión es que $f$ parece sufrir la discontinuidad en $x = 1$ . Para enmendar esto, ahora fijamos $\alpha = 0$ para que el correspondiente $f$ viene dada por

$$ f(x) = 1 + \frac{1}{\Psi_{\infty}(0)} \sum_{k=1}^{\infty} (-1)^{k} \frac{2k^2}{k^2 + p} \operatorname{sinhc}(\pi\sqrt{\smash[b]{k^2 + 2p + 1}}) x^{k^2+p}. $$

Entonces

$$ \int_{0}^{1} f(x) \, \mathrm{d}x = \langle f, 1 \rangle = \| f \|^2 + \underbrace{\langle f, 1-f \rangle}_{=0} = \frac{1}{\Psi_{\infty}(0)^2}. $$

A partir de ahí, definimos $F : [0, 1] \to \mathbb{R}$ como

\begin{align*} F(x) &= \int_{x}^{1} f(t) \, \mathrm{d}t \\ &= \int_{0}^{1} f(x) \, \mathrm{d}x - \int_{0}^{x} f(x) \, \mathrm{d}x \\ &= \bbox[color:navy;border:1px dotted navy;padding:3px]{\frac{1}{\Psi_{\infty}(0)^2} - x - \frac{1}{\Psi_{\infty}(0)} \sum_{k=1}^{\infty} (-1)^{k} \frac{2k^2 \operatorname{sinhc}(\pi\sqrt{\smash[b]{k^2 + 2p + 1}})}{(k^2 + p)(k^2 + p + 1)} x^{k^2+p + 1}.} \end{align*}

Entonces $F$ es absolutamente continua en todo $[0, 1]$ . También, realizar la integración por partes,

\begin{align*} 0 = \int_{0}^{1} f(x)x^{n^2+p} \, \mathrm{d}x &= [ -F(x)x^{n^2+p} ]_{0}^{1} + (n^2 + p - 1)\int_{0}^{1} F(x) x^{n^2+p-1} \, \mathrm{d}x \end{align*}

y por lo tanto

$$ \int_{0}^{1} F(x) x^{n^2+p-1} \, \mathrm{d}x = 0, \qquad n = 1, 2, \ldots $$

Por lo tanto, al elegir $p = 1$ La afirmación principal es la siguiente.

13voto

orangeskid Puntos 13528

SUGERENCIA:

Podemos escribir el vector perpendicular trazado desde $v$ al subespacio abarcado por los vectores linealmente independientes $v_1$ , $\ldots$ , $v_n$ como

$$\frac{D}{ G(v_1, \ldots, v_n)}$$ donde $G(v_i)$ es el determinante de Gram del sistema $v_i$ , mientras que $$D = \left | \begin{matrix} v&v_1& \ldots & v_n \\ \langle v, v_1\rangle & \langle v_1, v_1 \rangle & \ldots & \langle v_n, v_1 \rangle\\ \ldots & & \ldots \\ \langle v, v_n\rangle & \langle v_1, v_n \rangle & \ldots & \langle v_n, v_n \rangle \end{matrix} \right|$$

De hecho, es fácil ver que $\langle D, v_i\rangle = 0$ para todos $i$ y el coeficiente de $v$ en $D$ es igual a $G(v_1, \ldots, v_n)$

Tenga en cuenta también que $$d(v, (v_1, \ldots, v_n))^2 = \frac{G(v, v_1, \ldots, v_n)}{G(v_1, \ldots, v_n)}$$

Ahora considere en $L^{2}[0,1]$ los vectores $v_i$ siendo la función $x\mapsto x^{\alpha_i}$ , mientras que $v$ es la función $x\mapsto x^{\alpha}$ . Conseguimos calcular unos menores que resultan ser determinantes de Cauchy. Además, si $\sum\frac{1}{\alpha_i} < \infty$ y $\alpha \not \in \{\alpha_i\}_i$ entonces $$d^2(x^{\alpha}, (x^{\alpha_i})_i) >0$$ expresándose como un producto convergente (infinito). También obtenemos la perpendicular de $x^{\alpha}$ a $(x^{\alpha_i})_i$ como límite de una secuencia convergente en $L^2[0,1]$ .

$\bf{Added:}$ Vale la pena escribir las fórmulas para la proyección de un vector $v$ en el tramo de los linealmente independientes $v_1$ , $\ldots$ , $v_n$

$$\pi_{\langle v_1, \ldots, v_n\rangle}(v) = \sum_{i=1}^n \frac{ G( (v_1, \ldots, \overset{i}{v}, \ldots, v_n), (v_1, \ldots, v_n)) }{G((v_1, \ldots, v_n), (v_1, \ldots, v_n))}\cdot v_i $$

donde por $G(u, v)$ denotamos el (determinante de ) una matriz con entradas $\langle u_k, v_l\rangle $ .

Ahora, el determinante de Gram $G((x^{\alpha_i}), (x^{\beta_j}))$ es el Determinante de Cauchy $$C((\alpha_i), (\beta_j))\colon = \left|\frac{1}{\alpha_i + \beta_j+1}\right|$$ que es igual a $$V(\alpha_i ) \cdot V(\beta_i) \cdot \prod_{i,j} \frac{1}{\alpha_i + \beta_j + 1}$$ donde $V$ son los Determinantes de Vandermonde . Obtenemos la proyección de la función $x^{\alpha}$ en el tramo de $x^{\alpha_i}$

$$\sum_{i} \prod_{j, j\ne i} \frac{\alpha_j - \alpha}{\alpha_j - \alpha_i} \cdot \prod_j\frac{\alpha_j + \alpha_i + 1}{\alpha_j + \alpha+ 1} \cdot x^{\alpha_i}$$

Supongamos que $\alpha_j \ne 0$ para todos $j$ . Obtenemos la expresión

$$\sum_i \frac{\prod_{j, j\ne i} (1- \frac{\alpha}{\alpha_j})}{\prod_{j, j\ne i} (1- \frac{\alpha_i}{\alpha_j})}\cdot \frac{\prod_{j} (1+ \frac{\alpha_i+1}{\alpha_j})}{\prod_{j} (1+ \frac{\alpha+1}{\alpha_j})}\cdot x^{\alpha_i}$$

Previsión del caso $\alpha_n = n^2$ consideremos la función $$\phi(t) = \prod_j (1- \frac{t}{\alpha_j})$$

Tenemos la fórmula del proyector

$$\sum_i \frac{\phi(\alpha)}{(1-\frac{\alpha}{\alpha_i}) \cdot (- \alpha_i \cdot \phi'(\alpha_i))} \cdot \frac{\phi(-(\alpha_i + 1))}{\phi(-(\alpha+1))} \cdot x^{\alpha_i}$$

Consideremos ahora el caso $\alpha_k = k^2$ . Entonces obtenemos

$$\phi(t) = \prod_{k\ge 1} (1- \frac{t}{k^2}) = \frac{\sin \pi \sqrt{t}}{\pi \sqrt{t}}$$

mientras que $$\phi(-t) = \frac{\sinh \pi \sqrt{t}}{\pi \sqrt{t}}$$

Se comprueba que en cada $\alpha_k = k^2$ tenemos $ -k^2 \phi'(k^2) = \frac{(-1)^{k+1}}{2}$ .

Ahora se pone todo junto. Obtenemos una función analítica. Más detalles después.

$\bf{Added:}$ La fórmula del proyector también puede escribirse como

$$\sum_i \frac{\phi(\alpha)/(\alpha - \alpha_i)}{\phi'(\alpha_i)} \cdot \frac{\phi( -( \alpha_i + 1))}{\phi(-(\alpha+1))} \cdot x^{\alpha_i}$$

5voto

David C. Ullrich Puntos 13276

El teorema M-S no dice lo que tú dices que dice. (En un comentario señalé que falta un cuantificador importante en tu versión - el problema actual es quizá más grave...)

Si $\sum_{n\in S}1/n<\infty$ el teorema dice que $V=span\{x^n:n\in S\}$ no es denso. Eso implica que hay un real no nulo medir "ortogonal" a todo en $V$ pero no una función continua.

i-Ciencias.com

I-Ciencias es una comunidad de estudiantes y amantes de la ciencia en la que puedes resolver tus problemas y dudas.
Puedes consultar las preguntas de otros usuarios, hacer tus propias preguntas o resolver las de los demás.

Powered by:

X