16 votos

Cómo se prueba la siguiente función es siempre constante que satisface $f\left( x \right) + a\int_{x - 1}^x {f\left( t \right)\,dt} $?

Supongamos que $f(x)$ es un almacén de función continua en $\mathbb{R}$,y que existe un número positivo $a$ tal que $$f\left( x \right) + a\int_{x - 1}^x {f\left( t \right)\,dt} $$ es una constante. ¿Alguien puede demostrar que $f$ es necesariamente constante ?

8voto

mkoeller Puntos 3101

La prueba de obras de abajo para $a<1$. Bugs todavía se están ordenados en la generalización.


En primer lugar, tenga en cuenta que $\int_{x-1}^x f(t)dt$ es diferenciable, por lo $f(x) = C - \int_{x-1}^x f(t)dt$ es diferenciable.

A continuación, tenemos $f'(x) = af(x-1) - af(x)$, lo $|f'(x)| \leq a(|f(x-1)| + |f(x)|)$. Desde $f$ es acotado, esto implica que $f'$ está acotada.

El quid: Fix $x$. Por el valor medio teorema, hay algunos $y\in (x-1,x)$$f'(y) = f(x)-f(x-1)$, lo $f'(x) = -af'(y)$.

Continuar de esta forma, podemos encontrar, por cualquier $k$, algunos $y_k$$f'(x) = (-a)^k f'(y_k)$. Dejando $k\to\infty$, y usando el hecho de que $f'$ es acotado, nos encontramos con que $f'(x) = 0$. Esto es válido para todas las $x$, lo $f$ es constante.


PhoemueX y yo hemos concluido que Taylor Teorema demuestra que $f$ es analítica. No es obvio si esto ayuda, pero se siente importante, así que pensé en incluirlo.

4voto

PhoemueX Puntos 19354

Como se ha visto en el post de @Slade, hay una sencilla prueba para el caso de $a\in\left(0,1\right)$. El caso general es más involucrados y la la única prueba que he encontrado utiliza conceptos de Análisis de Fourier y la teoría templado de distribuciones. Voy a tratar de explicar estas un poco, pero Creo que no será tan difícil de entender si usted nunca ha oído hablar de estas cosas. Así que aquí va:

Por supuesto, $f$ es limitado y por lo tanto define una base de distribución. Es fácil ver (cf. la respuesta de @Slade por ejemplo) que $f$ es continuamente diferenciable con delimitada derivados $$ f'\left(x\right)=a\cdot\left[f\left(x-1\right)-f\left(x\right)\right]=a\cdot\left(T_{1}f-f\right)\left(x\right), $$ donde he utilizado la notación $\left(T_{x}f\right)\left(y\right)=f\left(y-x\right)$ para la traducción de $f$$x$. Por el acotamiento, simplemente observar $$ \left|f'\left(x\right)\right|\leq\cdot\left[\left|f\left(x-1\right)\right|+\left|f\left(x\right)\right|\right]\leq2a\cdot\left\Vert f\right\Vert _{\sup}<\infty. $$ Por lo tanto, $f\in W^{1,\infty}\left(\mathbb{R}\right)$, por lo que la norma argumentos muestran que la distribución de derivados de $f$ coincide con el ordinario derivado de la $f$, considerado como una base de distribución.

En la siguiente, yo uso la convención $$ \widehat{g}\left(\xi\right)=\int_{\mathbb{R}}g\left(x\right)\cdot e^{-2\pi i\xi x}\, dx $$ para la transformada de Fourier de una función. Para un Schwartz-función de $g\in\mathcal{S}\left(\mathbb{R}\right)$, integración parcial de los rendimientos \begin{eqnarray*} \widehat{g'}\left(\xi\right) & = & \int_{\mathbb{R}}g'\left(x\right)\cdot e^{-2\pi i\xi x}\, dx=-\int_{\mathbb{R}}g\left(x\right)\cdot\frac{d}{dx}e^{-2\pi i\xi x}\, dx\\ & = & 2\pi i\xi\cdot\int_{\mathbb{R}}g\left(x\right)e^{-2\pi i\xi x}\, dx=2\pi i\xi\cdot\widehat{g}\left(\xi\right). \end{eqnarray*} Por dualidad, llegamos a la conclusión de $$ 2\pi i\xi\cdot\widehat{f}=\widehat{f'}=\mathcal{F}\left(a\cdot\left[T_{1}f-f\right]\right)=a\cdot\left(M_{-1}\widehat{f}-\widehat{f}\right)=a\cdot\left(e^{-2\pi i\xi}-1\right)\cdot\widehat{f}, $$ donde $\left(M_{\omega}g\right)\left(x\right)=e^{2\pi i\omega x}\cdot g\left(x\right)$ denota la modulación de la $g$. Es importante señalar aquí que $\widehat{f}$ podría no ser en realidad una (pointwise definido) de la función, pero es simplemente una base de distribución. La distribución de $2\pi i\xi\cdot\widehat{f}$ actúa sobre Schwartz funciones por $$ \left\langle 2\pi i\xi\cdot\widehat{f},g\right\rangle _{\mathcal{S}',\mathcal{S}}=\left\langle \widehat{f},2\pi i\xi\cdot g\right\rangle _{\mathcal{S}',\mathcal{S}}. $$ Reordenando los términos de la anterior identidad, vemos $$ \underbrace{\left(a\cdot\left[1-\cos\left(2\pi\xi\right)\right]+i\left(2\pi\xi+a\sin\left(2\pi\xi\right)\right)\right)}_{=:\gamma\left(\xi\right)}\cdot\widehat{f}=\left(2\pi i\xi\cdot\left(e^{-2\pi i\xi}-1\right)\right)\cdot\widehat{f}=0.\qquad\left(\daga\right) $$ Para$\xi\in\mathbb{R}$$\gamma\left(\xi\right)=0$, podemos ver (por sólo mira a la parte real y el uso de $a\neq0$ $\cos\left(2\pi\xi\right)=1$ y, por tanto,$\xi\in\mathbb{Z}$. Pero este rendimientos $\sin\left(2\pi\xi\right)=0$, por lo tanto, (mirando a la parte imaginaria), llegamos a la conclusión de $0=2\pi\xi+a\sin\left(2\pi\xi\right)=2\pi\xi$ y, por tanto,$\xi=0$. Tenga en cuenta que esto también se cumple en el caso de $a=0$. Por lo tanto, $\gamma\left(\xi\right)\neq0$ todos los $\xi\in\mathbb{R}\setminus\left\{ 0\right\} $.

Esto implica que el apoyo del templado de distribución de $\widehat{f}$ es un subconjunto de a $\left\{ 0\right\} $, porque para $g\in C_{c}^{\infty}\left(\mathbb{R}\right)$ con $0\notin{\rm supp}\left(g\right)$, tenemos $$ \frac{1}{\gamma}\cdot g\en C_{c}^{\infty}\left(\mathbb{R}\right), $$ debido a $\gamma$ es suave y sólo se desvanece en el origen, por lo que $$ \left\langle \widehat{f},g\right\rangle _{\mathcal{S}',\mathcal{S}}=\left\langle \gamma\cdot\widehat{f},\frac{1}{\gamma}\cdot g\right\rangle _{\mathcal{S}',\mathcal{S}}\desbordado{\left(\daga\right)}{=}\left\langle 0,\frac{1}{\gamma}\cdot g\right\rangle _{\mathcal{S}',\mathcal{S}}=0. $$

Pero es bien conocido (véase, por ejemplo, este post Distribuciones soportadas en un solo punto que tristemente es la falta de una respuesta por el momento) que la única distribuciones que son compatibles en el origen (en la dimensión $n=1$) de la formulario de $\sum_{0\leq\alpha\leq k}c_{\alpha}\cdot\partial^{\alpha}\delta_{0}$ para algunos $k\in\mathbb{N}$ y adecuados coeficientes de $c_{\alpha}\in\mathbb{C}$, donde $\delta_{0}$ es la Delta de Dirac-distribución en $0$, cuya derivado de nuevo ha de entenderse en el sentido de templado de las distribuciones, es decir, por $$ \left\langle \partial^{\alpha}\delta_{0},g\right\rangle _{\mathcal{S}',\mathcal{S}}=\left(-1\right)^{\alpha}\cdot\left(\partial^{\alpha}g\right)\left(0\right). $$ Pero es bien sabido (véase, por ejemplo, Acerca de la k-ésima derivada de la función Delta) que la inversa de la transformada de Fourier de $\partial^{\alpha}\delta_{0}$ es una constante en varios de $\xi^{\alpha}$. Por lo tanto, $$ f=\mathcal{F}^{-1}\widehat{f}=\mathcal{F}^{-1}\left(\sum_{0\leq\alpha\leq k}c_{\alpha}\cdot\partial^{\alpha}\delta_{0}\right)=\sum_{0\leq\alpha\leq k}\left[c_{\alpha}\cdot\mathcal{F}^{-1}\left(\partial^{\alpha}\delta_{0}\right)\right] $$ es un polinomio.

Pero por supuesto, $f$ es limitada (en la línea real) y la única delimitada polinomios son la constante de funciones. Por lo tanto, $f\equiv{\rm const}$.

Cabe señalar que esta prueba es válida para todas las $\alpha\in\mathbb{R}$, no sólo por $\alpha>0$. También, la misma prueba muestra que $f$ es un polinomio incluso si sólo suponemos que $f$ los rendimientos de una base de distribución (es decir, sin necesariamente asumir que $f$ es limitado).

Por CIERTO: sería interesante conocer el contexto real en el que este problema/ejercicio ocurrió/se planteó, para ver si había alguna (la intención) de conexión para el análisis de Fourier.

Una vez que uno ha visto la idea, es bastante natural, ya que la transformada de Fourier se comporta tan bien con respecto a la diferenciación y a la traducción.

2voto

PhoemueX Puntos 19354

A continuación, vamos a ver que la función de $f$ es en realidad la restricción de una función a $\Bbb{R}$, es decir, la sume de forma convergente de alimentación de la serie con infinita radio de convergencia. Una vez que esta se muestra, la (tristemente más votada abajo) respuesta de @Leucippus en realidad se convierte en un argumento válido.

Para esto, vamos a $K := \Vert f \Vert_\sup$. Por supuesto, $K < \infty$. Demostraremos por inducción en $n \in \Bbb{N}_0$ que $\Vert f^{(n)} \Vert_\sup \leq K \cdot |2a|^n$ todos los $n \in \Bbb{N}_0$. Para $n=0$ esto es trivial.

Como también se señala en otros posts, la continuidad de la $f$ implica que el $x \mapsto \int_{x-1}^x f(t) dt$ es continuamente diferenciable, lo que implica que $f$ es continuamente diferenciable con $f'(x) = -a \cdot (f(x) - f(x-1))$.

Por inducción, $$f^{(n)}(x) = -a \cdot [f^{(n-1)}(x) - f^{(n-1)}(x-1)].$$

De hecho, para $n=1$, esto es lo que acabamos de señalar. En la inducción de paso, obtenemos

$$ f^{(n+1)}(x) = \frac{d}{dx} (-a) \cdot [f^{(n-1)}(x) - f^{(n-1)}(x-1)] = (-a) \cdot [f^{(n)}(x) - f^{(n)}(x-1)]. $$

Por hipótesis de inducción, esto produce

$$ |f^{(n+1)}(x)| \leq |a| \cdot [|f^{(n)}(x)| + |f^{(n)}(x-1)|] \leq 2|a| \cdot \Vert f^{(n)} \Vert_\sup \leq |2a|^{n+1}. $$

Pero esto implica

$$ \sum_{n=0}^\infty \left|\frac{f^{(n)}(0) \cdot x^n}{n!} \right| \leq \sum_{n=0}^\infty \frac{(2|ax|)^n}{n!} = \exp(2|ax|) < \infty, $$

para que el poder de la serie $$g(x) := \sum_{n=0}^\infty \frac{f^{(n)}(0) \cdot x^n}{n!}$$ around $0$ of $f$ converges absolutely on all of $\Bbb{R}$.

Queda por mostrar $f = g$. Para ello, tenga en cuenta que la forma de Lagrange del resto de Taylor de la fórmula (véase http://en.wikipedia.org/wiki/Taylor's_theorem#Explicit_formulae_for_the_remainder) los rendimientos

$$ |f(x) - g(x)| \xleftarrow[k \to \infty]{} \left| f(x) - \sum_{n=0}^k \frac{f^{(n)}(0) x^n}{n!} \right| = \left| \frac{f^{(k+1)}(\xi_L)}{(k+1)!} \cdot |x|^{k+1}\right| \leq \frac{(2|xa|)^{k+1}}{(k+1)!} \xrightarrow[k\to\infty]{} 0, $$

porque aun $\sum_k \frac{(2|xa|)^{k+1}}{(k+1)!} = \exp(2|xa|) < \infty$. Por lo tanto, $f = g$ es la restricción de una función toda a $\Bbb{R}$.

1voto

Leucippus Puntos 11926

Comenzando con \begin{align} f(x) + a \int_{x-1}^{x} f(t) \, dt = c \end{align} luego, por la diferenciación, \begin{align} f'(x) + a \left( f(x) - f(x-1) \right) = 0. \end{align} Ahora, para esta ecuación para estar satisfechos considerar en forma de \begin{align} f'(x) = B = -a ( f(x) - f(x-1) ). \end{align} A partir de la ecuación $f'(x) = B$ se observa que el $f(x) = Bx+c_{1}$. Ahora, \begin{align} f(x) - f(x-1) &= - \frac{B}{a} \\ (Bx+c_{1}) - (Bx - B + c_{1}) &= - \frac{B}{a} \\ B &= - \frac{B}{a}. \end{align} Si esto es para estar satisfechos, a continuación,$B = 0$, lo que implica entonces que $$f(x) = c_{1}.$$


La alternativa es que dada la ecuación \begin{align} f'(x) + a (f(x) - f(x-1) ) = 0 \end{align} a continuación, vamos a $f(x) = a_{0} + a_{1} x + a_{2} x^{2} + \cdots$ obtener \begin{align} 0 &= [ a_{1} + 2 a_{2} x + \cdots ] + a [ a_{0} + a_{1} x + a_{2} x^{2} + \cdots ] - a[ a_{0} + a_{1} (x-1) + a_{2} (x-1)^{2} + \cdots] \\ &= [ a_{1} + 2 a_{2} x + \cdots] + a[ a_{1} + a_{2}(2x-1) +\cdots] \\ &= [ a_{1} - a(a_{2} - a_{3} + a_{4} - \cdots )] + [ 2 a_{2} + a(2 a_{2} - 3 a_{3} + \cdots) ] x + [ 3(1+a)a_{3} + \cdots ] x^{2} + \cdots . \end{align}
Todos los coeficientes de $x^{n}$, $0\leq n$, son cero, lo que los rendimientos de $a_{1} = a_{2} = \cdots = 0$. Esto deja por $f(x) = a_{0}$ que es una constante.

0voto

Nimda Puntos 1293

Escribe una ecuación que muestra que la derivada de esta expresión es igual a cero. De esta manera se consigue una sencilla ecuación diferencial. Mostrar que cualquier solución que se le da a una función constante.

i-Ciencias.com

I-Ciencias es una comunidad de estudiantes y amantes de la ciencia en la que puedes resolver tus problemas y dudas.
Puedes consultar las preguntas de otros usuarios, hacer tus propias preguntas o resolver las de los demás.

Powered by:

X