Loading [MathJax]/jax/element/mml/optable/BasicLatin.js

108 votos

¿Existe una solución no trivial para f(x)=f(f(x))?

Qué f(x)=f(f(x)) tiene alguna solución que no f(x)=0?

Me he convencido de que lo hace (ver más abajo), pero no sé de ninguna manera de probar esto.

Hay un buen método para resolver este tipo de ecuación? Si esta ecuación no tiene soluciones no triviales, ¿sabes de algún similares ecuaciones (es decir, que involucran tanto funciones anidadas y derivados) que no tienen soluciones interesantes?


Si asumimos f es analítica (que me va a hacer a partir de este punto en adelante), entonces también debe ser inyectiva (ver a alex.jordan intento de prueba), y por lo tanto tiene más de una raíz (x0.)

Sabemos f(x0)=f(f(x0))=f(0).


Reclamo: f no puede tener un resultado positivo de la raíz.

Supongamos x0 es positivo. Si f(0) es negativo, entonces para algunos lo suficientemente pequeño δ>0, f(x0δ)>0. Esto implica que debe haber otra raíz entre x00, pero f tiene más de una raíz.

El mismo razonamiento se aplica si f(0) es positivo.

Si f(0)=0, x0 0 son raíces. Por lo tanto, llegamos a la conclusión de que x0 no puede ser positivo.


Reclamo: f no puede tener cero como una raíz.

Supongamos x0=0. Desde f tiene más de una raíz, sabemos f será de signo constante en cada una de las mitades positivos y negativos de la x eje.

Deje a<0. Si f(a)<0, esto implica f(a)=f(f(a))<0, por lo que en el negativo de la mitad de la línea real, f es negativo y estrictamente decreciente. Esto contradice la suposición de que f(0)=0. Por lo tanto, a<0f(a)>0, lo que implica entonces f(a)<0.

Pero desde f(a)=f(f(a)), e f(a)>0, esto implica f(b)<0 al b>0. Por otra parte, sabemos f(b)=f(f(b)), e f(b)<0f(f(b))>0, por lo que sabemos f es negativo y estrictamente creciente en el positivo de la mitad de la línea real. Esto contradice la suposición de que f(0)=0.


Reclamo: f está acotado abajo por x0 (lo que hemos probado ha de ser negativa, si es que existe)

Sabemos f(x0)=0 es la única raíz, por lo f(x)=0 fib f(x)=x0. Y desde f es inyectiva, se deduce que el f es bordeada por encima o acotada abajo por x0 (si f cruzado y=x0, que correspondería a un local de mínimo o máximo.) Desde f(x0)=0x0<0, sabemos x0 debe ser un límite inferior.


Reclamo: f es estrictamente decreciente.

La pregunta B5 desde el 2010 Putnam matemáticas normas de competencia fuera estrictamente creciente funciones, por lo que sabemos f debe ser estrictamente decreciente.


Reclamo: f ha lineal asíntotas en ±

Desde f es estrictamente decreciente y acotada abajo por x0, sabemos lim está bien definido, y \lim_{x\rightarrow\infty}f'(x)=0. Desde f'(x)=0 fib f(x)=x_0, se deduce que el \lim_{x\rightarrow\infty}f(x)=x_0.

f''(x)=\frac{d}{dx}f'(x)=\frac{d}{dx}f(f(x))=f'(f(x))f'(x). Desde f'(x)<0, sabemos f es cóncava hacia arriba. Por lo tanto, \lim_{x\rightarrow -\infty}f(x)\rightarrow\infty. Esto a su vez implica \lim_{x\rightarrow -\infty}f'(x)=\lim_{x\rightarrow -\infty}f(f(x))=\lim_{x\rightarrow \infty}f(x)=x_0.

Por lo f x_0 al x\rightarrow\infty, y se aproxima a la asíntota y=x_0\cdot x al x\rightarrow-\infty.


Reclamo: x_0<1

Considere la recta tangente a en f(x_0). Sabemos f'(x_0)=f(0), por lo que la línea está dada por y=f(0)x-f(0)x_0. Desde f es cóncava hacia arriba, sabemos f(x) > f(0)x-f(0)x_0x\neq x_0, lo f(0) > -f(0)x_0. Y podemos concluir x_0<-1.


Reclamo: f debe tener un punto fijo, x_p (f(x_p)=x_p)

Sabemos f(x_0)=0, x_0<0, y f(0)<0. Por lo tanto, f(x)-x tiene una raíz en el intervalo de (x_0,0).


Esto es todo lo que he podido probar. Sin embargo, la existencia de un punto fijo resulta ser muy útil en la construcción de soluciones aproximadas.

Considere lo siguiente:

f(x_p)=x_p f'(x_p)=f(f(x_p))=x_p f''(x_p)=f'(f(x_p))f'(x_p)=f(f(f(x_p)))f(f(x_p))=x_p^2 f'''(x_p)=\cdots=x_p^4+x_p^3

Si estamos dispuestos a poner en el trabajo, podemos evaluar cualquier derivada en el punto fijo. Me escribió un programa en python que calcula estos términos (que por desgracia se ejecuta en tiempo exponencial, pero aún así es lo suficientemente rápido para calcular los primeros 20 términos de una cantidad razonable de tiempo). Aprovecha el siguiente bit de información.

Supongamos f^{[n]} representa la enésima iteración de f. por ejemplo,f^{[3]}=f(f(f(x))). Entonces podemos deducir la siguiente fórmula recursiva.

\frac{d}{dx}f^{[n]}=f'(f^{[n-1]})\frac{d}{dx}f^{[n-1]}=f^{[n+1]}\frac{d}{dx}f^{[n-1]}

Y como sabemos que el caso base \frac{d}{dx}f^{[1]}=f^{[2]}, esto nos permite determinar (f^{[n]})'=f^{[n+1]}f^{[n]}\cdots f^{[3]}f^{[2]}.

Así, si elegimos un punto fijo, se puede calcular la esperada serie de Taylor alrededor de ese punto.

Aquí está el gráfico de la serie de Taylor con 14 términos, calculado con punto fijo -0.6

enter image description here

Se puede ver claramente los puntos en los que la serie empieza a fallar (el radio de convergencia no parece ser infinita), pero en otros lugares la aproximación se comporta como cabría esperar.

Yo calculadas (P'(x)-P(P(x)))^2 donde P es el polinomio de Taylor, en el intervalo donde la serie parece converger, y el error total es del orden de 10^{-10}. Por otra parte, este error parece conseguir más pequeños de la forma más precisa de calcular la derivada (yo usé P'(x)\approx\frac{P(x+0.001)-P(x-0.001)}{0.002}).

47voto

codeConcussion Puntos 7250

Dado cualquier a > 0, no hay una única función de f\colon\mathbb{R}\to\mathbb{R} satisfacción f^\prime(x)=f(f(x))f(-a)=-a.

f'(x)=f(f(x))

[Nota: por Separado, se puede demostrar que la única solución con f(0)=0 es el trivial, y todas las soluciones están disminuyendo, por lo que esta es una lista de todas las posibles soluciones de f^\prime(x)=f(f(x))\mathbb{R}.]

La idea es que podemos ver f^\prime(x)=f(f(x)) como una ecuación diferencial de partida en x=-a y solución de este para extender f a la izquierda (o derecha) del punto fijo. Sin embargo, si f es decreciente, a continuación, asigna puntos a la izquierda de -a a la derecha y viceversa. Así, tenemos que extender de forma simultánea a la izquierda y a la derecha de -a dando un acoplado par de ecuaciones diferenciales. Si establecemos g(x)=f(f(x)), luego tenemos a g^\prime(x)=f(f(f(x)))f(f(x)), dando las ecuaciones acopladas, \begin{align} &f^\prime(x)=g(x),\\ &g^\prime(x)=f(g(x))g(x). \end{align} A continuación, podemos resolver esta ecuación diferencial ordinaria con el punto de partida x=-a y se extienden a todos los x \le -a. Voy a cambiar las variables con el fin de convertir esto en una ODA de partida en x=0 mediante el establecimiento u(x)=f(-x-a)+av(x)=-a-g(-a-x), entonces estos deben satisfacer \begin{align} &u^\prime(x)=a+v(x)\\ &v^\prime(x)=(a+v(x))(a-u(v(x))). \end{align} {\ \ \ \ rm(1)} La idea de la prueba será para demostrar que (1) tiene una solución única sobre x\in[0,\infty) tal que u(0)=v(0)=0 y, además, que el u,v luego son estrictamente creciente con u(x)\to\inftyx\to\infty.

Como hemos señalado, si f'(x)=f(f(x)) f(-a)=-a u(x)=f(-a-x)+a v(x)=-a-f(-a+u(x)) satisfacer (1). Así, la singularidad de (1), junto con el hecho de que u(x)\to\infty x\to\infty implica que el f es definido de forma exclusiva en \mathbb{R} por \begin{align} &f(-a-x)=-a+u(x),\\ &f(-a+u(x))=-a-v(x) \end{align}\ \ {\rm(2)} para x\ge0.

Por el contrario, supongamos que tenemos las soluciones a (1). La definición de f \mathbb{R} (2) ( x\ge0 ), luego es sencillo diferenciar estas y compruebe que f^\prime(x)=f(f(x)).


Vamos ahora a demostrar la existencia y unicidad de (1). En primer lugar, supongamos que el u,v es una solución de (1). Entonces, considerando la educación a distancia para v, de por sí, tenemos v^\prime=F(v) donde F(v)=(a+v)(a-u(v)) es derivable (y por tanto, localmente Lipschitz) de la función. No podemos tener a F(v(x_0))=0 cualquier x_0>0 otra, por el Picard–Lindelöf teorema de unicidad de soluciones de ecuaciones diferenciales ordinarias, v tendría que ser constante, dando la contradicción a^2=F(0)=F(v(0))=F(v(x_0))=0. En particular, esto significa que u(v(x)) < a y el lado derecho de la segunda ecuación de (1) es estrictamente positivo.

Por eso, av(x)\le u(v(x))\le a y tenemos v(x)\in[0,1] todos los x\ge0. Vamos ahora a definir \mathcal{S} a ser el espacio de funciones continuas v\colon[0,\infty)\to[0,1]v(0)=0. Entonces, para cualquier v_0\in\mathcal{S} considerar la construcción de las funciones de u,v\colon[0,\infty)\to\mathbb{R} u(0)=v(0)=0 y \begin{align} &u^\prime(x)=a+v_0(x),\\ &v^\prime(x)=(a+v(x))(a-u(v(x))). \end{align} El primero de estos es resuelto por una integral, y tenemos u(x)\ge ax. El lado derecho de la segunda ecuación es una función derivable de v(x). Así que, por el estándar de Picard–Lindelöf teorema tiene una solución única y, como se mostró anteriormente, v^\prime(x) > 0 todos los x, lo v\ge0. Por eso, u(v(x)) <a lo que implica, como en el anterior, que v\in\mathcal{S}. Por lo tanto podemos definir a la \Gamma\colon\mathcal{S}\to\mathcal{S} \Gamma v_0=v donde v_0,v son como anteriormente. Tenga en cuenta que si (u,v) resolver (1) luego tenemos a \Gamma v=v y, por el contrario, si \Gamma v=v (u,v) resuelve (1), donde a u(x)=\int_0^x(a+v(y))dy. Así, la existencia y unicidad de soluciones de (1) es equivalente a \Gamma tener un único punto fijo. El hecho de que u,v son estrictamente creciente con u\to\infty sigue de u^\prime > a, v^\prime > 0, que nos han mostrado ya.

En la práctica, la recorre \Gamma^nv de converge muy rápidamente a un punto fijo para todos los valores de a > 0 las que he probado, y esto fue utilizado para generar las parcelas de f por encima.

Vamos a empezar con el caso donde a\in(0,1]. A continuación, v=\Gamma v_0 satisface \begin{align} v^\prime&=(a+v)(a-u(v))\le(a+v)(a-av)\\ &=a(a+v)(1-v)\le\frac14a(1+a)^2\le1. \end{align} En particular, v(x)\le x, lo \Gamma v_0(x) es una función de la ruta de acceso de v_0 en el rango [0,x]. Esto significa que la resolución de la educación a distancia (1) implica el cálculo de la derivada v^\prime(x) en términos de los valores de v ya calculado en [0,x], por lo que podemos dar un paso continuamente hacia delante en el tiempo, y el método es similar al estándar de la ODA de problemas. Nos puede mostrar lo siguiente.

Existe constantes A,B>0 tal que, para cualquier v_0,\tilde v_0\in\mathcal{S}, y v=\Gamma v_0, \tilde v=\Gamma\tilde v_0 a continuación, \begin{align} \lvert v^\prime(x)-\tilde v^\prime(x)\rvert\le A\lvert v(x)-\tilde v(x)\rvert+B\sup_{y\le x}\lvert v_0(y)-\tilde v_0(y)\rvert.&&{\rm(3)} \end{align} Prueba: El uso de la expresión parav^\prime, de igual manera para \tilde v^\prime, \begin{align} v(x)-\tilde v(x) &= (a-\tilde u(\tilde v))(v-\tilde v)+(a+v)(\tilde u(\tilde v)-u(v))\\ &=(a-\tilde u(\tilde v))(v-\tilde v)-(a+v)(\tilde u(v)-\tilde u(\tilde v))+(a+v)(\tilde u(v)-u(v)) \end{align} Como v está delimitado por la 1 y la derivada de \tilde ua+\tilde v_0, que está delimitada por a+1, los dos primeros términos en el lado derecho de esta desigualdad está delimitado por el primer término de la derecha de (3) con A=(a+1)^2. Como v(x)\le \min(x,1), el término final de esta desigualdad está delimitado por (a+1)\int_0^v(\tilde v_0(y)-v_0(y))dy\le (a+1)v(x)\sup_{y\le v(x)}\lvert \tilde v_0(y)-v_0(y)\rvert. Así, obtenemos (3) con B=a+1.

Por lo tanto, si definimos \varphi_0(x)=\sup_{y\le x}\lvert v_0(y)-\tilde v_0(y)\rvert\varphi(x)=\sup_{y\le x}\lvert v(y)-\tilde v(y)\rvert, luego \varphi^\prime(x)\le\varphi(x)+B\varphi_0(x). Para cualquier C > A+B, podemos resolver esto como \begin{align} e^{-Cx}\varphi(x)&\le B\int_0^xe^{-(C-A)(x-y)}e^{-Cy}\varphi_0(y)\,dy\\ &\le\frac{B}{C-A}\left(1-e^{-(C-A)x}\right)\sup_{y\le x}e^{-Cy}\varphi_0(y). \end{align} Por lo tanto, utilizando la norma \Vert v\rVert=\sup_xe^{-Cx}\lvert v(x)\rvert en \mathcal{S}, \Gamma es Lipschitz continua con constante B/(C-A) < 1. El punto fijo de Banach teorema implica que \Gamma tiene un único punto fijo.

Para a > 1 la educación a distancia (1) ha v^\prime(0) > 1, lo v(x) > x al menos para los pequeños valores positivos de x. Esto significa que la expresión v^\prime(x) implica el cálculo de v(y) para los valores de y > x. Esto significa que no podemos resolver de la educación a distancia mediante la continua intensificación hacia delante de x=0. En tales casos, no se nos garantiza que las soluciones existen, o son únicos. Sin embargo, numéricamente la aplicación de \Gamma de forma iterativa a un elegido de forma arbitraria v\in\mathcal{S} hace converger rápidamente a un punto fijo, que he utilizado para calcular los f en las parcelas anteriormente. De hecho, se puede demostrar que \Gamma es una contracción en \mathcal{S} bajo el uniforme de la norma.

Para completar la prueba de a > 1, a continuación se muestra que el \Gamma es una contracción y el punto fijo de Banach teorema garantiza un único punto fijo. Vamos a trabajar mediante el supremum norma \lVert v\rVert=\sup_x\lvert v(x)\rvert\mathcal{S}.

Para a\ge1, \Gamma es Lipschitz continua en \mathcal{S} con un coeficiente de a^{-1}.

Es suficiente para probar esto en un infinitesimal sentido. Si v_0,v_1\in\mathcal{S} v_t=(1-t)v_0+tv_1\in\mathcal{S} t\in[0,1], \dot v_t=v_1-v_0 y, \Vert \Gamma v_1-\Gamma v_0\rVert\le\int_0^1\left\lVert\frac{d}{dt}\Gamma v_t\right\rVert\,dt. Si podemos demostrar que \lVert (d/dt)\Gamma v_t\rVert\le a^{-1}\lVert\dot v_t\rVert, entonces hemos terminado. Configuración \tilde v=\Gamma v_t, w=(d/dt)\Gamma v_t, podemos diferenciar la definición de \Gamma v_t a obtener, \begin{align} w^\prime &= w(a-u(\tilde v))+(a+\tilde v)(-\dot u(\tilde v)-u^\prime(\tilde v)w),\\ u^\prime(\tilde v)&=a+v_t(\tilde v)\ge a,\\ u(\tilde v) & \ge a\tilde v,\\ \lvert \dot u(\tilde v)\rvert &=\frac{d}{dt}\left\lvert\int_0^\tilde v(a+v_t(y))dy\right\rvert\le\int_0^\tilde v\lvert\dot v_t(y)\rvert\,dy\le\tilde v\lVert \dot v_t\rVert. \end{align} La multiplicación de la educación a distancia para w por el signo de w y sustituyendo en la desigualdad que da \lvert w\rvert^\prime\le\lvert w\rvert una(1-\tilde v)+(a+\tilde v)(\tilde v\lVert v_t\rVert-\lvert w\rvert). El lado derecho es una ecuación cuadrática en \tilde v con un coeficiente positivo de \tilde v^2, por lo que su máximo en el rango de \tilde v\in[0,1] se obtiene en los extremos. Por lo tanto, \lvert w\rvert^\prime\le\max\left(-\lvert w\rvert un(a-1),(a+1)(\lVert v_t\rVert-\lvert w\rvert)\right). Por eso, \lvert w\rvert^\prime \le 0 siempre \lvert w\rvert\ge a^{-1}\lVert v_t\rVert. De ello se desprende que \lvert w(x)\rvert\le a^{-1}\lVert v_t\rVert todos los x, según se requiera.

11voto

WerkkreW Puntos 4212

Hay dos soluciones:

\displaystyle f_1(x) = e^{\frac{\pi}{3} (-1)^{1/6}} x^{\frac{1}{2}+\frac{i \sqrt{3}}{2}}

\displaystyle f_2(x) = e^{\frac{\pi}{3} (-1)^{11/6}} x^{\frac{1}{2}+\frac{i \sqrt{3}}{2}}

Ver aquí para más detalles sobre cómo resolver tales ecuaciones.

5voto

CodingBytes Puntos 102

Dada cualquier función de f definido en el barrio de c y la satisfacción de f(c)=b\ne c, f'(c)\ne0 podemos definir a la f en un barrio de la V b tal que f'(x)\equiv f\bigl(f(x)\bigr)\tag{1} en un barrio de la Uc: f mapas de un adecuado vecindario U c bijectively en un vecindario Vb, y podemos suponer que la U\cap V=\emptyset. Ahora definir f(y):=f'\bigl(f^{-1}(y)\bigr)\qquad(y\in V)\ , y (1) está satisfecho para todos los x\in U.

De ello se desprende que interesantes ejemplos provienen de su enfoque en busca de una f satisfacción (1) f(c)=c algunos c. Para la discusión de esta f's movemos el punto fijo en el origen y considerar la función g(t):=f(c+t)-c en su lugar. De ello se desprende que g(0)=0, y g'(t)=f'(c+t)=f\bigl(f(c+t)\bigr)=f\bigl(g(t)+c\bigr)=g\bigl(g(t)\bigr)+c\ . Con el fin de resolver g'(t)=g\bigl(g(t)\bigr)+c ahora hacemos el "Ansatz" g(t)=c\>t +\sum_{k=2}^\infty a_k t^k y comparar coefficents. Mathematica produce \eqalign{g(t)=c t &+ {1\over2}c^2 t^2 + {1\over6} (c^3 + c^4) t^3 + {1\over24} (c^4 + 4 c^5 + c^6 + c^7) t^4 \cr &+ {1\over120} (c^5 + 11 c^6 + 11 c^7 + 8 c^8 + 4 c^9 + c^{10} + c^{11}) t^5 \cr&+ {1\over720} (c^6 + 26 c^7 + 66 c^8 + 58 c^9 + 60 c^{10} + 22 c^{11} + 22 c^{12} + 8 c^{13} + 4 c^{14} + c^{15} + c^{16}) t^6 \cr&+{1\over5040}(c^7 + 57 c^8 + 302 c^9 + 424 c^{10} + 553 c^{11} + 387 c^{12} + 319 c^{13} + 220 c^{14} + 122 c^{15} \cr&\qquad\qquad+ 76 c^{16} + 38 c^{17} + 22 c^{18} + 8 c^{19} + 4 c^{20} + c^{21} + c^{22}) t^7\cr &\ +?\ t^8\ .\cr} Esto es más o menos lo que hizo, pero ahora tenemos c (=-0.6 en tu ejemplo) como un parámetro.

4voto

MikeTeX Puntos 1094

La respuesta a la pregunta, es decir, con cierta probabilidad, SÍ, a nivel local.

Voy a explicar cómo transformar la ecuación en uno de otro, y, a continuación, tratar de convencerlo de que debe existir un teorema análogo al teorema fundamental de la educación a distancia que resuelve el problema (no tengo el tiempo para demostrar el teorema, o buscar en la literatura, pero creo firmemente que se debe de existir en algún lugar, en esta o en otra forma).

Se supone que hay un pequeño intervalo de [a,b] donde f'(x)>0 o f'(x)<0. En particular, si se exige que f' ser continua, no debe existir un intervalo de menos que no haya otra solución, pero el f=0.

Supongamos que w.l.g f'(x)>0, lo f es estrictamente creciente, por lo tanto invertible [a,b]\to [c,d]. En [a,b], no tiene f'(x)=f(f(x)), hence in [c,d], no tiene f'(f^{-1}(x)) = f(x); in particular, f(x)>0 in [c,d]. La ecuación anterior es equivalente a {1\over f'(f^{-1}(x))} = {1\over f(x)} (no problem of division by 0 aquí). Equivalentemente, (f^{-1})'(x) = {1\over f(x)}. Set g=f^{-1}, lo g'(x) = {1\over g^{-1}(x)}.

Esta ecuación es de la forma y' = F(y^{-1}, x)\quad (*), analogous to the ordinary differential equation y'= F(y,x). Queremos resolver es el uso de un paso de esquema, pero el problema es que si usted sabe y en algún intervalo, usted sabe y^{-1} en otro (como se ha señalado por Julien). Sin embargo, si y se supone que intersecta el eje y=x en algún punto de x^*, (este es el caso aquí, ya que se ha demostrado que la f tiene un punto fijo), entonces creo que este problema puede ser superado mediante la creación de "simultáneamente" las cuatro sedes que se cruzan en este punto, el uso de un determinado esquema. En el punto x^*, y = y^{-1}, así conocemos y'(x^*), y que podemos construir (aproximadamente) una pequeña parte de la rama de y cerca de y(x^*); entonces, podemos construir el simétrica parte de esta rama alrededor del eje y=x, es decir, una pequeña parte de y^{-1}; esperamos seguir en este camino. El esquema probablemente no es tan fácil porque debe ser necesario, en general, para construir una rama más rápido que el segundo. Os dejo este interesante problema, a saber, la solución de una ecuación de la forma y'(x)=f(y^{-1}(x),x) siempre y(x^*)=y^{-1}(x^*) algunos x^*, a la reflexión de los lectores (estas palabras son sólo una dirección de investigación, no una demostración de alguna manera).

-1voto

Ed Krohne Puntos 67

Asumir que existe una función de tal, desde f'(x)=f(f(x))>0, la función es estrictamente monótona creciente. Monotonity, f(x)>0 implica el f(f(x)>f(0) % todos x. Así, f(0) es un límite inferior de f'(x) y, para todos los x<0, tenemos f(x)<f(0)+xf(0)=(1+x)f(0). Por lo tanto, si x\le -1, entonces el f(x)\le 0, contradiciendo el % de propiedad f(x)>0.

Por lo tanto no existe tal función.

O puedes ver este post.

i-Ciencias.com

I-Ciencias es una comunidad de estudiantes y amantes de la ciencia en la que puedes resolver tus problemas y dudas.
Puedes consultar las preguntas de otros usuarios, hacer tus propias preguntas o resolver las de los demás.

Powered by:

X