En primer lugar, demostraremos que $a_n \to 1$ .
Paso 1. $(a_n)_{n \geqslant 0}$ está acotado.
Prueba. Buscamos $m,M$ tal que $m \leqslant a_n \leqslant M$ por cada $n \geqslant 0$ . Si es cierto para $n,n+1$ entonces : $$\frac{1}{M}\leqslant \frac{2}{a_n+a_{n+1}} \leqslant \frac{1}{m}$$ por lo que necesitamos $mM=1$ . Entonces sólo elegimos $m$ sabiamente para que $m \leqslant a_0,a_1$ .
Como la secuencia está acotada, fijamos $\ell$ el límite inferior y $L$ el superior.
Paso 2. $\ell L=1$
Prueba. Dejemos que $\phi$ sea una extracción tal que $a_{\phi (n)} \to \ell$ y por extracciones sucesivas podemos suponer que $a_{\phi (n)-1)} \to \ell _1 \in [\ell, L]$ y $a_{\phi (n)-2} \to \ell _2 \in [\ell, L]$ . Obtenemos : $$\ell = \frac{2}{\ell _1 + \ell _2} \geqslant \frac{1}{L}$$ y luego $\ell L \geqslant 1$ . Al sustituir $\ell$ con $L$ tenemos $\ell L=1$
Paso 3. $\ell = L=1$
Prueba. Es la misma idea, ponemos $\phi$ una extracción tal que $a_{\phi (n)} \to L$ , $a_{\phi (n)-1} \to \ell _1 \in [\ell , L]$ , $a_{\phi (n)-2} \to \ell _2 \in [\ell , L]$ , $a_{\phi (n)-3} \to \ell _3 \in [\ell , L]$ . Entonces tenemos : $$\ell _1 + \ell _2 = \frac{2}{L}=2\ell $$ y $$\ell _2+ \ell _3 = \frac{2}{\ell _1}$$ Desde $\ell _1, \ell_2 \geqslant \ell$ obtenemos $\ell _1 = \ell _2 = \ell$ y luego $\ell_2 + \ell _3= \frac{2}{\ell}=2L$ entonces $\ell_2=\ell_3 =L$ y concluimos $\ell =L$ la secuencia converge a $1$ . Entonces dejemos que $N \geqslant 0$ tal que para $n \geqslant N$ tenemos $|a_n+a_{n+1}| \geqslant 2- \varepsilon $
Para su pregunta.
dejar $U_n=(a_n,a_{n+1})$ para que $U_{n+1}=f(U_n)$ donde $f(x,y)= \left(y,\frac{2}{x+y} \right)$ . Podemos ver que : $$A:= \mathrm{d} f(1,1)= \begin{pmatrix} 0 & 1 \\ -\frac{1}{2} & -\frac{1}{2} \end{pmatrix} $$
Es un hecho. El cálculo de Maple o directo muestra que $\displaystyle \rho (A) := \max \left \{ |\lambda|, \lambda \in \operatorname{sp} ( A) \right \} < 1 $
Un lema clásico afirma que podemos encontrar una norma $\| \cdot \|_A$ tal que : $$\| \mathrm{d}f (1,1) \|_A \leqslant \rho (A) + \mu < 1 $$ por una sabia elección $\mu >0$ . Entonces ponemos una bola $B:=B((1,1), \varepsilon$ tal que $\|df(x)\|_A \leqslant \rho_0 <1 $ por cada $x \in B$ (porque $x \mapsto \mathrm{d}f(x)$ es continua) y por el teorema del valor medio obtenemos : \begin {align} \left \|\begin {pmatriz} a_n \\ a_{n+1} \end {pmatrix} - \begin {pmatrix} 1 \\ 1 \end {pmatrix} \right \|_A & = \left \| f^(n)} \left ( \begin {pmatriz} a_n \\ a_{n+1} \end {pmatrix} \right ) - f^{(n)} \left ( \begin {pmatrix} 1 \\ 1 \end {pmatrix} \right ) \right \|_A \\ & \leqslant \left ( \sup_ {x \in B} \| \mathrm {d}f (x)||_A \right )^{n-N} \left \|\begin {pmatriz} a_N \\ a_{N+1} \end {pmatrix} - \begin {pmatrix} 1 \\ 1 \end {pmatrix} \right \|_A \end {align}
para $n \geqslant N$ donde $N$ se elige de forma que $a_n \in B$ para $n \geqslant N$ Por equivalencia de normas en espacios de dimensión finita existe una constante $C_1$ tal que : \begin {align} |a_n-1| & \leqslant \max \left |a_n-1|,|a_{n+1}-1| \right \} \\ & \leqslant C_1 \left \| \begin {pmatriz} a_n \\ a_{n+1} \end {pmatrix} - \begin {pmatrix} 1 \\ 1 \end {pmatrix} \right \|_A \end {align}
Así, tenemos $|a_n-1| \leqslant c\lambda ^n $ para $n \geqslant N$ con : $$c= \sup_{x \in B} \|\mathrm{d}f (x)\|_A <1$$ y $$C=C_1 c^{-N} \left \|\begin{pmatrix} a_N \\ a_{N+1} \end{pmatrix} - \begin{pmatrix} 1 \\ 1 \end{pmatrix} \right \|_A$$
Como podemos dejar que $C$ podemos suponer que la desigualdad es válida para cada $n \geqslant 0$ .
Dejemos que $x_n := a_n - 1 \to 0$ y $X_n = (x_n,x_{n+1})$ . Establecemos $e_n := \|X_n\|$
Lo anterior demuestra que $\displaystyle e_n = \cal{O} \left( a^{ \frac{n}{2}}\right)$ por cada $a> \dfrac{1}{2}$ .
Un simple cálculo y el hecho de que $x_nx_{n+1} \leqslant \frac{x_n^2 + x_{n+1}^2}{2}$ muestra que : $$X_{n+1} = AX_n + {\cal{O}} \left( \| X_n \|^2 \right)$$
Hemos establecido..: $h_n:=2^{-n/2}e_n$ . Podemos encontrar una norma que aún escribiremos $\| \cdot \|$ para que la norma de la matriz asociada satisfaga $\|A\| = \dfrac{1}{\sqrt{2}}$ . Un simple cálculo muestra que : $$h_{n+1} \leqslant h_n + {\cal O} \left( \frac{h_n^2}{2^{n/2}} \right)$$ (He utilizado ese $\|A X_n\| \leqslant \|A\| \|X_n\| \leqslant \dfrac{\|X_n\|}{\sqrt{2}}$ )
Así, $ \displaystyle h_{n+1} - h_n \leqslant {\cal O} \left( (1- \varepsilon)^n \right) $ por una sabia elección $a$ . Entonces $\sum h_{n+1} - h_n$ converge de manera que $h_n$ convergen y tenemos $e_n \sim C 2^{-n/2}$ .
Investigaré si podemos ir más allá, pero parece que sí, solo que fijando $Y_n:=A^{n}X_n$ y estudiar esto.
Espero que esté claro, y por favor, siéntase libre de corregir mi tan débil inglés.