Supongamos $x_{k+1}= g(x_k)$ es de la iteración de punto fijo para algunas continuamente diffrentiable $g(x)$. El teorema de im aprendizaje dice que si $g(r) = r$ e $|g'(r)| < 1$ entonces la iteración de punto fijo converge a $r$ para el valor inicial $x_0$ lo suficientemente cerca de a $r$.
MI pregunta es: Es lo contrario también es verdadero? Es decir, si la iteración de punto fijo converge a $r$, entonces tenemos que tener en $|g'(r)|<1$?
O es posible tener situaciones donde $g'(r) \geq 1$ con $(x_k)$ convergente a $r$.