Si una función $f:\mathbb{R}\longrightarrow\mathbb{R}$ es continua en $[a, b]$ diferenciable en $(a,b)$ y $f(a)=f(b)$ entonces $f'$ es $0$ en algún lugar de $(a,b)$ .
Si simplemente exigimos $f$ para ser continua en $(a,b)$ entonces el teorema falla porque $f$ podría tener un "salto" en $a$ por lo que el valor de $f$ en $a$ podría ser muy diferente del valor de $f$ en los barrios de la derecha de $a$ (y de forma similar para $b$ ).
Pero, ¿y si relajamos el requisito de que $f$ se definirá en $a$ y $b$ y asumir que allí sólo tiene límites unilaterales? Así que permítanme expresar esto:
Si una función $f:\mathbb{R}\longrightarrow\mathbb{R}$ es continua en $(a, b)$ diferenciable en $(a,b)$ y $\lim\limits_{x\to a^+} f(x) = \lim\limits_{x\to b^-} f(x)$ entonces $f'$ es $0$ en algún lugar de $(a,b)$ .
¿Es esto cierto?