Deje $f: (a,b) \to \Bbb R$ ser un continuo de la función tal que $$\forall x \in (a,b)\; \exists \epsilon_0 \forall \epsilon < \epsilon_0: f(x) \leq \frac{f(x+\epsilon)+f(x-\epsilon)}{2}. $$
Es $f$ necesariamente convexa?
Por definición, $f$ es convexa si $$\forall x,y \;\forall t \in [0,1]: f(tx+(1-t)y)\leq tf(x)+(1-t)f(y)$$
así que si $f$ es convexo se cumple de nuestra propiedad, como puede ser visto por tomar $t=\frac 12, y=x'-\epsilon, x= x'+\epsilon$.
El problema con afirmar lo contrario es tha t la convexidad definición es global, mientras que la propiedad es local. Por otro lado, la propiedad está en una discreta segunda derivada y cuando la función sea diferenciable tenemos un local descripción de la convexidad diciendo exactamente la continua analógica, es decir, $f'' \geq 0$ en todos los puntos.
EDITAR
He añadido el supuesto de que $f$ es continuo, como este post muestra que, en general, $f$ no puede ser convexo.
Respuesta
¿Demasiados anuncios?Suponga que la función no es convexa. Es decir, no se $x<y\in (a,b), \lambda_{0} \in (0,1)$ s.t. $f(\lambda_0 y + (1-\lambda_0)x)>\lambda_0 f(y)+(1-\lambda_0)f(x)$. Equivalentemente, $f(\lambda_0 (y -x) + x) - \lambda_0 (f(y)-f(x)) - f(x) > 0$
Ahora, definir $g:[0,1]\to \Bbb{R}$$g(\lambda)=f(\lambda (y -x) + x) - \lambda (f(y)-f(x)) - f(x)$. Como $g$ es continua con dominio compacto, no es $\lambda^*$ tal que maximiza $g$. Por lo tanto $g(\lambda^*)\ge g(\lambda_0)>0$, y desde $g(0)=g(1)=0, \lambda^* \in (0,1)$.
Ahora, vamos a $\varepsilon>0$ lo suficientemente pequeño. Sabemos $$ 0\le g(\lambda^*) - g(\lambda^*+\varepsilon) \\ = f(\lambda^* (y-x) + x) - \lambda^* (f(y)-f(x)) - f(x)\\ - f((\lambda^* +\varepsilon) (y-x) + x) + (\lambda^*+\varepsilon) (f(y)-f(x)) + f(x)\\ = f(\lambda^* (y-x) + x) - f((\lambda^* +\varepsilon) (y-x) + x) + \varepsilon (f(y)-f(x)) $$
y del mismo modo,
$$ 0\le g(\lambda^*) - g(\lambda^*-\varepsilon) \\ = f(\lambda^* (y-x) + x) - f((\lambda^* -\varepsilon) (y-x) + x) - \varepsilon (f(y)-f(x)) $$ donde al menos una de las desigualdades es estricta. (*)
Por lo tanto $$ 0< f(\lambda^* (y-x) + x) - f((\lambda^* +\varepsilon) (y-x) + x) + \varepsilon (f(y)-f(x)) \\ + f(\lambda^* (y-x) + x) - f((\lambda^* -\varepsilon) (y-x) + x) - \varepsilon (f(y)-f(x)) \\ = 2f(\lambda^* (y-x) + x) - f((\lambda^* +\varepsilon) (y-x) + x) - f((\lambda^* -\varepsilon) (y-x) + x) $$
Ahora, si denotamos $x^*=\lambda^* (y-x) + x$, e $\epsilon = \varepsilon (y - x)$, podemos escribir el ex de la desigualdad $$ \frac{f(x^* - \epsilon) + f(x^* + \epsilon)}{2} < f(x^*) $$ lo cual es cierto para todos lo suficientemente pequeño como $\epsilon$. Lo cual es una contradicción.
Para justificar (*), como se ha señalado por @Ashkan:
En primer lugar, vamos a $M=\{\lambda^*\in[0,1]|g(\lambda^*)=\max_{[0,1]}g(\lambda)\}$. Este conjunto es no vacío, por lo que tiene un supremum $\bar{\lambda}$. Y este supremum es en $M$. Para ver esto, tomar una secuencia $(\lambda^*_n)_n \in M$ s.t. converge a $\bar{\lambda}$. Por la continuidad de $g$, $g(\lambda^*_n)\to g(\bar{\lambda})$, y desde $g(\lambda^*_n)=\max_{[0,1]}g(\lambda)$ todos los $n$, podemos deducir $\bar{\lambda}\in M$.
Con esto, la justificación de (*) es que podemos tomar, w.l.o.g, $\lambda^*=\bar{\lambda}$. Por lo tanto, para todos los $\varepsilon>0$, $g(\lambda^*)>g(\lambda^* +\varepsilon)$.