Actualmente estoy leyendo un artículo "On the foundations of machine learning" de F.Cucker y S.Smale y me he atascado en un problema aparentemente sencillo.
Para demostrar una desigualdad que da un límite al número de cobertura de un espacio de Banach de dimensión finita, los autores introdujeron dos números:
Dejemos que $S$ sea un espacio métrico. Para $k\geq1$ definir:
$ \varepsilon_{k}(S) = \inf \left\lbrace \varepsilon >0 : \exists \text{ closed balls $ D_{1}, _{puntos}, D_{k} $ with radius $ \N -varepsilon $ covering S}\right\rbrace $
$ \varphi_{k}(S) =\sup \left\lbrace \delta>0 : \exists \; x_{1}, ..., x_{k+1} \in S \text{ such that for $ i \neq j $, $ d(x_{i}, x_{j})>2\Ndelta $} \right\rbrace $
Y entonces, escribieron un lema:
Para todos $ k \geq 1$ , $\varphi_{k}(S) \leq \varepsilon_{k}(S) \leq 2\varphi_{k}(S)$ .
La demostración de este lema se reduce a la afirmación "es fácil de demostrar", pero desgraciadamente no lo he conseguido. Agradecería cualquier ayuda o pista.
Además, es mi primera exposición a los números de cobertura y ni siquiera sé cuáles son los nombres de los números definidos anteriormente, por lo que tengo problemas para encontrar recursos útiles sobre este tema.