El libro "Understanding Machine Learning" tiene el siguiente ejemplo en la sección de la dimensión VC:
Dejemos que $\mathcal{H}$ sea la clase de funciones umbral sobre $\mathbb{R}$ (números reales). Tome un conjunto $C = \{c_1\}$ . Ahora, si tomamos $a = c_1 + 1$ entonces tenemos $h_a(c_1) = 1$ y si tomamos $a = c_1 1$ entonces tenemos $h_a(c_1) = 0$ . Por lo tanto, $\mathcal{H}_C$ es el conjunto de todas las funciones de $C$ a $\{0,1\}$ y $\mathcal{H}$ rompe $C$ . Ahora toma un conjunto $C = \{c_1,c_2\}$ , donde $c_1 \leq c_2$ . No $h \in \mathcal{H}$ puede dar cuenta del etiquetado $(0,1)$ , porque cualquier umbral que asigne la etiqueta 0 a $c_1$ debe asignar el etiqueta 0 a $c_2$ también. Por lo tanto, no todas las funciones de $C$ a $\{0, 1\}$ se incluyen en $\mathcal{H}_C$ Por lo tanto, C no es destruido por H.
No entiendo por qué no es posible el etiquetado (0,1). Se puede elegir un umbral que esté entre $c_1$ y $c_2$ que asigna un 0 a $c_1$ y un 1 a $c_2$ .
Puede que esté malinterpretando algo aquí, así que se agradece cualquier ayuda.