Estoy leyendo el primer capítulo de Comprender el aprendizaje automático desde la teoría hasta los algoritmos y dijeron que:
Dejemos que $H_B$ sea el conjunto de hipótesis "malas", es decir
$H_B=\left\{h \in H:L_{(D,f)(h)}\gt e\right\}$ ( $e$ es el parámetro de precisión)
Dejemos que
$M=\left\{S|_x : \exists \ h \in H_B, L_s(h) =0 \right\}$
sea el conjunto de muestras engañosas: Es decir, para cada $S|_x \in M$ Hay una hipótesis "mala", $h \in H_B$ , que parece una "buena" hipótesis sobre $S|_x$ . Ahora, recordemos que queremos acotar la probabilidad del evento $L_{(D,f)} \gt e$ . Pero, como la hipótesis de realizabilidad implica que $L_s(h_s)=0$ se deduce que el evento $L_{(D,f)}(h_s)\gt e$ sólo puede ocurrir si para algunos $h \in H_B$ tenemos $L_s(h) = 0$ . En otras palabras, este evento sólo se producirá si nuestra muestra está en el conjunto de muestras engañosas $M$ . Formalmente, hemos demostrado que
$\left\{S|_x : L_{(D,f)}(h_S)\gt e \subseteq M\right\}$
Estoy muy confundido con esta conclusión. ¿Puede alguien explicarme esto? Gracias por su tiempo.