Estoy aplicando $\epsilon$ - y $\nu$ -regresión a los datos de la muestra, y descubrí que tenía resultados diferentes en cuanto al número de vectores de apoyo.
Cuando tengo menos vectores de apoyo, ¿significa que el modelo es más sencillo?
Estoy aplicando $\epsilon$ - y $\nu$ -regresión a los datos de la muestra, y descubrí que tenía resultados diferentes en cuanto al número de vectores de apoyo.
Cuando tengo menos vectores de apoyo, ¿significa que el modelo es más sencillo?
Básicamente, su afirmación es correcta.
El número de vectores de apoyo depende del margen que se permita y de la complejidad de nuestro modelo. Cada vez que se trata de girar o rotar la curva de decisión (o simplemente la traslación/rotación con kernel lineal), se definen e incluyen uno o más vectores de soporte. Si sus datos en el espacio de entrada (o el espacio transformado con kernel) son linealmente separables y los patrones son muy claros, puede que sólo necesite muy pocos vectores de soporte, lo que también indica que su modelo es simple.
Sin embargo, en la mayoría de los casos los patrones no son tan evidentes, por lo que en realidad se está equilibrando entre un modelo de alta complejidad (que tiende a sobreajustarse) y un modelo simple con mayor margen (que tiende a subajustarse y a clasificar mal algunos datos de entrenamiento). Este equilibrio se refleja en el cambio del número de vectores de soporte.
I-Ciencias es una comunidad de estudiantes y amantes de la ciencia en la que puedes resolver tus problemas y dudas.
Puedes consultar las preguntas de otros usuarios, hacer tus propias preguntas o resolver las de los demás.