¿Cuál es la dimensión VC de SVM con el kernel polinómico $k(x,x')=(1+_{\mathbb{R^{2}}})^{2}$ para clasificación binaria en $\mathbb{R^{2}}$?
Sería igual o mayor que v si existe un conjunto de v puntos tal que, cualquier etiquetado (-1 o +1) de los puntos dados, existe un borde separador correcto.
Sería estrictamente menor que v si para todos los conjuntos de v puntos, existe un etiquetado de los puntos tal que no hay un borde separador correcto.
En este caso, el borde separador es una sección cónica o una línea, así que cualquier idea basada en estas curvas en lugar de SVM es bienvenida.
Por ejemplo, sea $x=(x_{1},x_{2}) \in \mathbb{R^{2}}$. Se mapea a $\mathbb{R^{6}}$ usando cierto $\phi$ y un hiperplano en este nuevo espacio es una sección cónica en el espacio anterior. Así que mi suposición sería la dimensión VC de un clasificador lineal en $\mathbb{R^{6}}$, que es 7.
De hecho, la respuesta es 6: la ecuación de un hiperplano en $\mathbb{R^{d}}$ es $$_{\mathbb{R^{d}}}+b=0$$ donde $w \in \mathbb{R^{d}}$ y $b \in \mathbb{R}$. Aquí, tenemos $b=1$ y $w \in \mathbb{R^{5}}$, no en $\mathbb{R^{6}}$.