3 votos

Clasificación binaria mediante SVM de núcleo de base radial con una única característica

¿Existe alguna interpretación (gráfica o de otro tipo) de una SVM de base radial entrenada con una única característica? Puedo visualizar el efecto en 2 dimensiones (el resultado es un límite de separación que es curvo en lugar de una línea lineal. (Por ejemplo http://en.wikipedia.org/wiki/File:Kernel_Machine.png ).

Me cuesta pensar cómo sería esto si los datos originales sólo tuvieran una característica. ¿Qué aspecto tendría la línea divisoria en este caso?

4voto

Philip T. Puntos 266

Puedes jugar con este código: (tomado y modificado de: http://scikit-learn.org/stable/auto_examples/svm/plot_iris.html )

He hecho un poco de trampa para tener sólo una característica, pero supongo que se entiende. Sólo piensa en ello en 2D utilizando sólo una línea y no en 3D

import numpy as np
import pylab as pl
from sklearn import svm, datasets

def linearly_separable_data():
    X = np.r_[ np.random.randn(20,2) - [3,3], np.random.randn(20,2) + [4,4]] 
    X[:,1] = 0 
    Y = [0]*20 + [1]*20 
    return X, Y

def non_linearly_separable_data():
    X = np.r_[ np.random.randn(20,2) - [3,3], np.random.randn(20,2) + [2,2], np.random.randn(20,2) + [5,5]] 
    X[:,1] = 0 
    Y = [0]*20 + [1]*20 + [0]*20  
    return X, Y

X, Y = non_linearly_separable_data()
h = .02  # step size in the mesh

# we create an instance of SVM and fit out data. We do not scale our
# data since we want to plot the support vectors
C = 1.0  # SVM regularization parameter
svc = svm.SVC(kernel='linear', C=C).fit(X, Y)
rbf_svc = svm.SVC(kernel='rbf', gamma=0.7, C=C).fit(X, Y)
poly_svc = svm.SVC(kernel='poly', degree=3, C=C).fit(X, Y)
lin_svc = svm.LinearSVC(C=C).fit(X, Y)

# create a mesh to plot in
x_min, x_max = X[:, 0].min() - 1, X[:, 0].max() + 1
y_min, y_max = X[:, 1].min() - 1, X[:, 1].max() + 1
xx, yy = np.meshgrid(np.arange(x_min, x_max, h),
                     np.arange(y_min, y_max, h))

# title for the plots
titles = ['SVC with linear kernel',
          'SVC with RBF kernel',
          'SVC with polynomial (degree 3) kernel',
          'LinearSVC (linear kernel)']

for i, clf in enumerate((svc, rbf_svc, poly_svc, lin_svc)):
    # Plot the decision boundary. For that, we will assign a color to each
    # point in the mesh [x_min, m_max]x[y_min, y_max].
    pl.subplot(2, 2, i + 1)
    Z = clf.predict(np.c_[xx.ravel(), yy.ravel()])
    # Put the result into a color plot
    Z = Z.reshape(xx.shape)
    pl.contourf(xx, yy, Z, cmap=pl.cm.Paired)
    pl.axis('off')
    # Plot also the training points
    pl.scatter(X[:, 0], X[:, 1], c=Y, cmap=pl.cm.Paired)
    pl.title(titles[i])

pl.show()

Para linealmente separables:

Linearly separable

Y para separables no linealmente:

Non-Linearly separable

Así que para el caso linealmente separable, tienes un punto que separa las dos clases. Y para no linealmente separable, tienes un intervalo.

i-Ciencias.com

I-Ciencias es una comunidad de estudiantes y amantes de la ciencia en la que puedes resolver tus problemas y dudas.
Puedes consultar las preguntas de otros usuarios, hacer tus propias preguntas o resolver las de los demás.

Powered by:

X