Las SVM lineales y la regresión logística suelen tener un rendimiento comparable en la práctica. Utilice la SVM con un núcleo no lineal si tiene razones para creer que sus datos no serán linealmente separables (o si necesita ser más robusto a los valores atípicos de lo que normalmente tolera la LR). De lo contrario, pruebe primero con la regresión logística y vea cómo le va con ese modelo más sencillo. Si la regresión logística le falla, pruebe con una SVM con un núcleo no lineal como un RBF.
EDITAR:
Bien, hablemos de dónde vienen las funciones objetivo.
La regresión logística procede de la regresión lineal generalizada. Una buena discusión de la función objetivo de la regresión logística en este contexto se puede encontrar aquí: https://stats.stackexchange.com/a/29326/8451
El algoritmo de las máquinas de vectores de apoyo es mucho más motivado por la geometría . En lugar de asumir un modelo probabilístico, estamos tratando de encontrar un hiperplano de separación óptimo particular, donde definimos "optimalidad" en el contexto de los vectores de soporte. No tenemos nada parecido al modelo estadístico que utilizamos en la regresión logística aquí, a pesar de que el caso lineal nos dará resultados similares: en realidad esto sólo significa que la regresión logística hace un trabajo bastante bueno en la producción de clasificadores de "amplio margen", ya que eso es todo lo que SVM está tratando de hacer (específicamente, SVM está tratando de "maximizar" el margen entre las clases).
Intentaré volver a esto más tarde y profundizar un poco más en la maleza, es que estoy como en medio de algo :p