8 votos

Beneficios de SVM como una herramienta para el reconocimiento de dígitos

Soy bastante nuevo a los dígitos de reconocimiento, y he notado que muchos de los tutoriales de uso de la SVM clasificación, por ejemplo:

Me gustaría saber si hay alguna (de dominio específico) beneficios para la herramienta, en comparación con, por ejemplo,

  • Profundo de aprendizaje de las redes neuronales
  • Clasificación basada en k-means

Gracias por cualquier comentario. Una aclaración, ¿por qué SVM es una herramienta equivocada para el número de dígitos de reconocimiento, será apreciado, también.

9voto

throwaway Puntos 18

Tutoriales para diferentes clasificadores basados en dígitos de reconocimiento, en particular, el conjunto de datos MNIST. Creo que esto es en gran parte debido a este conjunto de datos es fácilmente disponible, fácil de entender, y requiere de un mínimo de preprocesamiento. Es también un referente común del conjunto de datos en la literatura.

No estoy al tanto de los argumentos que cualquier particular de la familia de los clasificadores es intrínsecamente más adecuado para el número de dígitos de reconocimiento. Creo que esto sería difícil argumento porque: 1) La distribución de los dígitos que viene desde el mundo real y no tenemos una completa descripción matemática de la misma, y 2) El conjunto de todas las SVMs, todas las redes neuronales, etc. es infinito, y solo hemos logrado explorar un pequeño subconjunto. Quizás el más conocido de la red neuronal es mejor que el mejor conocido SVM, pero un nuevo núcleo de la función está al acecho en algún lugar en el vasto, sin descubrir el espacio que haría SVMs mejor. Tal vez hay otra red neuronal arquitectura que sería mejor todavía. Supongo argumentos podrían ser realizados en determinados casos (por ejemplo, naive Bayes en raw píxeles es probablemente una mala idea debido a que sus supuestos son violados flagrantemente).

Hay muchas razones para preferir cada tipo de clasificador por encima de otros en diferentes circunstancias (por ejemplo, tiempo/memoria necesaria para la formación/evaluación, la cantidad de ajustes/exploración necesaria para obtener un buen modelo de trabajo, etc.). Estas razones no son específicas de los dígitos de reconocimiento, así que no voy a entrar en ellos aquí.

Sin duda hay un dominio específico de trucos que pueden hacer que los clasificadores más adecuado para el número de dígitos de reconocimiento. Algunos de estos trucos de trabajo mediante el aumento de la invariancia en particular de las transformaciones que sería de esperar en manuscrita dígitos (por ejemplo, traducción, rotación, escalado, deformación). Por ejemplo, el dígito '0' debe significar la misma cosa, incluso si está desplazada a la izquierda y deformado un poco. Algunos de los trucos son específicos a la familia de los clasificadores. Por ejemplo, este tipo de invariancia se puede tener el uso de ciertos SVM núcleos, de ordenación del transformador de capas en las redes neuronales, o, probablemente, un invariante de la distancia métrica para los K vecinos más cercanos. Otros trucos que se pueden usar con muchos de los clasificadores. Por ejemplo, el conjunto de datos puede ser aumentada con muchos transformado copias de los dígitos, lo que puede ayudar el clasificador de aprender el correcto invariancia.

SVMs, las redes neuronales, e incluso kNN han alcanzado un buen rendimiento en el conjunto de datos MNIST. Otros métodos de trabajo también. El mejor rendimiento personalmente, he oído hablar de que ha sido con las redes neuronales. Algunos de los resultados acumulados a través de los diferentes papeles aquí y aquí.

i-Ciencias.com

I-Ciencias es una comunidad de estudiantes y amantes de la ciencia en la que puedes resolver tus problemas y dudas.
Puedes consultar las preguntas de otros usuarios, hacer tus propias preguntas o resolver las de los demás.

Powered by:

X