El error de clasificación es, de hecho, a veces manejable. Puede ser
optimizado de manera eficiente - aunque no exactamente - el uso de la Nelder-Mead
el método, como se muestra en este artículo:
https://www.computer.org/csdl/trans/tp/1994/04/i0420-abs.html
"La dimensión de la reducción es el proceso de transformación multidimensional
vectores en un espacio de pocas dimensiones. En el reconocimiento de patrones, es
a menudo se desea que la tarea se realiza sin pérdida significativa de
clasificación de la información. El error de Bayes es un ideal criterio para
este propósito; sin embargo, se sabe que es muy difícil para
el tratamiento matemático. En consecuencia, subóptima de los criterios de
se utiliza en la práctica. Proponemos una alternativa criterio, basado en la
estimación del error de Bayes, que es de esperar que más cerca de la óptima
criterio de los criterios actualmente en uso. Un algoritmo lineal
reducción de dimensiones, con base en este criterio, se concibe y
implementado. Los experimentos demuestran su rendimiento superior en
comparación con los sistemas convencionales de algoritmos."
La Bayes de error que se menciona aquí es básicamente el 0-1 de la pérdida.
Este trabajo fue realizado en el contexto de la dimensión lineal de reducción. Yo
no sé cuán efectivo sería para la formación de aprendizaje profundo
redes. Pero el punto es, y la respuesta a la pregunta: 0-1 pérdida
no es universalmente intratable. Puede ser optimizado relativamente bien
por lo menos algunos tipos de modelos.