Me he estado preguntando, ¿por qué es tan importante tener principios teórico de la máquina de aprendizaje? Desde una perspectiva personal como ser humano, puedo entender por qué los principios de Aprendizaje de la Máquina sería importante:
- los seres humanos así como la comprensión de lo que están haciendo, nos encontramos con la belleza y la satisfacción de entender.
- a partir de una teoría del punto de vista, la matemática es divertida
- cuando hay principios que guían el diseño de las cosas, hay menos tiempo invertido en contestar al azar, extraño ensayo y error. Si hemos entendido, dicen, de cómo las redes neuronales realmente trabajado, tal vez podríamos pasar mucho mejor tiempo en el diseño en lugar de la enorme cantidad de ensayo y error que va en eso ahora.
- más recientemente, si los principios son claros y la teoría es clara, entonces no debe ser (con suerte) más transparencia al sistema. Esto es bueno porque si entendemos lo que el sistema está funcionando, entonces AI riesgos que mucha gente bombo acerca de casi desaparece de inmediato.
- principios parecen ser una manera concisa para resumir las estructuras importantes del mundo podría tener y cuándo utilizar una herramienta en lugar de otro.
Sin embargo, son estas razones lo suficientemente fuertes como realmente para justificar un intenso estudio teórico de la máquina de aprendizaje? Una de las mayores críticas de la teoría es que debido a su tan difícil de hacer, que por lo general terminan de estudiar algunas de las restringida en el caso o de los supuestos que tienen que ser llevados en esencia los resultados inútiles. Creo que escuché una vez en una conferencia en el MIT por el creador de la Tor. Que algunas de las críticas de Tor se ha escuchado es el argumento teórico, pero esencialmente, las personas nunca son capaces de demostrar cosas acerca de los escenarios reales de la vida real, porque son tan complicados.
En esta nueva era con mucho la potencia de cálculo y datos, podemos probar nuestros modelos con datos reales de conjuntos y conjuntos de la prueba. Podemos ver si las cosas funcionan mediante el empirismo. Si podemos conseguir que en lugar de lograr AGI o sistemas que funcionan con la ingeniería y el empirismo, es todavía vale la pena seguir con principios y justificación teórica para el aprendizaje de máquina, especialmente cuando el cuantificar los límites son tan difíciles de lograr, pero intuiciones y respuestas cualitativas son mucho más fáciles de lograr con un enfoque impulsado por los datos? Este enfoque no estaba disponible en la estadística clásica, que es por eso que creo que la teoría era tan importante en aquellos tiempos, debido a que las matemáticas era la única manera de estar seguro de que las cosas estaban en lo correcto, o que en realidad trabajó la manera que pensaba.
Yo personalmente he amado siempre y pensamiento de la teoría y de un enfoque basado en principios fue importante. Pero con el poder de ser capaz de probar las cosas con datos reales y el poder de computación me pregunto si el alto esfuerzo (y, potencialmente, de baja remuneración), teórico de seguir es todavía vale la pena.
Es teórica y basada en los principios de perseguir de aprendizaje de máquina realmente tan importante?