A menudo se dice que los métodos de aprendizaje profundo son muy ineficientes desde el punto de vista de los datos, ya que requieren entre 100 y 1000 ejemplos por clase, mientras que un ser humano necesita entre 1 y 2 para alcanzar una precisión de clasificación comparable.
Sin embargo, los conjuntos de datos modernos son enormes (o pueden hacerse enormes), lo que plantea la cuestión de si realmente necesitamos algoritmos eficientes en cuanto a los datos. ¿Existen áreas de aplicación en las que un algoritmo de aprendizaje automático eficiente en datos sería muy útil, a pesar de tener que hacer concesiones en otros ámbitos? Por ejemplo ¿eficacia de la formación o de la inferencia? ¿Sería útil un algoritmo de ML que fuera, digamos, 100 veces más eficiente con los datos, pero 1000 veces más lento?
Las personas que trabajan en algoritmos de datos eficientes a menudo mencionan la robótica como "motivación". Pero incluso para la robótica se pueden recopilar grandes conjuntos de datos, como se hace en esta fábrica de recopilación de datos de Google:
Básicamente, lo que me preocupa es que, aunque existen algoritmos eficientes desde el punto de vista de los datos ( Por ejemplo ILP, modelos gráficos) y podrían mejorarse aún más, su aplicabilidad práctica se reduce entre las tareas comunes, en las que existen enormes conjuntos de datos, y las raras, que quizá no merezca la pena automatizar (¡dejar algo para los humanos!).