Para responder desde una perspectiva diferente, un punto filosófico puede ayudar: el concepto de aprender en aprendizaje profundo.
En el aprendizaje profundo, hay múltiples pasos de aprendizaje. En el primer paso, la entrada de datos se "convierte" (o aprende) en una salida intermedia sintética (una abstracción un poco más alta, en términos generales). A continuación, en cada paso, la salida anterior se aprende progresivamente (o se "transforma") en características de mayor abstracción, que pueden o no ser comprensibles para los humanos. Hablando en términos generales, la combinación de estas capas se aproximará al "modelo" por ti, no necesitamos especificar ningún modelo o hipótesis de antemano. Se trata del mismo concepto de "aprendizaje" que en la ciencia cognitiva: encontrar/construir una abstracción superior a partir de una entrada bruta .
Entonces, ¿necesitamos NN para el aprendizaje profundo? Sí, en la práctica. Con mis limitados conocimientos, diría que es la forma más conveniente y eficiente de hacerlo. En teoría, depende. Si construyes un marco de "aprendizaje" en el que tu modelo puede crear una abstracción "profunda" (iterativamente creciente) a partir de la entrada bruta para lograr la tarea que se le ha encomendado, puede contar como aprendizaje profundo.
En la práctica, es un poco simplista considerar el aprendizaje profundo como una simple red neuronal multicapa. A menudo, el flujo de trabajo incluye diferentes componentes de la red neuronal y otras capas de transformación, y cada parte puede ser muy diferente de la siguiente.
Espero que esta respuesta aporte algunas ideas útiles sin necesidad de utilizar términos técnicos.