No hay manera, todos los modelos de ML no es acerca de la comprensión fenomenal, es métodos de interpolación con la esperanza "que funciona". Empezar con tales preguntas confianza, robustnes al ruido no hay respuestas.
Así que para derivar algo, por favor, utilice varias ciencias aplicadas y fundamentales:
-
Utilizar el control (y hacer suposiciones sobre la dinámica)
-
Utilizar la optimización convexa (con alguna condición extra en la función)
-
Utilizar la estadística matemática (con hipótesis preliminares sobre las distribuciones)
-
Utilizar el procesamiento de la señal (con algunas suposiciones de que la señal es de banda limitada)
Los científicos utilizan algunas suposiciones preliminares (llamadas axiomas) para deducir algo.
No hay manera de dar ninguna confianza sin alguna suposición preliminar, así que el problema no está en el método de DL, sino que es un problema en cualquier método que intente interpolar sin ninguna suposición preliminar - no hay manera de derivar mediante el álgebra algo inteligente sin una suposición.
La NN y los diversos métodos de ML sirven para crear rápidamente un prototipo de "algo" que parece funcionar "de alguna manera" comprobado con validación cruzada.
Aún más profundo, el ajuste de la regresión E[Y|X] o su estimación puede ser un problema absolutamente incorrecto de resolver (tal vez la f.d.p. en el punto Y=E[Y|X] tiene un mínimo, no un máximo), y hay un montón de cosas tan sutiles.
También permítanme recordar dos problemas irresolubles en AI/ML, que por algunas razones pueden ser olvidados, detrás de eslóganes de belleza:
(1) Son métodos de interpolación, no de extrapolación: no tiene capacidad para tratar nuevos problemas
(2) nadie sabe cómo se comportará un modelo con datos que no proceden de la misma distribución (hombre disfrazado de plátano para la localización de peatones)