Recientemente me he interesado en Machine Learning y AI como estudiante de física teórica y matemáticas, y he revisado algunos de los recursos recomendados que tratan sobre la teoría del aprendizaje estadístico y el aprendizaje profundo en redes neuronales.
Uno de los principales problemas que encuentro en mi estudio personal de esta disciplina es que una abrumadora proporción de dichos recursos se centran en el lado práctico de ML, sacrificando rigor en favor de heurísticas útiles. Este enfoque tiene sus méritos obvios, considerando el gran interés actual en sus aplicaciones tanto en la ciencia como en la tecnología, pero me gustaría ir más allá de lo que el ingeniero promedio podría necesitar y explorar los aspectos más teóricos.
El elefante en la habitación es, por supuesto, el hecho de que hasta la fecha el funcionamiento interno de las principales herramientas de IA, las redes neuronales sobre todo, no se comprenden bien. Por lo que puedo ver, hay una variedad de enfoques que provienen de campos muy diversos, incluyendo una perspectiva física (ver Mecánica Estadística de Redes Neuronales de Huang, o Teoría de Campos Estadísticos para Redes Neuronales de Helias y Dahmen).
Como forastero, me resulta difícil navegar por la literatura, por lo que he pensado en hacer una pregunta bastante abierta en este sitio (no sé si este es el lugar correcto; estoy seguro de que la moderación me hará saber si no lo es). ¿Podría alguien trazar un mapa del panorama actual de la investigación en IA, desde la ciencia convencional hasta los enfoques de vanguardia, y elucidar los tipos de matemáticas necesarios para abordarlos?