Estoy intentando averiguar cómo realizar el aprendizaje utilizando lenguajes de programación probabilísticos. Para ello estoy siguiendo diferentes caminos para hacerme con la forma de pensar.
Entiendo la modelización mediante redes neuronales y comprendo cómo funciona el aprendizaje en este contexto. Ahora estoy intentando comprender el análogo en el razonamiento bayesiano.
Entiendo lo siguiente:
- vector de entrada y salida de las redes neuronales corresponden a distribuciones (en particular, distribuciones categóricas)
- matrices de pesos corresponde a la inferencia de una distribución a priori a una distribución a posteriori
- algoritmos de aprendizaje como la retropropagación, corresponde a qué ?
Entonces, mi pregunta es ¿a qué corresponde el aprendizaje en la terminología de la teoría de la probabilidad? más concretamente: ¿Cómo aprender funciones de inferencia?
Puede que haya pasado por alto algo muy sencillo, incluso trivial. En ese caso, perdóneme esta pregunta.