Tienes razón sobre los datos no etiquetados. Los RBM son modelos generativos y se suelen utilizar como aprendices no supervisados.
Cuando se utiliza para construir una Red Profunda de Creencia, el procedimiento más típico es simplemente entrenar cada nueva RBM de una en una, a medida que se apilan unas sobre otras. Así que la divergencia contrastiva no es subir y bajar en el sentido que creo que quieres decir. Sólo trabaja con un RBM a la vez, utilizando la capa oculta del RBM superior anterior como entrada para el nuevo RBM superior. Después de todo esto puedes tratar la pila de pesos RBM como los pesos iniciales de una red neuronal estándar y entrenar usando tus datos etiquetados y retropropagación o hacer algo más exótico como usar el algoritmo wake-sleep. Observe que no hemos utilizado ningún dato etiquetado hasta este último paso, que es uno de los beneficios de este tipo de modelos. Podemos aprender un buen modelo generativo utilizando muchos datos sin etiquetar e incluso si nuestro objetivo final es tener un buen rendimiento discriminativo, debería ayudar.
Por otro lado, existen varias formas de utilizar los RBM para la clasificación.
- Entrenar un RBM o una pila de varios RBM. Utiliza la capa oculta superior como entrada para otro aprendiz supervisado.
- Entrenar un RBM para cada clase y utilizar las energías no normalizadas como entrada para un clasificador discriminativo.
- Entrenar el RBM para que sea un modelo de densidad conjunta de P(X, Y). Entonces, dada una entrada x, simplemente elige la clase y que minimiza la función de energía (la normalización no es un problema aquí como en el caso anterior, ya que la constante Z es la misma para todas las clases).
- Formar a RBM discriminativo
Le recomiendo encarecidamente que lea el informe técnico Guía práctica para entrenar máquinas de Boltzmann restringidas por Geoff Hinton. En él se tratan varias de estas cuestiones con mucho más detalle, se ofrecen valiosos consejos, se citan muchos artículos relevantes y puede ayudar a aclarar cualquier otra confusión que pueda tener.