Las redes neuronales en la supervisión de aprendizaje son ampliamente utilizados para aprender mejor las representaciones de la entrada. Por ejemplo, dado un conjunto de documentos de texto, NN puede aprender una asignación de documento a un valor real de vectores de tal manera que la resultante de los vectores son similares para los documentos con contenido similar. Esto puede ser logrado mediante, por ejemplo, autoencoders - un modelo que está capacitado para reconstruir el vector original de menor representación (capa oculta activaciones) con la reconstrucción de error como función de costo. Este proceso no te dan los clusters, pero crea significativo de representaciones que pueden ser utilizados para la agrupación.
Agrupación: Hay un número de diferentes NN arquitecturas diseñadas específicamente para la agrupación.
Más conocido es, probablemente, la auto organización del mapa. SOM es NN que cuentan con un conjunto de neuronas conectadas a la forma topológica de la red (generalmente rectangular). Cuando algún patrón que se presenta a SOM, la neurona con el más cercano de peso vector es considerado un ganador y sus pesos se adaptan al patrón, así como los pesos de su barrio. De esta manera SOM, naturalmente, encuentra clústeres de datos. Algo relacionado con algoritmo de crecimiento neural gas (no se limita a predifined número de neuronas).
Otro enfoque es la Teoría de Resonancia Adaptativa, donde tenemos dos capas de "comparación de campo" y "reconocimiento de campo". Reconocimiento de campo también determina el mejor partido (neurona) para el vector de traslados de comparación campo y también han lateral conexiones inhibitorias. Los detalles de implementación y exacta de las ecuaciones puede fácilmente encontrado por google los nombres de estos modelos, así que no lo voy a poner aquí.