Por lo que sé, los SOM de estilo Kohonen tuvieron un pico alrededor de 2005 y no han sido tan favorecidos recientemente. No he encontrado ningún artículo que diga que los SOM han sido subsumidos por otro método, o que se haya demostrado que son equivalentes a otra cosa (en dimensiones más altas, en cualquier caso). Pero parece que el tSNE y otros métodos reciben mucha más tinta hoy en día, por ejemplo en Wikipedia, o en SciKit Learn, y SOM se menciona más como un método histórico.
(En realidad, un artículo de Wikipedia parece indicar que los SOM siguen teniendo ciertas ventajas sobre sus competidores, pero también es la entrada más corta de la lista. EDIT: Por petición de gung, uno de los artículos en los que estoy pensando es: Reducción de la dimensionalidad no lineal . Obsérvese que sobre SOM se ha escrito menos que sobre los otros métodos. No puedo encontrar el artículo que mencionaba una ventaja que los SOM parecen conservar sobre la mayoría de los otros métodos).
¿Alguna idea? Alguien más preguntó por qué no se utilizan los SOM, y consiguió referencias de hace tiempo, y he encontrado actas de conferencias sobre SOM, pero me preguntaba si el auge de las SVM o tSNE, etc., acaba de eclipsar a los SOM en el aprendizaje automático pop.
EDIT 2: Por pura coincidencia, esta tarde estaba leyendo un estudio de 2008 sobre la reducción de la dimensionalidad no lineal, y para los ejemplos sólo menciona: Isomap (2000), incrustación localmente lineal (LLE) (2000), Hessian LLE (2003), Laplacian eigenmaps (2003), y semidefinite embedding (SDE) (2004).