9 votos

No lineal de Reducción de Dimensionalidad: geométrico/topológica algoritmos vs autoencoders

Como entiendo que hay tres enfoques principales para no lineal de reducción de dimensionalidad:

  • Colector de aprendizaje (geométrica/topológica algoritmos como ISOMAP, LLE, LTSA)
  • Autoencoders
  • cosas que no encajan en las 2 primeras categorías (probabilidad inspirado t-SNE, Kernel PCA, etc)

¿Cuáles son las ventajas y desventajas de los 2 primeros enfoques?

Se puede pensar que los autoencoders completamente superar el colector de aprendizaje como el aprendizaje profundo outshadowed la mayoría de los algoritmos de aprendizaje automático en términos de rendimiento?

2voto

Yen Puntos 680

Antes de intentar responder a tu pregunta quiero crear una mayor separación entre los métodos que se refiere.

El primer conjunto de métodos creo que usted se refiere son vecindario basado en métodos de reducción de dimensionalidad, donde un barrio gráfico se construyó en el lugar donde los bordes representan una distancia métrica. Ahora a jugar al abogado del diablo en contra de mí mismo, MDS/ISOMAP tanto puede ser interpretado como una forma de kernel PCA. Así que, aunque esta distinción parece relativamente fuerte, la interpretación diferentes, cambio de estos métodos de una clase a otra.

El segundo conjunto de métodos que se están refiriendo a la colocaría en el campo de la supervisión de la red neuronal de aprendizaje. Autoencoders son una arquitectura especial que intenta asignar un espacio de entrada en un menor espacio tridimensional que permite la decodificación de vuelta al espacio de entrada con pérdida mínima de información.

En primer lugar, vamos a hablar de las ventajas y desventajas de autoencoders. Autoencoders generalmente son entrenados utilizando alguna variante de gradiente estocástico descenso de los rendimientos de algunas ventajas. El conjunto de datos no tiene que encajar en la memoria, y de forma dinámica puede ser cargado y se entrenó con el gradiente de la pendiente. A diferencia de muchos de los métodos basados en la comunidad de aprendizaje que obliga a que el conjunto de datos que existen en la memoria. La arquitectura de los autoencoders permite el conocimiento previo de los datos para ser incorporados en el modelo. Por ejemplo, si están de datos contiene imágenes que pueden crear una arquitectura que utiliza 2d de convolución. Si el conjunto de datos contiene series de tiempo que tienen conexiones a largo plazo, podemos utilizar cerrada redes recurrentes (echa un vistazo a Seq2Seq de aprendizaje). Este es el poder de las redes neuronales en general. Esto nos permite codificar el conocimiento previo sobre el problema en nuestros modelos. Esto es algo que otros modelos, y para ser más específicos, la reducción de dimensionalidad de los algoritmos no pueden hacer.

Desde una perspectiva teórica, hay un par de niza teoremas. El más profundo de la red, la complejidad de las funciones que son aprendidas por la red aumenta de forma exponencial. En general, al menos antes de que se descubre algo nuevo, usted no va a encontrar una manera más expresiva/modelo poderoso que un seleccionado correctamente la red neuronal.

Ahora bien, aunque todo esto suena muy bien, hay inconvenientes. La convergencia de las redes neuronales no es determinista y depende fuertemente de la arquitectura utilizada, la complejidad del problema, la elección de hyper-parámetros, etc. La expresividad de las redes neuronales causas de problemas, tienden a overfit muy rápidamente si el derecho de regularización no es elegido/usa.

Por otro lado, el barrio métodos son menos expresivos y tienden a correr un determinista cantidad de tiempo hasta que la convergencia basada en un número mucho menor de los parámetros de las redes neuronales.

La elección del método depende directamente sobre el problema. Si usted tiene un pequeño conjunto de datos que se ajusta en la memoria y no utilizar cualquier tipo de estructura de datos (imágenes, videos, audio) clásica de la reducción de dimensionalidad probablemente sería el camino a seguir. Pero como la estructura es introducido, la complejidad del problema aumenta, y la cantidad de datos crece de redes neuronales convertido en la elección correcta.

Espero que esto ayude.

i-Ciencias.com

I-Ciencias es una comunidad de estudiantes y amantes de la ciencia en la que puedes resolver tus problemas y dudas.
Puedes consultar las preguntas de otros usuarios, hacer tus propias preguntas o resolver las de los demás.

Powered by:

X