Estoy empezando en mi tesis de Doctorado viaje, y el objetivo que me propuse antes de mí mismo es el desarrollo de las redes neuronales que iba a controlar el entorno de trabajo en y ajustar dinámicamente su arquitectura para el problema en cuestión. La consecuencia obvia es la temporalidad de los datos: si el conjunto de datos no es continua y que no cambie con el tiempo, ¿por qué ajustar en todo?
La gran pregunta es: con la reciente subida de aprendizaje profundo, es todavía un tema relevante? Hacer FFNNs la posibilidad de permanecer encontrar un nicho en el concepto de la deriva de los problemas?
Me temo que sobrecargar el hilo con demasiadas preguntas, pero esto no es totalmente off-topic: soy consciente de RNNs, pero me he limitado (ok, ninguno, o puramente teórico) experiencia con ellos; creo que la arquitectura dinámica de adaptación debe ser un tema relevante en el contexto de RNNs. La pregunta es, ha sido ya contestadas, y se me reinventar la rueda?
P. S. Cruz-publicado a MetaOptimize