Estoy utilizando una red neuronal para controlar el movimiento de un personaje en un juego. Actualmente tengo una gran cantidad de dimensiones y en el interés de recortarlas para mejorar el almacenamiento y la manejabilidad del código, estoy considerando eliminar todas las variables derivadas, es decir, cualquier variable que pueda ser calculada a partir de los datos ya enviados a la red.
Un ejemplo de ello sería la relación entre a) la posición, b) la velocidad y c) la aceleración a lo largo de una trayectoria. Actualmente, envío los últimos 50 puntos de datos de los tres a la NN para ayudarle a decidir su próximo movimiento. Sin embargo, me pregunto si el control/error del sistema podría minimizarse con la misma facilidad enviando sólo la posición. Teóricamente, la red neuronal debería ser capaz de derivar la velocidad y la aceleración en un punto en el tiempo por completo por sí misma dado el historial de posición.
En general, ¿se recomienda la reducción de dimensiones en esta capacidad? ¿Por qué o por qué no?
Sé que la recomendación habitual en este caso es probar y ver qué pasa, pero en este caso hay tantas variables que llevaría días probar, así que esperaba escuchar la experiencia de alguien en este tipo de situación y cuál es la regla general.
Pregunta adicional: ¿sería esta evaluación/decisión diferente para una red neuronal (que intenta asignar funciones a los datos) en comparación con un bosque aleatorio (que parece utilizar más un enfoque de vecino más cercano)?
¡Gracias!