De la búsqueda online hasta ahora, sólo he encontrado el Algoritmo de Garson como método para deducir la importancia de las variables en un Perceptrón Multicapa. Sin embargo, el actual algoritmo de Garson incluido en el paquete 'NeuralNetTools' para R calcula la importancia para un MLP con una sola capa oculta y no funciona para 2 capas ocultas.
¿Hay algún otro paquete que ejecute el algoritmo de Garson en MLP con 2 capas ocultas?
Además, ¿hay algún otro enfoque para calcular la importancia de las variables en un MLP aparte del algoritmo de Garson?
0 votos
¿Has considerado el diagrama jacobiano de Eric-Wan con la regla Delta?
0 votos
No, no lo he hecho... pero no encuentro mucha información al respecto en la web...
1 votos
Hay dos partes. La primera es el (revolucionario) diagrama jacobiano. Antes de Wan los gradientes se derivaban analíticamente, y un solo enfoque de aprendizaje podía ser una tesis. Él dio una solución general para el campo. ( digitalcommons.ohsu.edu/cgi/ ) La segunda parte es el método delta. Relaciona el jacobiano con la varianza. ( math.montana.edu/~parker/PattersonStats/Delta.pdf ). Aquí hay una referencia que sugiere que "Garson" es bastante malo. ( massey.ac.nz/~mkjoy/pdf/Olden,Joy&DeathEM.pdf )
0 votos
Gracias por la referencia. Puedes poner esta respuesta en lugar de comentar.