Supongamos que tengo una red neuronal con 1.000.000 de parámetros construidos a partir de 100 características y deseo comprender el proceso subyacente de generación de datos para saber cómo ha llegado el modelo a cada predicción. No basta con mirar el valor del nodo para obtener información. Busco una solución que me ayude a explicar el modelo, ya sea mediante un modelo causal estructural (que me muestre la relación causal entre variables endógenas) o mediante una explicación comparable al razonamiento humano. Me opongo a utilizar valores SHAP o herramientas de importancia de rasgos, no sólo porque no miden la causalidad, sino porque los valores de la importancia de los rasgos pueden estar sesgados por el efecto de la multicolinealidad. Eliminar la colinealidad (por ejemplo, mediante PCA) para rectificar la asimetría reduce la interpretabilidad de mis variables (contrariamente a mi tarea original).
Respuesta
¿Demasiados anuncios?Me temo que la pregunta que hace no tiene una respuesta que le satisfaga. La inferencia causal se utiliza para encontrar relaciones causales en datos ruidosos. Una red neuronal es una función matemática. Es determinista, por lo que provoca directamente que el resultado sea el que es. Cadabmuktiplicación, por cada peso, adición de cada sesgo, cada otra transformación matemática tiene algunos , determinista, repercute en el resultado, por lo que lo "causa". Seguramente algunos de los parámetros tienen un impacto mayor que otros, pero la causalidad no tiene que ver con la fuerza de la relación.
Lo que podrías hacer es construir un modelo más simple que se aproxime a la red neuronal y su uso te permitirá comprender mejor cómo funciona y esto es exactamente lo que hacen las herramientas de expansibilidad como LIME.