Echa un vistazo a ExPlanificaciones de aditivos de SHapley que tiene una base teórica de juegos ("¿Cómo asignar 'óptimamente' el crédito a los diferentes jugadores de un equipo para el resultado del equipo?" - aquí las variables se tratan como jugadores). En el caso de xgboost y otros algoritmos similares (por ejemplo, LightGBM), los cálculos -que implican la consideración de todos los órdenes en los que se podría dar importancia a las características- pueden realizarse de forma bastante eficiente, por lo que este enfoque se ha hecho bastante popular. Los valores SHAP tienen sus defectos (como probablemente la mayoría de los enfoques de explicabilidad actuales): véase, por ejemplo este documento o el trabajo que se discute en este episodio del podcast .
En general, hay un gran libro en línea sobre el ML explicable que vale la pena investigar. Los capítulos 5.9 y 5.10 tratan de SHAP, pero también hay capítulos sobre LIME, etc., que por supuesto también son enfoques bien conocidos.