Una red neuronal es una caja negra en el sentido de que, aunque puede aproximar cualquier función, estudiar su estructura no te dará ninguna idea sobre la estructura de la función que se está aproximando.
Como ejemplo, un uso común de las redes neuronales en el negocio bancario es clasificar a los prestatarios como "buenos pagadores" y "malos pagadores". Tienes una matriz de características de entrada $C$ (sexo, edad, ingresos, etc) y un vector de resultados $R$ ("incumplido", "no incumplido", etc). Cuando modelas esto usando una red neuronal, estás suponiendo que hay una función $f(C)=R$, en el sentido adecuado de una función matemática. Esta función f puede ser arbitrariamente compleja y podría cambiar según la evolución del negocio, por lo que no puedes derivarla a mano.
Luego utilizas la Red Neuronal para construir una aproximación de $f$ que tenga una tasa de error aceptable para tu aplicación. Esto funciona, y la precisión puede ser arbitrariamente pequeña: puedes expandir la red, ajustar finamente sus parámetros de entrenamiento y obtener más datos hasta que la precisión alcance tus objetivos.
El problema de la caja negra es: La aproximación dada por la red neuronal no te dará ninguna idea sobre la forma de f. No hay una relación simple entre los pesos y la función que se está aproximando. Incluso el análisis de qué característica de entrada es irrelevante es un problema abierto (ver este enlace).
Además, desde un punto de vista de estadísticas tradicionales, una red neuronal es un modelo no identificable: Dado un conjunto de datos y una topología de red, puede haber dos redes neuronales con diferentes pesos pero exactamente el mismo resultado. Esto dificulta mucho el análisis.
Como ejemplo de modelos "no caja negra" o "modelos interpretables", tienes ecuaciones de regresión y árboles de decisión. El primero te da una aproximación en forma cerrada de f donde la importancia de cada elemento es explícita, el segundo es una descripción gráfica de algunos riesgos relativos/razones de momios.
1 votos
Tal vez esto ayude: colah.github.io/posts/2014-03-NN-Manifolds-Topology Este artículo trata de descubrir el mecanismo subyacente de las redes neuronales desde una perspectiva topológica, ofrece una gran cantidad de brillantes ideas para explicar el rendimiento de las redes neuronales.
0 votos
Me gusta agregar el punto a Jack, cuando miramos MLP en el punto de vista del aprendizaje automático, las redes neuronales ya no son una caja negra. Con una simple función sigmoide, deberíamos ser capaces de interpretar la relación de entrada y salida con una ecuación.
0 votos
Depende de la complejidad del modelo. Puedes tener redes neuronales simples que pueden considerarse modelos interpretables. Por lo general, en aplicaciones prácticas, son cajas negras porque, como han dicho otros, es bastante imposible obtener cualquier conocimiento sobre la función aprendida a partir de los parámetros. El gran número de parámetros y la típica no linealidad de las funciones de activación son las principales razones por las que esta tarea es prácticamente imposible. Un modelo de caja negra es un modelo que es extremadamente difícil o prácticamente imposible de interpretar.