29 votos

¿No se puede decir ahora que los modelos de aprendizaje profundo son interpretables? ¿Son los nodos características?

Para los modelos estadísticos y de aprendizaje automático, existen múltiples niveles de interpretabilidad: 1) el algoritmo en su conjunto, 2) partes del algoritmo en general 3) partes del algoritmo en entradas particulares, y estos tres niveles se dividen en dos partes cada uno, una para el entrenamiento y otra para la evaluación de funciones. Las dos últimas partes están mucho más cerca que las primeras. Estoy preguntando por el #2, que normalmente lleva a una mejor comprensión del #3). (si eso no es lo que significa la "interpretabilidad", ¿en qué debería pensar?)

En cuanto a la interpretabilidad, la regresión logística es una de las más fáciles de interpretar. ¿Por qué este caso ha superado el umbral? Porque esa instancia tenía esta característica positiva en particular y tiene un coeficiente mayor en el modelo. ¡Es tan obvio!

Una red neuronal es el ejemplo clásico de un modelo difícil de interpretar. ¿Qué hacen todos esos coeficientes media ? Todos ellos se suman en formas tan complicadas y locas que es difícil decir lo que realmente hace cualquier coeficiente en particular.

Pero con la aparición de todas las redes neuronales profundas, parece que las cosas se están aclarando. Los modelos de DL (por ejemplo, de visión) parecen captar cosas como los bordes o la orientación en las primeras capas, y en las últimas parece que algunos nodos son realmente semánticos (como el proverbial "célula abuela ). Por ejemplo:

enter image description here

( de "Aprender sobre el aprendizaje profundo )

Este es un gráfico ( de los muchos que hay por ahí ) creado a mano para su presentación, así que soy muy escéptico. Pero es una prueba de que alguien cree que así es como funciona.

Tal vez en el pasado simplemente no había suficientes capas para que pudiéramos encontrar rasgos reconocibles; los modelos eran exitosos, sólo que no era fácil analizar a posteriori algunos en particular.

Pero tal vez el gráfico no sea más que una ilusión. Tal vez los NN sean realmente inescrutables.

Pero los numerosos gráficos con sus nodos etiquetados con imágenes también son realmente convincentes.

¿Corresponden realmente los nodos DL a las características?

32voto

user777 Puntos 10934

La interpretación de los modelos profundos sigue siendo un reto.

  1. Tu post sólo menciona las CNN para aplicaciones de visión por ordenador, pero las redes feed-forward (profundas o poco profundas) y las redes recurrentes siguen siendo un reto de comprensión.

  2. Incluso en el caso de las CNN que tienen estructuras obvias de "detector de características", como los bordes y la orientación de los parches de píxeles, no es completamente obvio cómo se agregan estas características de nivel inferior hacia arriba, o qué, precisamente, sucede cuando estas características de visión se agregan en una capa totalmente conectada.

  3. Los ejemplos adversos muestran la dificultad de interpretar la red. A un ejemplo adverso se le hace una pequeña modificación, pero resulta en un cambio dramático en la decisión tomada por el modelo. En el contexto de la clasificación de imágenes, una pequeña cantidad de ruido añadida a una imagen puede hacer que una imagen de un lagarto se clasifique con gran seguridad como otro animal, como una (especie de) perro.

Esto está relacionado con la interpretabilidad en el sentido de que existe una relación fuerte e impredecible entre la (pequeña) cantidad de ruido y el (gran) cambio en la decisión de clasificación. Si pensamos en el funcionamiento de estas redes, tiene cierto sentido: los cálculos de las capas anteriores se propagan hacia adelante, de modo que una serie de errores -pequeños errores sin importancia para un humano- se magnifican y acumulan a medida que se realizan más y más cálculos utilizando las entradas "corruptas".

Por otro lado, la existencia de ejemplos adversos muestra que la interpretación de cualquier nodo como una característica o clase particular es difícil, ya que el hecho de que el nodo se active puede tener poco que ver con el contenido real de la imagen original, y que esta relación no es realmente predecible en términos de la imagen original. Pero en las imágenes de ejemplo que se muestran a continuación, los humanos no se engañan sobre el contenido de las imágenes: no confundirían el asta de la bandera con un perro. ¿Cómo podemos interpretar estas decisiones, ya sea en conjunto (un pequeño patrón de ruido "transmuta" una lagartija en un perro, o un asta de bandera en un perro) o en piezas más pequeñas (que varios detectores de rasgos son más sensibles al patrón de ruido que al contenido real de la imagen)?

HAAM es un nuevo y prometedor método para generar imágenes adversarias utilizando funciones armónicas. ("Harmonic Adversarial Attack Method" Wen Heng, Shuchang Zhou, Tingting Jiang.) Las imágenes generadas con este método pueden utilizarse para emular efectos de luz/sombra y, en general, son más difíciles de detectar por los humanos como si hubieran sido alteradas.

Como ejemplo, véase esta imagen, tomada de " Perturbaciones adversas universales ", por Seyed-Mohsen Moosavi-Dezfooli, Alhussein Fawzi, Omar Fawzi y Pascal Frossard. Escogí esta imagen simplemente porque fue una de las primeras imágenes adversas que encontré. Esta imagen establece que un patrón de ruido particular tiene un efecto extraño en la decisión de clasificación de imágenes, concretamente que se puede hacer una pequeña modificación en una imagen de entrada y hacer que el clasificador piense que el resultado es un perro. Obsérvese que la imagen original subyacente sigue siendo obvia: en todos los casos, un humano no se confundiría pensando que alguna de las imágenes que no son perros son perros. adversaria

He aquí un segundo ejemplo de un documento más canónico, " EXPLICAR Y APROVECHAR LOS EJEMPLOS ADVERSOS "por Ian J. Goodfellow, Jonathon Shlens y Christian Szegedy. El ruido añadido es completamente indistinguible en la imagen resultante y, sin embargo, el resultado se clasifica con mucha seguridad como el resultado equivocado, un gibón en lugar de un panda. En este caso, al menos, hay una similitud pasajera entre las dos clases, ya que los gibones y pandas son al menos algo similares biológica y estéticamente en el sentido más amplio. panda

Este tercer ejemplo está tomado de " Detección de Ejemplos Adversariales Generalizables Basados en el Desajuste de Decisiones Bi-modelo "de João Monteiro, Zahid Akhtar y Tiago H. Falk. Establece que el patrón de ruido puede ser indistinguible para un humano y aún así confundir al clasificador. indistinguishable

Como referencia, un mudpuppy es un animal de color oscuro con cuatro extremidades y cola, por lo que no tiene mucho parecido con un pez de colores. mudpuppy

  1. Acabo de encontrar este periódico hoy. Christian Szegedy, Wojciech Zaremba, Ilya Sutskever, Joan Bruna, Dumitru Erhan, Ian Goodfellow, Rob Fergus. " Intrigantes propiedades de las redes neuronales ". El resumen incluye esta intrigante cita:

En primer lugar, comprobamos que no hay distinción entre las unidades individuales de alto nivel y las combinaciones lineales aleatorias de unidades de alto nivel, según varios métodos de análisis de unidades. Esto sugiere que es el espacio, más que las unidades individuales, el que contiene la información semántica en las capas altas de las redes neuronales.

Así, en lugar de tener "detectores de características" en los niveles superiores, los nodos sólo representan coordenadas en un espacio de características que la red utiliza para modelar los datos.

13voto

mclaughlinj Puntos 1099

Las capas no se corresponden con rasgos sucesivamente más abstractos de forma tan limpia como nos gustaría. Una buena manera de ver esto es comparar dos arquitecturas muy populares.

VGG16 consiste en muchas capas convolucionales apiladas unas sobre otras con alguna capa de agrupación ocasional, una arquitectura muy tradicional.

Desde entonces, la gente ha pasado a diseñar arquitecturas residuales, en las que cada capa está conectada no sólo a la capa anterior, sino también a una (o posiblemente más) capas más abajo en el modelo. ResNet fue uno de los primeros en hacerlo, y tiene alrededor de 100 capas, dependiendo de la variante que se utilice.

Mientras que las redes VGG16 y otras similares hacen que las capas actúen de una manera más o menos interpretable - aprendiendo características de nivel cada vez más alto, las ResNets no hacen esto. En su lugar, la gente ha propuesto que o bien seguir perfeccionando las características para hacerlas más precisas o que son sólo un grupo de redes superficiales disfrazadas Ninguno de ellos coincide con los "puntos de vista tradicionales" sobre lo que aprenden los modelos profundos.

Aunque ResNet y otras arquitecturas similares superan ampliamente a VGG en la clasificación de imágenes y la detección de objetos, parece que hay algunas aplicaciones para las que la simple jerarquía de características ascendente de VGG es muy importante. Véase ici para una buena discusión.

Así que, dado que las arquitecturas más modernas ya no parecen encajar en el panorama, yo diría que todavía no podemos decir que las CNN sean interpretables.

9voto

user203465 Puntos 1

El tema de mi tesis doctoral fue revelar las propiedades de caja negra de las redes neuronales, concretamente de las redes neuronales feed-forward, con una o dos capas ocultas.

Voy a aceptar el reto de explicar a todo el mundo lo que significan los pesos y los términos de sesgo, en una red neuronal feed-forward de una capa. Se abordarán dos perspectivas diferentes: una paramétrica y otra probabilística.

En lo que sigue, asumo que los valores de entrada proporcionados a cada neurona de entrada han sido todos normalizados al intervalo (0,1), mediante un escalado lineal ( $x_{input}=\alpha \cdot x + \beta$ ), donde los dos coeficientes $\alpha$ y $\beta$ se eligen por variable de entrada, de manera que $x_{input} \in (0,1)$ . Hago una distinción entre variables numeradas reales, y variables enumeradas (con una variable booleana como un caso especial de variable enumerada):

  • Una variable con número real se proporciona como un número decimal entre $0$ y $1$ tras el escalado lineal.
  • Una variable enumerada, toma los días de la semana (lunes, martes, etc.) son representados por $v$ nodos de entrada, con $v$ siendo el número de resultados enurables, es decir $7$ para el número de días de la semana.

Esta representación de sus datos de entrada es necesaria para poder interpretar el tamaño (valor absoluto) de los pesos en la capa de entrada.

Significado paramétrico:

  • cuanto más grande sea el valor absoluto del peso está entre una entrada neurona de entrada y una neurona oculta, más importante es esa variable, para el "disparo" de ese nodo oculto en particular. Los pesos cercanos a $0$ indican que un valor de entrada es tan bueno como irelevante.
  • el peso de un nodo oculto a un nodo de salida indica que la ponderación amplificación ponderada de las variables de entrada que son en sentido absoluto más amplificada por esa neurona oculta, que promueven o amortiguan el nodo de salida particular. El signo del peso indica la promoción (positivo) o inhibición (negativo).
  • La tercera parte no representada explícitamente en los parámetros de la red neuronal es la distribución multivariante de las variables de entrada. Es decir, cómo a menudo ocurre que el valor $1$ se proporciona al nodo de entrada $3$ - con los realmente grandes peso al nodo oculto $2$ ?
  • un término de sesgo es sólo una constante de traslación que desplaza la media de una neurona oculta (o de salida). Actúa como el desplazamiento $\beta$ , presentado más arriba.

Razonamiento a partir de una neurona de salida ¿qué neuronas ocultas tienen los mayores valores de peso absoluto en sus conexiones con las neuronas de salida? Con qué frecuencia la activación de cada nodo oculto se acerca a $1$ (suponiendo funciones de activación sigmoideas). Hablo de frecuencias, medidas sobre el conjunto de entrenamiento. Para ser precisos: ¿cuál es la frecuencia con la que los nodos ocultos $i$ y $l$ con grandes pesos para las variables de entrada $t$ y $s$ que estos nodos ocultos $i$ y $l$ están cerca de $1$ ? Cada nodo oculto propaga una media ponderada de sus valores de entrada, por definición. ¿Qué variables de entrada promueve -o inhibe- principalmente cada nodo oculto? También las $\Delta_{j,k}=\mid w_{i,j} - w_{i,k}\mid$ explica mucho, la diferencia absoluta de pesos entre los pesos que se abren en abanico desde el nodo oculto $i$ a los dos nodos de salida $j$ y $k$ .

Cuanto más importantes son los nodos ocultos para un nodo de salida (hablando en frecuencias, sobre el conjunto de entrenamiento), ¿qué "pesos de entrada por frecuencias de entrada" son más importantes? Entonces nos acercamos a la importancia de los parámetros de las redes neuronales feed-forward.

Interpretación probabilística:

La perspectiva probabilística significa considerar una red neuronal de clasificación como un clasificador Bayes (el clasificador óptimo, con la tasa de error más baja definida teóricamente). ¿Qué variables de entrada influyen en el resultado de la red neuronal y con qué frecuencia? Considere esto como un análisis de sensibilidad probabilística. ¿Con qué frecuencia la variación de una variable de entrada puede conducir a una clasificación diferente? ¿Con qué frecuencia la neurona de entrada $x_{input}$ tienen influencia potencial en el que el resultado de la clasificación se convierte en el más probable, lo que implica que la neurona de salida correspondiente alcanza el valor más alto?

Caso individual - patrón

Al variar una neurona de entrada con número real $x_{input}$ puede hacer que la clasificación más probable cambie, decimos que esta variable tiene influencia potencial . Al variar el resultado de una variable enumerada (cambiar el día de la semana de lunes $[1,0,0,0,0,0,0]$ al martes $[0,1,0,0,0,0,0]$ o cualquier otro día de la semana), y el resultado más probable cambia, entonces esa variable enumerada tiene influencia potencial en el resultado de la clasificación.

Cuando ahora tenemos en cuenta la probabilidad de ese cambio, entonces hablamos influencia esperada . ¿Cuál es la probabilidad de observar una variable de entrada cambiante $x_{input}$ tal que a el caso de entrada cambia el resultado, dados los valores de todas las demás entradas ? La influencia esperada se refiere a valor esperado de $x_{input}$ , a saber $E(x_{input} \mid {\bf x}_{-input})$ . Aquí ${\bf x}_{-input}$ es el vector de todos los valores de entrada, excepto de la entrada $x_{input}$ . Hay que tener en cuenta que una variable enumerada está representada por un número de neuronas de entrada. Estos posibles resultados se consideran aquí como una variable.

La inclinación profunda - y el significado de los parámetros de la NN

Aplicadas a la visión por ordenador, las redes neuronales han mostrado un notable progreso en la última década. Las redes neuronales convolucionales introducidas por LeCunn en 1989 han resultado tener un rendimiento realmente bueno en términos de reconocimiento de imágenes. Se ha informado de que pueden superar a la mayoría de los demás enfoques de reconocimiento basados en ordenadores.

Cuando se entrenan redes neuronales convolucionales para el reconocimiento de objetos, aparecen interesantes propiedades emergentes. La primera capa de nodos ocultos representa detectores de características de bajo nivel, similares a los operadores de espacio de escala T. Lindeberg, Feature Detection with Automatic Scale Selection, 1998 . Estos operadores de espacio de escala detectan

  • líneas,
  • esquinas,
  • Cruces en T

y algunas otras características básicas de la imagen.

Más interesante aún es el hecho de que se ha demostrado que las neuronas perceptivas del cerebro de los mamíferos se asemejan a esta forma de trabajar en los primeros pasos del procesamiento (biológico) de la imagen. Así que con las CNN, la comunidad científica se está acercando a lo que hace que la percepción humana sea tan fenomenal. Esto hace que merezca la pena seguir con esta línea de investigación.

i-Ciencias.com

I-Ciencias es una comunidad de estudiantes y amantes de la ciencia en la que puedes resolver tus problemas y dudas.
Puedes consultar las preguntas de otros usuarios, hacer tus propias preguntas o resolver las de los demás.

Powered by:

X