Introducción Antecedentes
Dentro de una red neuronal convolucional, solemos tener una estructura/flujo general que se parece a esto:
- imagen de entrada (es decir, un vector 2D
x
)
(La primera capa convolucional (Conv1) comienza aquí...)
- conviven un conjunto de filtros (
w1
) a lo largo de la imagen 2D (es decir, hacer elz1 = w1*x + b1
multiplicaciones por producto de puntos), dondez1
es 3D, yb1
es el sesgo. - aplicar una función de activación (por ejemplo, ReLu) para hacer
z1
no lineal (por ejemploa1 = ReLu(z1)
), dondea1
es 3D.
(La segunda capa convolucional (Conv2) comienza aquí...)
- convolucionar un conjunto de filtros a lo largo de las nuevas activaciones calculadas (es decir, hacer el
z2 = w2*a1 + b2
multiplicaciones por producto de puntos), dondez2
es 3D, yb2
es el sesgo. - aplicar una función de activación (por ejemplo, ReLu) para hacer
z2
no lineal (por ejemploa2 = ReLu(z2)
), dondea2
es 3D.
La pregunta
La definición del término "mapa de características" parece variar de una literatura a otra. Concretamente:
- Para la primera capa convolucional, el "mapa de características" corresponde al vector de entrada
x
o el producto punto de salidaz1
o las activaciones de salidaa1
o el "proceso" de conversiónx
aa1
¿o algo más? - Del mismo modo, para la segunda capa convolucional, el "mapa de características" corresponde a las activaciones de entrada
a1
o el producto punto de salidaz2
o la activación de la salidaa2
o el "proceso" de conversióna1
aa2
¿o algo más?
Además, ¿es cierto que el término "mapa de características" es exactamente ¿es lo mismo que "mapa de activación"? (¿o en realidad significan dos cosas diferentes?)
Referencias adicionales:
Fragmentos de Redes neuronales y aprendizaje profundo - Capítulo 6 :
*La nomenclatura se utiliza aquí de forma imprecisa. En particular, utilizo "mapa de características" para referirme no a la función calculada por la capa convolucional, sino a la activación de la salida de las neuronas ocultas de la capa. Este tipo de abuso leve de la nomenclatura es bastante común en la literatura de investigación.
Fragmentos de Visualizar y comprender Redes convolucionales por Matt Zeiler :
En este trabajo introducimos una técnica de visualización que revela los estímulos de entrada que excitan los mapas de características individuales en cualquier capa del modelo. [...] Nuestro enfoque, por el contrario, proporciona una visión no paramétrica de la invariabilidad, mostrando qué patrones del conjunto de entrenamiento activan el mapa de características. [...] a operación de contraste local que normaliza las respuestas entre los mapas de características. [...] Para examinar una activación convnet dada, ponemos todas las demás activaciones en la capa a cero y pasamos los mapas de características como entrada a la capa deconvnet adjunta. [...] La convnet utiliza no linealidades relu, que rectifican los mapas de características asegurando así que los mapas de características son siempre positivos. [...] La convnet utiliza filtros aprendidos para convulsionar los mapas de características de de la capa anterior. [...] Fig. 6, estas visualizaciones son representaciones precisas del patrón de entrada que estimula el mapa de características dado en el modelo [...] cuando las partes de la imagen de entrada original correspondientes al patrón se ocluyen, vemos una clara caída de la actividad dentro del mapa de características. [...]
Observaciones: también introduce el término "mapa de características" y "mapa de características rectificado" en la Fig. 1.
Fragmentos de Capítulo de Stanford CS231n sobre la CNN :
[...] Un escollo peligroso que se puede notar fácilmente con esta visualización es que algunos mapas de activación pueden ser todos cero para muchas entradas diferentes, lo que puede indicar filtros muertos, y puede ser un síntoma de altas tasas de aprendizaje [...] Activaciones de aspecto típico en la primera capa CONV (izquierda), y la 5ª capa CONV (derecha) de una AlexNet entrenada mirando la imagen de un gato. Cada cuadro muestra un mapa de activación correspondiente a algún filtro. Obsérvese que las activaciones son escasas (la mayoría de los valores son cero, en esta visualización mostrada en negro) y mayoritariamente locales.
Fragmentos de Guía para principiantes sobre la comprensión de las redes neuronales evolutivas
[...] Cada ubicación única en el volumen de entrada produce un número. Después de deslizar el filtro sobre todas las localizaciones, descubrirás que lo que te queda es una matriz de 28 x 28 x 1 números, que llamamos mapa de activación o mapa de características.