He leído algunos artículos sobre la creación manual de imágenes para "engañar" a una red neuronal (véase más abajo).
¿Esto se debe a que las redes sólo modelan la probabilidad condicional $p(y|x)$ ?
Si una red puede modelar la probabilidad conjunta $p(y,x)$ ¿se seguirán dando estos casos?
Mi opinión es que estas imágenes generadas artificialmente son diferentes de los datos de entrenamiento, por lo que son de baja probabilidad $p(x)$ . Por lo tanto, $p(y,x)$ debe ser baja aunque $p(y|x)$ puede ser alta para este tipo de imágenes.
Actualización
He probado algunos modelos generativos, pero no han servido de nada, así que supongo que probablemente sea una consecuencia del MLE.
Me refiero a que en el caso de que se utilice la divergencia KL como función de pérdida, el valor de $p_{\theta}(x)$ donde $p_{data}(x)$ es pequeño no afecta a la pérdida. Así que para una imagen artificiosa que no coincide $p_{data}$ El valor de $p_{\theta}$ puede ser arbitraria.
Actualización
Encontré un blog de Andrej Karpathy que muestra
Estos resultados no son específicos de las imágenes, ConvNets, y tampoco son un "defecto" del Deep Learning.
EXPLICAR Y APROVECHAR LOS EJEMPLOS ADVERSOS
Las redes neuronales profundas se engañan fácilmente: predicciones de alta confianza para imágenes irreconocibles
0 votos
Parece que la cuestión está en las DNNs y no en las NNs en general.
0 votos
@MatthewGunn No estoy seguro, según la respuesta de seanv507 parece un problema más general.
0 votos
@MattewGunn explicando y aprovechando el papel de los ejemplos adversos - muestra que se aplica también a la regresión logística