10 votos

¿Se pueden utilizar núcleos no rectangulares en las redes neuronales convolucionales? Especialmente cuando se analizan tableros de juego

He estado leyendo un montón de artículos sobre redes convolucionales y aprendizaje por refuerzo.

Recuerdo haber visto un documento importante con una forma no rectangular de la capa de convolución (la forma verde en este dibujo tonto). Pero ahora no lo encuentro.

enter image description here

Podría haber sido algo similar al trabajo de AlphaGo o el aprendizaje reforzado en un tablero de juego.

¿Alguien puede sugerir o adivinar qué papel era?

0 votos

Por favor, explique la CNN. Después de todo Cable News Network también utiliza ese acrónimo.

0 votos

¡@Carl Redes neuronales convolucionales !

0 votos

No estoy muy familiarizado con las ConvNets, pero la idea es que aprender el/los filtro/s adecuado/s a utilizar. Así que si es apropiado tener 0's en las esquinas (o donde sea), la ConvNet debería ser capaz de aprenderlo. Cualquier filtro no rectangular A es equivalente a un filtro rectangular B sobre el cuadro delimitador de A, combinado con una máscara (es decir, donde B=0). A no ser que el filtro A sea muy "enrevesado", el ahorro de cálculo sería bastante insignificante.

4voto

Franck Dernoncourt Puntos 2128

{1} comparó las convoluciones 2D cuadradas frente a las triangulares

enter image description here

Como menciona Geomatt22, en el ejemplo que dio la pregunta, uno podría usar un filtro cuadrado y esperar que la forma "real" del filtro sea aprendida durante la fase de entrenamiento.


{1} Graham, Ben. "Sparse 3D convolutional neural networks". arXiv preprint arXiv:1505.02890 (2015). https://scholar.google.com/scholar?cluster=10336237130292873407&hl=en&as_sdt=0,22 ; https://arxiv.org/abs/1505.02890

0 votos

Yo pensaría que rectangular frente a cuadrado sería más significativo que rectangular frente a no rectangular. En otras palabras, si los patrones son altamente anisotrópicos, entonces los rectángulos delgados podrían ser mucho más eficientes que las plazas que están mayoritariamente "enmascaradas". En comparación, el nivel de no-convexidad necesario para que el volumen de un patrón sea mucho menor que su caja delimitadora parece poco probable que ocurra en la práctica (tal patrón sería probablemente una característica compuesta, frente a una plantilla apropiada para filtros de bajo nivel). ¿Se da esta anisotropía en las aplicaciones de ConvNet? (En geología, se trataría de una z pequeña frente a una x e y)

3voto

YAZR Puntos 36

Parece que esto aparece en los primeros documentos de Herbrich sobre Go.

  1. "Aprendizaje en grafos en el juego del Go" - donde mira el tablero como una topología diferente

  2. Y esta diapositiva en una presentación de 2015 que hace mencionando 13 "patrones" diferentes (que es algo diferente al enfoque de AlphaGo)

Herbrich Go presentation slide

Referencias

  • Graepel, T., Goutrie, M., Krüger, M., & Herbrich, R. (2001, agosto). "Aprendizaje sobre gráficos en el juego del Go". En Conferencia internacional sobre redes neuronales artificiales (pp. 347-352). Springer Berlin Heidelberg.

  • Herbrich, R. (2015) "El aprendizaje automático en la industria". Recuperado de http://mlss.tuebingen.mpg.de/2015/slides/herbrich/herbrich.pdf

0 votos

¡Bienvenido a nuestra página web! He añadido una cita completa del artículo, ¿podría añadir también un enlace/referencia a la presentación?

0 votos

@silverfish Gracias por la citación. Machine Learning in Industry. mlss.tuebingen.mpg.de/2015/slides/herbrich/herbrich.pdf

0 votos

Genial, gracias. Tengo la sensación de que aún no tienes suficiente reputación para añadir más de un cierto número de enlaces (no recuerdo cuál es el límite), así que también he editado eso

i-Ciencias.com

I-Ciencias es una comunidad de estudiantes y amantes de la ciencia en la que puedes resolver tus problemas y dudas.
Puedes consultar las preguntas de otros usuarios, hacer tus propias preguntas o resolver las de los demás.

Powered by:

X