¿Hay algún papel en el que se resume el fundamento matemático de aprendizaje profundo?
Ahora, estoy estudiando acerca de la formación matemática de aprendizaje profundo. Sin embargo, por desgracia, no puedo saber en qué medida la teoría de la red neuronal está matemáticamente demostrado. Por lo tanto, quiero un poco de papel que revisar el histórico de corriente de la red neuronal teoría basada en la matemática de la fundación, especialmente en términos de algoritmos de aprendizaje (convergencia), y NN es la capacidad de generalización y el NN de la arquitectura (¿por qué profunda es bueno?) Si usted sabe, por favor hágamelo saber el nombre de la hoja de papel.
Para su referencia, permítanme escribir algunos artículos que he leído.
- Cybenko, G. (1989). La aproximación por superposiciones de una función sigmoidal. Matemáticas de control, señales y sistemas, 2(4), 303-314.
- Hornik, K., Stinchcombe, M., \& White, H. (1989). Redes multinivel siempre hacia adelante son universales approximators. Las redes neuronales, 2(5), 359-366.
- Funahashi, K. I. (1989). En el aproximado de la realización de la continua asignaciones por redes neuronales. Las redes neuronales, 2(3), 183-192.
- Leshno, M., Lin, V. Y., Pinkus, A., \& Schocken, S. (1993). Redes multinivel siempre hacia adelante con un nonpolynomial activación de la función se puede aproximar cualquier función. Las redes neuronales, 6(6), 861-867.
- Mhaskar, H. N., \& Micchelli, C. A. (1992). La aproximación por la superposición de sigmoidal y funciones de base radial. Los avances en las matemáticas Aplicadas, 13(3), 350-373.
- Delalleau, O., \& Bengio, Y. (2011). Superficial y profundo de suma-producto de las redes. En los Avances en el Procesamiento de Información Neuronal Sistemas (pp 666-674). Telgarsky, M. (2016). Beneficios de profundidad en las redes neuronales. arXiv preprint arXiv:1602.04485.
- Barron, A. R. (1993). Universal aproximación de los límites para superposiciones de una función sigmoidal. IEEE transactions on Information theory, 39(3), 930-945.
- Mhaskar, H. N. (1996). Redes neuronales para una óptima aproximación de suave y funciones analíticas. La computación neuronal, 8(1), 164-177.
- Lee, H., Ge, R., Ma, T., Risteski, A., \ Y Arora, S. (2017). En la capacidad de las redes neuronales para expresar las distribuciones. arXiv preprint arXiv:1702.07028.
- Bartlett, P. L., \& Maass, W. (2003). Vapnik-Chervonenkis dimensión de las redes neuronales. El manual de teoría del cerebro y las redes neuronales, 1188-1192.
- Kawaguchi, K. (2016). Aprendizaje profundo sin pobres mínimos locales. En los Avances en el Procesamiento de Información Neuronal Sistemas (pp 586-594).
- Kingma, D. P., \& Ba, J. (2014). Adam: Un método para la optimización estocástica. arXiv preprint arXiv:1412.6980.
- Duchi, J., Hazan, E., \& Cantante, Y. (2011). Adaptación subgradiente métodos para el aprendizaje en línea y estocásticos de optimización. Diario de Aprendizaje de la Máquina de la Investigación, 12(Jul), 2121-2159.
- Tieleman, T., \& Hinton, G. (2012). Conferencia de 6.5 RMSProp, COURSERA: redes Neuronales para el aprendizaje de máquina. La universidad de Toronto, en el Informe Técnico.
- Zeiler, M. D. (2012). ADADELTA: un aprendizaje adaptativo método de la tasa. arXiv preprint arXiv:1212.5701.
- Yun, C., Sra, S., \& Jadbabaie, A. (2017). Optimalidad Global de las condiciones para la profundidad de las redes neuronales. arXiv preprint arXiv:1707.02444.
- Zeng, J., Lau, T. T. K., Lin, S., \& Yao, Y. (2018). Bloque de Coordinar Descenso de Aprendizaje Profundo: Unificado de Convergencia Garantías. arXiv preprint arXiv:1803.00225.
- De Weinan, E. (2017). Una propuesta en la máquina de aprendizaje a través de los sistemas dinámicos. Comunicaciones en Matemáticas y Estadística, 5(1), 1-11. Li, P., Chen, L., Tai, C., \& Weinan, E. (2017). Principio del máximo basado en algoritmos de aprendizaje profundo. El Diario de Aprendizaje de la Máquina de la Investigación, 18(1), 5998-6026.
- Zhang, C., Bengio, S., Hardt, M., Recht, B., \& Vinyals, O. (2016). La comprensión profunda de aprendizaje requiere el replanteamiento de la generalización. arXiv preprint arXiv:1611.03530.
- Kawaguchi, K., Kaelbling, L. P., \& Bengio, Y. (2017). La generalización en el aprendizaje profundo. arXiv preprint arXiv:1710.05468.