Si la máquina es visto como aproximación de funciones, ¿qué clase de funciones se modelan mediante una red neuronal?
Respuestas
¿Demasiados anuncios?Red neuronal Artificial: potencia de cálculo (de Wikipedia):
El multi-capa de tipo perceptrón (MLP) es una función universal approximator, como se ha demostrado en el Cybenko teorema. Sin embargo, la prueba no es constructivo sobre el número de neuronas necesarias o la configuración de de los pesos.
El trabajo por la Hava Siegelmann y Eduardo D. Sontag ha proporcionado una prueba que un recurrentes arquitectura racional con valores de pesos (frente a la precisión total número real con valores de pesos) cuenta con el pleno la potencia de una Máquina de Turing Universal mediante un número finito de las neuronas y lineal estándar conexiones. Asimismo, han demostrado que el uso irracional de los valores de los pesos de los resultados en una máquina con super-Turing poder.
Cybenko, G. V. (1989). La aproximación por Superposiciones de una función Sigmoidal, las Matemáticas de Control, Señales y Sistemas, Vol. 2 p. 303-314.
Siegelmann, H. T. y Sontag, E. D. (1994). Analógicas de cálculo a través de las redes neuronales, la informática Teórica, v. 131, no. 2, pp 331-360.
En realidad, de una a tres de la capa de red neuronal puede modelo arbitrario de la función lineal y logística funciones, lo cual fue comprobado mediante la prueba de Kolmogorov en 1957 (prueba de Kolmogorov, Andrei Nikolaevich. "En la representación de funciones continuas de muchas variables por superposición de funciones continuas de una variable y, además." Dokl. Akad. Nauk SSSR. Vol. 114. Nº 5. 1957.).