A medida que profundizamos en Redes neuronales en la literatura, llegamos a identificar otros métodos con topologías neuromórficas ("Neural-Network"-like architectures). Y no me refiero a las Teorema de aproximación universal . A continuación se ofrecen algunos ejemplos.
Entonces, me pregunto: ¿cuál es la definición de una Red Neuronal artificial? Su topología parece abarcarlo todo.
Ejemplos:
Una de las primeras identificaciones que hacemos es entre el PCA y un autocodificador lineal con pesos ligados en el codificador y el decodificador y activaciones umbralizadas en la capa cuello de botella.
También se hace una identificación común entre modelos lineales (regresión logística en especial) y una Red Neuronal sin capa oculta y con una única capa de salida. Esta identificación abre varias puertas.
¿Series de Fourier y Taylor? RNA . SVM ? ANN. ¿Proceso gaussiano? RNA (con una sola capa oculta con infinitas unidades ocultas).
Y así, con la misma facilidad, podemos incorporar versiones regularizadas arbitrarias con funciones de pérdida especializadas de estos algoritmos en un marco de Redes Neuronales.
Pero cuanto más escarbamos, más similitudes aparecen. Acabo de tropezar con Árboles de decisión neuronales profundos , que realiza la identificación de una arquitectura específica de RNA con árboles de decisión, permitiendo que éstos sean aprendidos por métodos de RNA (como la retropropagación Gradient Descent). A partir de esto podemos construir Random Forests y Gradient Boosted Decision Trees a partir únicamente de topologías de Redes Neuronales.
Si todo puede expresarse como una Red Neuronal Artificial, ¿qué define a una Red Neuronal Artificial?