Una red neural es un conjunto de varias transformaciones lineales $L_1,\ldots, L_m$ que se aplican secuencialmente al vector de características $X$. Una composición de transformaciones lineales es una transformación lineal. Por lo tanto, al final obtenemos $L X$ donde $L$ es una composición de $L_1,\ldots, L_m$.
La pregunta es: si eventualmente tenemos que una red neural solo aplica una transformación lineal a un vector de características, ¿cuál es la diferencia esencial entre las redes neuronales y la regresión lineal?
1 votos
stackoverflow.com/questions/9782071/…
1 votos
La mayoría de las funciones de activación más comunes para redes neuronales son la sigmoide y la tangente hiperbólica, que no son transformaciones lineales.
0 votos
La transformación puede ser lineal pero la salida casi siempre es transformada por una función no lineal.
0 votos
@StudentT pero también puedo aplicar una transformación no lineal al resultado de una regresión.
1 votos
Consulta en.wikipedia.org/wiki/Universal_approximation_theorem, el cual establece que se necesita al menos 1 capa oculta para aproximar cualquier función continua, por lo que el perceptrón no es suficiente.
0 votos
@Eugeny89 Una red neuronal con solo la salida transformada de forma no lineal es un caso especial que casi nunca se usa en la práctica. Entonces sí, hay una conexión entre la regresión lineal y las redes neuronales en un caso especial.
1 votos
FYI ¿Cuál es la diferencia entre la regresión lineal "regular" y la regresión lineal de aprendizaje profundo?
0 votos
Financiamiento para la investigación.