14 votos

¿Cuál es la diferencia esencial entre una red neuronal y una regresión lineal?

Una red neural es un conjunto de varias transformaciones lineales $L_1,\ldots, L_m$ que se aplican secuencialmente al vector de características $X$. Una composición de transformaciones lineales es una transformación lineal. Por lo tanto, al final obtenemos $L X$ donde $L$ es una composición de $L_1,\ldots, L_m$.

La pregunta es: si eventualmente tenemos que una red neural solo aplica una transformación lineal a un vector de características, ¿cuál es la diferencia esencial entre las redes neuronales y la regresión lineal?

1 votos

1 votos

La mayoría de las funciones de activación más comunes para redes neuronales son la sigmoide y la tangente hiperbólica, que no son transformaciones lineales.

0 votos

La transformación puede ser lineal pero la salida casi siempre es transformada por una función no lineal.

19voto

Richard Hardy Puntos 6099

No, una red neuronal no es varias transformaciones lineales consecutivas. Como mencionas, eso solo resultaría en otra transformación lineal al final, entonces ¿por qué hacer muchas en lugar de una? De hecho, una red neuronal realiza varias (al menos una, pero posiblemente más, dependiendo del número de capas ocultas) transformaciones no lineales (por ejemplo, sigmoide).

Esa es también la diferencia entre una red neuronal y una regresión lineal, ya que esta última utiliza una combinación lineal de regresores para aproximar la variable a predecir.

0 votos

(detalle menor, que supongo que estás al tanto pero solo para neófitos: una red neuronal no es necesariamente varias transformaciones lineales consecutivas.)

0 votos

@FranckDernoncourt, gracias. Sí, una red puede tener $m\geq 1$ capas, por lo que es posible que $m=1$.

i-Ciencias.com

I-Ciencias es una comunidad de estudiantes y amantes de la ciencia en la que puedes resolver tus problemas y dudas.
Puedes consultar las preguntas de otros usuarios, hacer tus propias preguntas o resolver las de los demás.

Powered by:

X