En mi libro de texto de la IA hay este párrafo, sin ninguna explicación.
La función sigmoidea se define de la siguiente manera
$$ \sigma (x) = \frac {1}{1+e^{-x}}$$
Esta función es fácil de diferenciar porque
$$ \frac {d \sigma (x)}{d(x)} = \sigma (x) \cdot (1- \sigma (x))$$
Hace mucho tiempo que no tomo ecuaciones diferenciales, ¿alguien podría decirme cómo pasaron de la primera a la segunda ecuación?
2 votos
¿Qué libro de texto de IA es ese?
7 votos
@frog1944: Parece ser La inteligencia artificial iluminada de Ben Coppin, página 302 ( Enlace a Google Books ).
1 votos
@HansLundmark ¡muchas gracias!
1 votos
Cualquier libro sobre redes neuronales tratará la función sigmoidea. Es útil por la sencillez con la que funciona la retropropagación; se ahorra mucho trabajo de cálculo al entrenar una red a partir de un conjunto de resultados. En la naturaleza, son posibles otras funciones, como el arctán, las funciones racionales y otras más.
1 votos
Una de las razones por las que utilizan la sigmoidea es que es fácil de diferenciar y facilita la retropropagación. No ocurre lo mismo con otros candidatos como signo(x), arctangente(x), seno(x), etc.