Digamos que queremos hacer una regresión para un simple f = x * y
utilizando una red neuronal profunda estándar.
Recuerdo que hay estudios que dicen que la NN con una capa oculta puede aproximar cualquier función, pero lo he intentado y sin normalización la NN fue incapaz de aproximar incluso esta simple multiplicación. Sólo la normalización logarítmica de los datos ayudó m = x*y => ln(m) = ln(x) + ln(y).
Pero eso parece una trampa. ¿Puede NN hacer esto sin la normalización logarítmica? La respuesta es obviamente (como para mí) - sí, así que la pregunta es más lo que debería ser el tipo / configuración / diseño de tales NN?