Digamos que quiero que el usuario escriba las 5 primeras letras de una palabra en la que está pensando; quiero que la red neuronal emita las letras restantes de la palabra.
Sin embargo, debería:
- Convertir la cadena de 5 letras a binario (
A=01000001
,B=01000010
etc.) - Esto significa que tendré
5 * 8 = 40
neuronas de entrada
O debería:
- Vincular letras a números (
A=1
,B=2
etc.) - Divida este número por
ALPHABET_LENGTH=26
(normalizar) - Como resultado
A~0.04
,B~0.08
etc. - Lo que significa que sólo tendré neuronas de entrada 5x1
Lo mismo ocurriría con la salida, por supuesto.
Sin embargo, ¿qué es más eficaz? Qué normalización tendrá un efecto más positivo en el entrenamiento de la red neuronal (mediante retropropagación y algoritmos genéticos, ambos). ¿Existen artículos al respecto?