Estoy haciendo algunos experimentos con redes neuronales y quería pedir un poco de apoyo para verificar mi metodología y los resultados de mi.
Mi configuración: he separado de mis datos en intervalos de tiempo de 5 segundos, es decir, todas las marcas de tiempo están dentro de los 5 segundos. Para cada ranura puedo obtener aprox. 1000 muestras. Además tengo 7 características de cada una de las muestras que son la media normalizada. 4 son numéricos y 3 son booleanos (0,1). A mi la topología de la red 7-15-1, el algoritmo de entrenamiento es resistente retropropagación (Jordania recurrente de la red) con una función de activación sigmoide y atan función de error. Yo uso 5 veces validación cruzada para comprobar la red. La entidad de destino de cada muestra es un valor booleano.
Mi objetivo es entrenar la red con los datos de una ranura de tiempo (time slot n) y lo utilizan para clasificar las muestras de la siguiente (n+1) ranura de tiempo (en una escala de 0 a 1, por lo tanto el único nodo de salida). Estoy usando redes neuronales como quiero comparar su rendimiento con el de otros modelos como el SVM y de regresión logística.
Aquí están mis preguntas acerca de la instalación y los resultados:
- Soy capaz de recoger todas las muestras con todas las características dentro de la ranura de tiempo. Qué necesito para comprobar la distribución de probabilidad de las características que estoy usando o es la media de normalización suficiente?
- Es razonable que el uso de los resultados de un único nodo de salida como una función de clasificación?
- El error en el entrenamiento rápidamente cae por debajo de 0.1 (después de 20 a 50 iteraciones). Con más iteraciones (hasta 10.000) no hay nada mejor, que a menudo empeora (error de hasta 0.4). Es aceptar que las tasas de error cae tan rápidamente o debería ser escéptico?
- Son las redes neuronales, en general, sólo es realmente útil después de, por ejemplo, 50.000 iteraciones?
- Es razonable aceptar una tasa de error de 0.1? Por supuesto, menos el mejor, pero yo no soy capaz de minimizar aún más el error.
- La cruz de error de validación siempre es de aprox. dos veces el error en el entrenamiento. Es esto demasiado? He leído "cuando el cv de error es mucho mayor que el error en el entrenamiento, usted está sufriendo de varianza alta" Es de 0,2 ya grande o es de 0,4 grande?
- Como puedo tener un valor objetivo para cada muestra, también hago un f-medida de evaluación para cada clasificador. Siempre es de aprox. 0.75. Elegí 0.3 como la clasificación umbral de error, es decir, cuando la diferencia entre el valor ideal (0 o 1) y el valor de predicción están a menos de 0,3 a continuación, la clasificación está bien. Es este valor es demasiado grande o diría usted que uno siempre debe ir con una clasificación umbral >0.95?
Gracias por su apoyo!
Saludos cordiales,
Andi