Estoy construyendo un modelo de clasificación binaria secuencial LSTM, los datos están muy desequilibrados como por ejemplo el caso de detección de fraude.
Después de construir un modelo LSTM sobre datos vectorizados secuenciales, estoy obteniendo un recuerdo muy bajo de 0,005.
# build LSTM layers
model = Sequential()
model.add(LSTM (100, dropout=0.2, input_shape=(time_steps, features)))
model.add(Dense(50, activation='relu'))
model.add(Dense(25, activation='relu'))
model.add(Dense(10, activation='relu'))
model.add(Dense(1, activation='sigmoid'))
model.compile(loss='binary_crossentropy', optimizer='rmsprop', metrics=[Recall()])
print (model.summary())
history=model.fit(train_X, train_Y, validation_data=(test_X, test_Y),
epochs=10,batch_size=64)
Por favor, ayúdenme a optimizar la recuperación de este modelo.
Gracias