En primer lugar, esta pregunta se trata menos sobre la programación en sí misma y más sobre la lógica detrás de la arquitectura de CNN. Entiendo cómo funciona cada capa, pero mi única pregunta es: ¿Tiene sentido separar la ReLU y la capa de convolución? Quiero decir, ¿Puede existir y funcionar una ConvLayer y actualizar sus pesos utilizando la retropropagación sin tener una ReLU detrás de ella?
Pensé que sí. Por eso creé las siguientes capas independientes:
- ConvLayer
- ReLU
- Conexión total (Fully Connected)
- Piscina (Pooling)
- Transformación (transformar la salida 3D en una dimensión) para ConvLayer -> Fully Connected.
Estoy pensando en fusionar la Capa 1 y 2 en una sola. ¿Qué debería elegir?