Hasta donde yo sé, al adoptar Stochastic Gradient Descent como algoritmo de aprendizaje, alguien usa 'epoch' para el conjunto de datos completo y 'batch' para los datos usados en un solo paso de actualización, mientras que otro usa 'batch' y 'minibatch' respectivamente, y los demás usan 'epoch' y 'minibatch'. Esto trae mucha confusión al discutir.
Entonces, ¿cuál es el dicho correcto? ¿O son solo dialectos que son aceptables?