Esta es una pregunta de un curso de coursera:
Supongamos que tenemos un conjunto de ejemplos y Brian entra y se duplica cada ejemplo, luego se reordena de forma aleatoria los ejemplos. Ahora tenemos dos veces como muchos ejemplos, pero no hay más información sobre el problema que teníamos antes. Si no eliminamos las entradas duplicadas, que uno de los métodos siguientes no serán afectados por este cambio, en términos de la computadora (tiempo en segundos, por ejemplo) que se necesita para acercarse a la convergencia?
a) la totalidad del lote de aprendizaje
b) en línea-aprendizaje, donde para cada iteración seleccionamos aleatoriamente un caso de entrenamiento
c) mini-lote de aprendizaje donde para cada iteración seleccionamos aleatoriamente 100 casos de entrenamiento
La respuesta es la b. Pero me pregunto ¿por qué c es incorrecta. No está en línea-aprendizaje de un caso especial de mini-lote donde en cada iteración contiene sólo un único caso de entrenamiento?