Yo estaba viendo una presentación de un ML especialista de una gran tienda, donde se había desarrollado un modelo para predecir fuera de stock eventos.
Supongamos por un momento que a lo largo del tiempo, su modelo es muy preciso, no se que de alguna manera ser "contraproducente"? Es decir, si el modelo funciona realmente bien, entonces serán capaces de anticipar fuera de stock eventos y evita, eventualmente, llegar a un punto donde tienen poco o nada de los eventos de acciones. Pero entonces, si ese es el caso, no habrá suficientes datos históricos para ejecutar su modelo, o su modelo obtiene descarriló, debido a los mismos factores causales que se utiliza para indicar una acción fuera del evento, ya no lo hacen.
¿Cuáles son las estrategias para lidiar con este tipo de escenario?
Además, uno puede imaginar la situación opuesta: Por ejemplo, un sistema de recomendación podría convertirse en una "profecía autocumplida" con un aumento en las ventas de elemento de pares impulsado por la salida del sistema de recomendación, incluso si los dos elementos no están realmente relacionados.
A mí me parece que ambos son el resultado de una especie de bucle de retroalimentación que se produce entre la salida de la quiniela y las acciones que se toman se basan en él. ¿Cómo se puede lidiar con situaciones como esta?