Mi cliente realiza campañas de marketing dirigidas a los abonados. A efectos de evaluación, divide el público objetivo en grupos de destino y de control (TG, CG). Dice que hace esta división de forma aleatoria, pero en realidad lo hace de forma especial.
Realiza docenas de iteraciones de divisiones aleatorias verdaderas, y en cada iteración compara los promedios de datos de precampaña en los candidatos de CG y TG en una división (como, los ingresos del mes pasado, la vida útil, etc.). Finalmente, elige una división en la que las diferencias de precampaña entre los candidatos CG-TG son mínimas. Lo motiva con la necesidad de comparar en el futuro a CG y TG en el periodo de post-campaña, y de esta manera asegura la máxima similitud de los grupos antes del inicio de la campaña.
Argumento que la división aleatoria es aleatoria por diseño, y no tiene sentido volver a dividir varias veces para encontrar la "mejor", ya que cualquier diferencia (o ausencia de la diferencia en TG y CG resultante antes de la campaña) es aleatoria. Sostiene que, al final, cuando establecemos los grupos, sus datos previos a la campaña ya no son aleatorios y, por lo tanto, es mejor que los establezcamos de forma que las diferencias previas a la campaña sean mínimas.
Dado que los grupos son grandes (normalmente, muchos miles de suscriptores), este enfoque de reajuste apenas influye en la comparabilidad de los grupos antes de la campaña (en realidad, sólo supone una carga de trabajo adicional para la base de datos). Y supongo que el esquema de evaluación sigue siendo estadísticamente sólido.
Pero si TG y CG fueran más pequeños (y otra reasignación aleatoria de los grupos puede hacer que los datos de precampaña estén efectivamente más o menos equilibrados por KPI de interés), ¿el punto de vista de quién sería correcto? Quiero decir, correcto desde el punto de vista puramente estadístico y desde el punto de vista práctico (evaluación de la campaña para los interesados), si de alguna manera difieren.