Me adapto a un modelo que intenta adecuar la personalidad de los comerciales a los clientes basándose en datos demográficos. Se trata de un modelo bayesiano jerárquico que predice la probabilidad de conversión con un representante de ventas en función de los datos demográficos del cliente. Es decir, ¿algunos comerciales son buenos hablando con clientes mayores o más jóvenes?
$$ P(\text{Conversion w/ Sales Rep[i]} | \text{Customer's Demographic}) = \alpha[\text{sales rep}[i]] + \beta[\text{sales rep}[i]] X $$
A continuación, tomo un cliente entrante, hago una predicción de la probabilidad de conversión de ese cliente con todos y cada uno de los agentes y clasifico los intervalos de predicción: el mejor agente con el que emparejar a este cliente es el que tiene el intervalo creíble de mayor probabilidad de conversión.
-
¿Es razonable hacer esto o viola el problema de las comparaciones múltiples ya que empiezo a comparar 100 intervalos creíbles de predicción diferentes? ¿Está bien porque es bayesiano?
-
Si 1 es razonable, ¿seguiría siendo válido el mismo planteamiento si utilizara un modelo frecuentista y en su lugar empleara intervalos de confianza?
3). ¿Cuál es una buena manera de evaluar el modelo? Parece que no me importa tanto la capacidad predictiva, sino más bien que la cobertura de los intervalos creíbles sea plausible - ¿hay una buena manera de validar eso para modelos logísticos como éste?