En estadística La parte del ejercicio de predicción termina cuando se obtiene una distribución predictiva. Por cierto, se trata de un perfecto punto final - mucho mejor que una predicción puntual.
Lo que sigue después de dar su distribución predictiva es el decisión que alguien hará basándose en su distribución predictiva. Sin embargo, en las decisiones no sólo interviene su distribución: costes de las decisiones "equivocadas", costes de las decisiones "correctas", grado de "acierto" o "error" de una decisión, etcétera. Estos elementos suelen incluirse en funciones de pérdida y la tarea del responsable de la toma de decisiones es minimizar la pérdida basándose en su $\mathcal{D}$ y la estructura de costes.
A veces la "decisión" no es más que un resumen numérico de $\mathcal{D}$ y se puede suponer que la pérdida es proporcional a la diferencia al cuadrado entre la decisión y el resultado real. Si es así, la decisión óptima es la que minimiza el error cuadrático esperado. Entonces la decisión óptima es la expectativa de $\mathcal{D}$ .
O la pérdida puede ser proporcional a la diferencia absoluta entre este resumen de un número y el resultado real. Entonces la decisión óptima sería la mediana de $\mathcal{D}$ que minimiza el error absoluto esperado .
En resumen: una predicción puntual no tiene sentido sin tener en cuenta el coste o la función de pérdida que pretende minimizar. En cambio, una densidad de predicción puede establecerse (y evaluarse mediante reglas de puntuación ) incluso sin dichos costes.
Ya he escrito antes sobre temas similares, normalmente robando descaradamente de Frank Harrell y su blog por ejemplo: ¿Por qué utilizar una determinada medida del error de previsión (por ejemplo, MAD) en lugar de otra (por ejemplo, MSE)?