$\newcommand{\P}{\mathbb{P}}$Me preocupa con datos observacionales en los que el tratamiento de asignación puede ser explicado muy bien. Por ejemplo, una regresión logística de
$$\P(A =1 |X) = (1+ \exp(-(X\beta)))^{-1}$$
wehre $A$ tratamiento de asignación y $X$ covariables tiene muy buen ajuste con muy alta prueba de $AUC >.80$$>.90$. Esta es una buena noticia para la exactitud de la propensión modelo, pero conduce a la puntuación de propensión estimaciones $$\hat{\pi} = (1+ \exp(-(X \hat{\beta})))^{-1}$$ close to $0$ or $1$. These in turn lead to large inverse probability weights $\hat{\pi}^{-1}$ and $(1-\hat{\pi})^{-1}$ used in estimators such as the inverse probability weighted estimator of expectation of outcome $Y_1$ (observación en el tratamiento):
$$n^{-1} \sum_i \hat{\pi_i}^{-1} A_i Y_{1i}.$$
Esto, supongo, que convierte a los de las estimaciones de las varianzas muy grandes.
Parece un círculo vicioso que muy discriminativo puntaje de propensión modelos de llevar a la extrema pesos.
Mi pregunta: ¿cuáles son las opciones disponibles para hacer este análisis más robusto? Hay alternativas para adaptarse a la puntuación de propensión modelo o cómo lidiar con grandes pesos después de que el modelo ha sido la adecuada?