\newcommand{\P}{\mathbb{P}}Me preocupa con datos observacionales en los que el tratamiento de asignación puede ser explicado muy bien. Por ejemplo, una regresión logística de
\P(A =1 |X) = (1+ \exp(-(X\beta)))^{-1}
wehre A tratamiento de asignación y X covariables tiene muy buen ajuste con muy alta prueba de AUC >.80>.90. Esta es una buena noticia para la exactitud de la propensión modelo, pero conduce a la puntuación de propensión estimaciones \hat{\pi} = (1+ \exp(-(X \hat{\beta})))^{-1} close to 0 or 1. These in turn lead to large inverse probability weights \hat{\pi}^{-1} and (1-\hat{\pi})^{-1} used in estimators such as the inverse probability weighted estimator of expectation of outcome Y_1 (observación en el tratamiento):
n^{-1} \sum_i \hat{\pi_i}^{-1} A_i Y_{1i}.
Esto, supongo, que convierte a los de las estimaciones de las varianzas muy grandes.
Parece un círculo vicioso que muy discriminativo puntaje de propensión modelos de llevar a la extrema pesos.
Mi pregunta: ¿cuáles son las opciones disponibles para hacer este análisis más robusto? Hay alternativas para adaptarse a la puntuación de propensión modelo o cómo lidiar con grandes pesos después de que el modelo ha sido la adecuada?