Véase la pregunta relacionada, pero antigua: Corrección de los valores p para pruebas múltiples cuando las pruebas están correlacionadas (genética) .
Los métodos de comparación múltiple basados en el bootstrap tienen la ventaja de tener en cuenta la estructura de dependencia de los valores p. Sin embargo, los modelos de regresión son un poco más difíciles de aplicar mediante bootstrap. Se han propuesto varios métodos. He encontrado al menos tres formas de ajustar los valores p en este tipo de problemas.
En mi opinión, no hay una única "mejor" solución. La cuestión es: ¿qué métodos existen y cuáles son las ventajas/desventajas de cada uno?
Propongo las siguientes definiciones:
$\vec{\theta_0}$ es el vector de los valores hipotéticos de los parámetros, que se asume bajo la hipótesis nula completa.
$\hat{\vec{\theta}}$ es un estimador de los parámetros, calculado sobre la muestra original.
$\hat{\vec{\theta}^*}$ es un estimador de los parámetros, calculado sobre una de las muestras bootstrap.
$T$ , $T^*$ son estadísticas pivotantes calculadas sobre los datos originales y la muestra bootstrap. Se supone que todos los estadísticos pivotantes son Wald, es decir $T = \frac{\theta}{\operatorname{SE}\theta}$ .
$m$ es el número de términos de interés en todas las regresiones.