G. Monette y J. Fox proporcionan en estas diapositivas un marco para las pruebas de análisis de varianza/desviación de tipo II en términos de hipótesis condicional . Mis preguntas son:
-
En este enfoque frecuentista, la "hipótesis condicional" $L_1\beta=0 \mid L_2\beta=0$ es sólo simbólico (¿no es así?). ¿Existe un análogo bayesiano a este enfoque, como la inferencia sobre $L_1 \beta$ bajo la distribución posterior de $\beta$ tomada condicionalmente a $L_2 \beta =0$ ?
-
Monette y Fox definen rigurosamente la hipótesis condicional como una hipótesis clásica $L_{1\mid 2}\beta =0$ para una determinada matriz $L_{1\mid 2}$ pero esta matriz depende de la matriz de covarianza asintótica estimada de los parámetros $\beta$ . Eso suena extraño. ¿Depende realmente de la verdadera matriz de covarianza asintótica y entonces $L_{1\mid 2}$ ¿es sólo una estimación de una matriz teórica? Incluso para la verdadera covarianza asintótica eso suena extraño porque sigue dependiendo de la elección del método de estimación.
De hecho, nunca había visto la noción de hipótesis condicional, ¿se presenta en algunos libros de texto?
Actualización1
Todavía estoy enfermo, pero aquí hay algunas ideas. Considere un modelo lineal clásico $y = X\beta+\sigma\epsilon$ y la prioridad de Jeffreys. Entonces la distribución posterior de $(\beta \mid \sigma)$ es ${\cal N}(\hat\beta, V)$ donde $V$ es la matriz de covarianza asintótica del estimador de mínimos cuadrados $\hat\beta$ o (no recuerdo), $V$ es esta matriz hasta un factor cercano a $1$ . Entonces es fácil ver que $(L_1 \beta \mid L_2\beta=0)$ tiene la distribución de $L_{1 \mid 2} \beta$ bajo la distribución posterior condicional $(\beta \mid \sigma)$ , donde $L_{1 \mid 2}$ es un $V$ -complemento ortogonal como se define en las diapositivas de Monette y Fox. Y la estadística de Wald $Z_{1|2}$ debe estar relacionada con la norma de $L_{1 \mid 2} \beta$ .
Para modelos más generales, el enfoque debería coincidir asintóticamente con el enfoque bayesiano cuando $\hat\beta$ se toma como la estimación de máxima verosimilitud.
Demasiado enfermo para continuar...
Actualización2
Realmente me pregunto si se trata de un enfoque antiguo o reciente. Como se muestra en mi respuesta a mí mismo aquí No se trata de la forma utilizada por SAS. Pero el "viejo" anova()
La función R utiliza este enfoque. En efecto, para un modelo de mínimos cuadrados generalizado como
glsfit <- gls(value ~ group*variable, data=ldat,
correlation=corSymm(form= ~ 1 | id),
weights=varIdent(form = ~1 | variable))
el estadístico de la prueba F de Wald de la hipótesis de tipo II del variable
factor es proporcionado por:
> anova(glsfit)
Denom. DF: 45
numDF F-value p-value
(Intercept) 1 1401.9971 <.0001
group 4 2.3793 0.0658
variable 2 79.5687 <.0001
group:variable 8 1.4759 0.1929
(y para el group
factor hay que intercambiar el orden de los factores:
glsfit.reverse <- update(glsfit, model = value ~ variable*group)
anova(glsfit.reverse)
)
¿O es una nueva justificación teórica de un viejo enfoque?