Una pregunta probablemente muy básica sobre el ANOVA multifactorial. Supongamos un diseño de dos vías en el que probamos los dos efectos principales A, B y la interacción A:B. Al probar el efecto principal de A con SS de tipo I, el efecto SS se calcula como la diferencia $RSS(1) - RSS(A)$ , donde $RSS(1)$ es la suma de cuadrados del error residual para el modelo con sólo el intercepto, y $RSS(A)$ el RSS del modelo con el factor A añadido. Mi pregunta se refiere a la elección del término de error:
¿Cómo se justifica que el término de error para esta prueba se calcule normalmente a partir del RSS del modelo completo A + B + A:B que incluye tanto los efectos principales como la interacción? $$ F_{A} = \frac{(RSS_{1} - RSS_{A}) / (df_{RSS 1} - df_{RSS A})}{RSS_{A+B+A:B} / df_{RSS A+B+A:B}} $$
... en lugar de tomar el término de error del modelo no restringido de la comparación real (RSS de sólo el efecto principal A en el caso anterior): $$ F_{A} = \frac{(RSS_{1} - RSS_{A}) / (df_{RSS 1} - df_{RSS A})}{RSS_{A} / df_{RSS A}} $$
Esto supone una diferencia, ya que el término de error del modelo completo es probablemente a menudo (no siempre) menor que el término de error del modelo no restringido en la comparación. Parece que la elección del término de error es un tanto arbitraria, creando un espacio para los cambios deseados en el valor p simplemente añadiendo/eliminando factores que no son realmente de interés, pero que cambian el término de error de todos modos.
En el siguiente ejemplo, el valor F de A cambia considerablemente dependiendo de la elección del modelo completo, aunque la comparación real del efecto SS sigue siendo la misma.
> DV <- c(41,43,50, 51,43,53,54,46, 45,55,56,60,58,62,62,
+ 56,47,45,46,49, 58,54,49,61,52,62, 59,55,68,63,
+ 43,56,48,46,47, 59,46,58,54, 55,69,63,56,62,67)
> IV1 <- factor(rep(1:3, c(3+5+7, 5+6+4, 5+4+6)))
> IV2 <- factor(rep(rep(1:3, 3), c(3,5,7, 5,6,4, 5,4,6)))
> anova(lm(DV ~ IV1)) # full model = unrestricted model (just A)
Df Sum Sq Mean Sq F value Pr(>F)
IV1 2 101.11 50.556 0.9342 0.4009
Residuals 42 2272.80 54.114
> anova(lm(DV ~ IV1 + IV2)) # full model = A+B
Df Sum Sq Mean Sq F value Pr(>F)
IV1 2 101.11 50.56 1.9833 0.1509
IV2 2 1253.19 626.59 24.5817 1.09e-07 ***
Residuals 40 1019.61 25.49
> anova(lm(DV ~ IV1 + IV2 + IV1:IV2)) # full model = A+B+A:B
Df Sum Sq Mean Sq F value Pr(>F)
IV1 2 101.11 50.56 1.8102 0.1782
IV2 2 1253.19 626.59 22.4357 4.711e-07 ***
IV1:IV2 4 14.19 3.55 0.1270 0.9717
Residuals 36 1005.42 27.93
La misma cuestión se aplica a los SS de tipo II, y en general a una hipótesis lineal general, es decir, a una comparación de modelos entre un modelo restringido y uno no restringido dentro de un modelo completo. (En el caso del tipo III SS, el modelo no restringido es siempre el modelo completo, por lo que la pregunta no se plantea en este caso)
0 votos
Puede que sólo esté confundido con su pregunta, pero para probar el efecto de $A$ con el tipo 1 de SS, el denominador est la que tienes en tu segunda expresión. El valor F en la salida de la ejecución de
anova(lm(DV ~ IV1))
se calcula a través de su segunda expresión. Es decir, si se ejecutaanova(lm(DV ~ 1))
yanova(lm(DV ~ IV1))
y se introducen los valores correspondientes en la segunda expresión, se obtiene $F=0.9342$ . Hágame saber si estoy perdiendo por completo su preocupación.0 votos
@MikeWierzbicki Tienes razón en que si el modelo completo contiene sólo
IV1
(1er ejemplo), entonces las dos expresiones para el denominador son idénticas. Sin embargo, cuando el modelo completo contiene efectos adicionales, el denominador para la prueba $A$ cambia aunque la comparación de modelos (~ 1
contra.~ IV1 + 1
para el tipo 1 de SS) no lo hace. En los 3 ejemplos, el cuadrado medio para $A$ no cambia (la misma comparación de modelos en todos los casos), pero el error cuadrático medio sí. Me interesa saber qué justifica el cambio del término de error cuando la comparación real se mantiene igual.0 votos
Hola @caracal, ¡qué bueno ver que una respuesta tan antigua es aceptada de repente! :-) Saludos.