13 votos

¿Cómo justificar el término de error en el ANOVA factorial?

Una pregunta probablemente muy básica sobre el ANOVA multifactorial. Supongamos un diseño de dos vías en el que probamos los dos efectos principales A, B y la interacción A:B. Al probar el efecto principal de A con SS de tipo I, el efecto SS se calcula como la diferencia $RSS(1) - RSS(A)$ , donde $RSS(1)$ es la suma de cuadrados del error residual para el modelo con sólo el intercepto, y $RSS(A)$ el RSS del modelo con el factor A añadido. Mi pregunta se refiere a la elección del término de error:

¿Cómo se justifica que el término de error para esta prueba se calcule normalmente a partir del RSS del modelo completo A + B + A:B que incluye tanto los efectos principales como la interacción? $$ F_{A} = \frac{(RSS_{1} - RSS_{A}) / (df_{RSS 1} - df_{RSS A})}{RSS_{A+B+A:B} / df_{RSS A+B+A:B}} $$

... en lugar de tomar el término de error del modelo no restringido de la comparación real (RSS de sólo el efecto principal A en el caso anterior): $$ F_{A} = \frac{(RSS_{1} - RSS_{A}) / (df_{RSS 1} - df_{RSS A})}{RSS_{A} / df_{RSS A}} $$

Esto supone una diferencia, ya que el término de error del modelo completo es probablemente a menudo (no siempre) menor que el término de error del modelo no restringido en la comparación. Parece que la elección del término de error es un tanto arbitraria, creando un espacio para los cambios deseados en el valor p simplemente añadiendo/eliminando factores que no son realmente de interés, pero que cambian el término de error de todos modos.

En el siguiente ejemplo, el valor F de A cambia considerablemente dependiendo de la elección del modelo completo, aunque la comparación real del efecto SS sigue siendo la misma.

> DV  <- c(41,43,50, 51,43,53,54,46, 45,55,56,60,58,62,62,
+          56,47,45,46,49, 58,54,49,61,52,62, 59,55,68,63,
+          43,56,48,46,47, 59,46,58,54, 55,69,63,56,62,67)

> IV1 <- factor(rep(1:3, c(3+5+7, 5+6+4, 5+4+6)))
> IV2 <- factor(rep(rep(1:3, 3), c(3,5,7, 5,6,4, 5,4,6)))
> anova(lm(DV ~ IV1))                           # full model = unrestricted model (just A)
          Df  Sum Sq Mean Sq F value Pr(>F)
IV1        2  101.11  50.556  0.9342 0.4009
Residuals 42 2272.80  54.114

> anova(lm(DV ~ IV1 + IV2))                     # full model = A+B
          Df  Sum Sq Mean Sq F value   Pr(>F)    
IV1        2  101.11   50.56  1.9833   0.1509    
IV2        2 1253.19  626.59 24.5817 1.09e-07 ***
Residuals 40 1019.61   25.49                     

> anova(lm(DV ~ IV1 + IV2 + IV1:IV2))           # full model = A+B+A:B
          Df  Sum Sq Mean Sq F value    Pr(>F)    
IV1        2  101.11   50.56  1.8102    0.1782    
IV2        2 1253.19  626.59 22.4357 4.711e-07 ***
IV1:IV2    4   14.19    3.55  0.1270    0.9717    
Residuals 36 1005.42   27.93

La misma cuestión se aplica a los SS de tipo II, y en general a una hipótesis lineal general, es decir, a una comparación de modelos entre un modelo restringido y uno no restringido dentro de un modelo completo. (En el caso del tipo III SS, el modelo no restringido es siempre el modelo completo, por lo que la pregunta no se plantea en este caso)

0 votos

Puede que sólo esté confundido con su pregunta, pero para probar el efecto de $A$ con el tipo 1 de SS, el denominador est la que tienes en tu segunda expresión. El valor F en la salida de la ejecución de anova(lm(DV ~ IV1)) se calcula a través de su segunda expresión. Es decir, si se ejecuta anova(lm(DV ~ 1)) y anova(lm(DV ~ IV1)) y se introducen los valores correspondientes en la segunda expresión, se obtiene $F=0.9342$ . Hágame saber si estoy perdiendo por completo su preocupación.

0 votos

@MikeWierzbicki Tienes razón en que si el modelo completo contiene sólo IV1 (1er ejemplo), entonces las dos expresiones para el denominador son idénticas. Sin embargo, cuando el modelo completo contiene efectos adicionales, el denominador para la prueba $A$ cambia aunque la comparación de modelos ( ~ 1 contra. ~ IV1 + 1 para el tipo 1 de SS) no lo hace. En los 3 ejemplos, el cuadrado medio para $A$ no cambia (la misma comparación de modelos en todos los casos), pero el error cuadrático medio sí. Me interesa saber qué justifica el cambio del término de error cuando la comparación real se mantiene igual.

0 votos

Hola @caracal, ¡qué bueno ver que una respuesta tan antigua es aceptada de repente! :-) Saludos.

4voto

zowens Puntos 1417

Esta es una pregunta muy antigua, y creo que la respuesta de @gung es muy buena (+1). Pero como a @caracal no le convenció del todo, y como yo tampoco sigo del todo todos sus entresijos, me gustaría aportar una sencilla figura que ilustre cómo entiendo yo la cuestión.


Considere un ANOVA de dos vías (el factor A tiene tres niveles, el factor B tiene dos niveles) con ambos factores obviamente muy significativos:

Factorial ANOVA sums of squares

SS para el factor A es enorme. El SS para el factor B es mucho menor, pero de la figura superior se desprende que el factor B es, no obstante, muy significativo también.

El error SS del modelo que contiene ambos factores está representado por uno de los seis gaussianos, y al comparar el SS del factor B con este error SS, la prueba concluirá que el factor B es significativo.

Sin embargo, el error SS del modelo que sólo contiene el factor B es enorme. Si se compara el SS del factor B con este error masivo, el resultado será que B no parecerá significativo. Lo que claramente no es el caso.

Por eso tiene sentido utilizar el error SS del modelo completo.

2voto

Sean Hanley Puntos 2428

Actualización: Para aclarar algunos de los puntos que expongo aquí de pasada, he añadido algunos enlaces a lugares en los que discuto las ideas pertinentes con más detalle.


La prueba F comprueba si hay más variabilidad (concretamente cuadrados medios) asociada a un factor de la que cabría esperar por azar. La cantidad de variación que podríamos esperar por azar se estima a partir de la suma de errores al cuadrado, es decir, la cantidad de variabilidad que se debe a (asociada a) ningún factor conocido. Estos son tus residuos, lo que queda después de haber contabilizado todo lo que conoces. En su ejemplo, $RSS_{A}$ no sólo contiene el error residual, sino también la variabilidad debida a factores conocidos. Mientras que el $SS_{A}$ se considera que la cantidad rebota hasta cierto punto por el azar, pero no se considera que esa cantidad esté impulsada por los otros factores conocidos 1 . Por lo tanto, sería inapropiado utilizar $MS_{A}$ como el denominador en su prueba F. Además, al utilizar $MS_{A+B+A*B}$ le da más poder, disminuyendo la probabilidad de error de tipo II y no debería inflar el error de tipo I.

Hay algunas cuestiones más en su pregunta. Usted menciona que el $RSS_{full}$ no es siempre el más bajo, y en su ejemplo, $MS_{A+B+A*B} > MS_{A+B}$ . Esto se debe a que la interacción no está asociada a ninguna variabilidad propia. Que $SS_{A*B} = 14.19$ parece deberse sólo al azar. Existe una fórmula precisa, aunque algo complicada, que especifica cómo cambiará la potencia si se incluyen o excluyen diferentes factores del modelo. No la tengo a mano, pero lo esencial es sencillo: Cuando se incluye otro factor, el RSS disminuye (dando más potencia), pero el $df_{R}$ también desciende (produciendo menos potencia). El equilibrio de esta compensación viene determinado esencialmente por si los SS asociados a ese factor son reales o sólo se deben al azar, lo que, en la práctica, se indica vagamente por si el factor es significativo 2 . Sin embargo, eliminar los factores del modelo que no son significativos para obtener el término de error correcto es lógicamente equivalente a un procedimiento automático de búsqueda de modelos, aunque no haga que su software lo haga automáticamente por usted. Debe saber que hay muchos problemas al hacer esto. Esos problemas y los procedimientos alternativos se discuten en otra parte de CV 3 .

Un último tema se refiere a los diferentes tipos de SS. En primer lugar, el uso de diferentes tipos de SS no te libra de necesitar una justificación lógica de tu análisis. Pero además, los SS de tipo I - III están relacionados con una cuestión diferente. En su ejemplo, deduzco que sus factores son ortogonales, es decir, que realizó un experimento en el que asignó n iguales a cada combinación de niveles de factores. Sin embargo, si realiza un estudio de observación, o si tiene problemas de abandono, sus factores estarán correlacionados. Las implicaciones de esto es que no hay una forma única de dividir el SS y por lo tanto no hay una respuesta única para que sus análisis produzcan. En otras palabras, los distintos tipos de SS tienen que ver con diferentes posibles numeradores para su prueba F cuando sus factores están correlacionados 4 .

1. Tenga en cuenta que con los modelos multinivel, se puede teorizar que un factor incluye la variabilidad de otros factores, dependiendo de cómo se especifique el modelo. Estoy discutiendo aquí el ANOVA ordinario, que es lo que parece estar preguntando.<br>2. Ver: <a href="https://stats.stackexchange.com/a/28476/7290">¿Cómo puede la adición de un segundo IV hacer que el primer IV sea significativo?</a><br>3. Ver: <a href="https://stats.stackexchange.com/a/20856/7290">Algoritmos de selección automática de modelos </a>.<br>4. Ver: <a href="https://stats.stackexchange.com/a/20455/7290">¿Cómo interpretar el ANOVA de tipo I (secuencial) y el MANOVA?</a>

1 votos

Gracias por su respuesta. Sin embargo, no me convence al 100%: dices que "RSS(A) contiene algo más que el error residual, también contiene la variabilidad debida a factores conocidos". Pero esto depende de cuál sea el modelo correcto. Quizás $B$ y $A:B$ no tienen ningún efecto - no lo sabemos, es sólo una hipótesis que estamos probando. Y además de las influencias hipotéticas, podría haber otras desconocidas. Entonces, ¿cómo justificamos a priori qué modelo se acerca más a la verdad? En la regresión, la situación es equivalente. ¿Tiene algunas fuentes literarias que pueda consultar?

1 votos

+1 y acabo de publicar una respuesta que intenta ilustrar su primer gran párrafo.

0voto

Jon Norton Puntos 2048

La justificación es que el factor A está explicando un porcentaje mayor de la variación no explicada en el modelo A+B en comparación con el modelo A, ya que el factor B explica una parte importante (y por tanto lo "elimina" del análisis).

i-Ciencias.com

I-Ciencias es una comunidad de estudiantes y amantes de la ciencia en la que puedes resolver tus problemas y dudas.
Puedes consultar las preguntas de otros usuarios, hacer tus propias preguntas o resolver las de los demás.

Powered by:

X