La mejor manera de pensar en la relación entre $F$, $p$ y el valor crítico es con una imagen:
La curva aquí es una distribución $F$, es decir, la distribución de las estadísticas $F$ que veríamos si la hipótesis nula fuera cierta. En este diagrama, la estadística $F$ observada es la distancia desde la línea punteada negra hasta el eje vertical. El valor $p$ es el área azul oscuro bajo la curva desde $F$ hasta el infinito. Observa que cada valor de $F$ debe corresponder a un valor único de $p$, y que valores más altos de $F$ corresponden a valores más bajos de $p.
Deberías notar un par de cosas más sobre la distribución bajo la hipótesis nula:
1) Los valores de $F$ que se acercan a cero son muy improbables (esto no siempre es cierto, pero es cierto para la curva en este ejemplo)
2) Después de cierto punto, cuanto más grande es el valor de $F$, menos probable es. (La curva se estrecha hacia la derecha)
El valor crítico $C$ también aparece en este diagrama. El área bajo la curva desde $C$ hasta el infinito es igual al nivel de significancia (en este caso, 5%). Puedes ver que la estadística $F$ aquí resultaría en un fallo al rechazar la hipótesis nula porque es menor que $C$, es decir, su valor $p$ es mayor que 0.05. En este ejemplo específico, $p=0.175$, pero necesitarías una regla para calcularlo a mano :-)
Observa que la forma de la distribución $F$ depende de sus grados de libertad, que para ANOVA corresponden al número de grupos (menos 1) y al número de observaciones (menos el número de grupos). En general, la "forma" general de la curva $F$ está determinada por el primer número, y su "planitud" está determinada por el segundo número. El ejemplo anterior tiene $df_1 = 3$ (4 grupos), pero verás que establecer $df_1 = 2$ (3 grupos) resulta en una curva notablemente diferente:
Puedes ver otras variantes de la curva en Página de Wikipedia. Algo que vale la pena mencionar es que debido a que la estadística $F$ es una proporción, los números grandes son poco comunes bajo la hipótesis nula, incluso con grados de libertad altos. Esto contrasta con las estadísticas $\chi^2$, que no se dividen por el número de grupos, y crecen esencialmente con los grados de libertad. (De lo contrario, $\chi^2$ es análogo a $F$ en el sentido de que $\chi^2$ se deriva de puntuaciones $z$ distribuidas normalmente, mientras que $F$ se deriva de estadísticas $t$ (t-student) distribuidas $t$).
Eso es mucho más de lo que pretendía escribir, ¡pero espero que responda tus preguntas!
(Si te estás preguntando de dónde vienen los diagramas, se generaron automáticamente con mi paquete de estadísticas de escritorio, Wizard.)
1 votos
¿Has probado los comandos
summary(aov(dependendVar ~ IndependendVar)))
osummary(lm(dependendVar ~ IndependendVar))
? ¿Te refieres a que todas las medias de grupo son iguales entre sí y iguales a 0 o solo entre sí?0 votos
Sí, intenté el
summary(aov...)
. Gracias por ellm.*
, no sabía sobre esto :-) No entiendo lo que quieres decir con igual a 0. Si eso es abreviatura de mi hipótesis nula 0, entonces la hipótesis necesitaría un valor, y no probé uno específico, así que en este caso: ¡simplemente entre ellos!1 votos
Para una explicación intuitiva, consulte el blog de Yhat sobre el tema de la regresión.