ANOVA vs $t$-pruebas
Con ANOVA, generalmente en primer lugar, realizar un ómnibus de la prueba. Esta es una prueba en contra de la nula hipótesis de que todas las medias de los grupos son iguales ($\mu_1=\mu_2=\mu_3$).
Sólo si hay suficiente evidencia en contra de esta hipótesis, un análisis post-hoc se puede ejecutar el cual es muy similar a la utilización de 3 pares de $t$-pruebas para comprobar las diferencias individuales. El más utilizado es el llamado de Tukey Honesto Diferencia Significativa (o de Tukey HSD) y tiene dos diferencias importantes con una serie de $t$-pruebas:
- Utiliza el studentized rango de distribución en lugar de la $t$-distribución de $p$-valores / intervalos de confianza;
- Corrige para pruebas múltiples de forma predeterminada.
La última es la parte importante: Dado que son las pruebas de las tres hipótesis, que han inflado la oportunidad de al menos un falso positivo. Múltiples pruebas de corrección también puede ser aplicado a tres $t$-pruebas, pero con el ANOVA + de Tukey HSD, esto se hace por defecto.
Una tercera diferencia con independiente $t$-pruebas es que usted utiliza todos sus datos, no del grupo por grupo. Esto puede ser ventajoso, ya que permite facilitar el diagnóstico de los residuos. Sin embargo, también significa que usted puede tener que recurrir a otras alternativas para el estándar de ANOVA en el caso de que las varianzas no son aproximadamente iguales entre los grupos, o de otro supuesto es violado.
ANOVA vs Regresión Lineal
ANOVA es una regresión lineal con sólo adiciones a la intersección, no 'pendientes' en el sentido coloquial de la palabra. Sin embargo, cuando se utiliza la regresión lineal con variables ficticias para cada una de las tres categorías, se puede lograr los mismos resultados en términos de estimaciones de los parámetros.
La diferencia está en la hipótesis, por lo general, la prueba con una regresión lineal. Recuerde que en el ANOVA, el análisis son: omnibus, a continuación, las comparaciones por pares. En la regresión lineal se suele realizar la prueba si:
- $\beta_0 = 0$, se prueba si la intersección es significativamente distinto de cero;
- $\beta_j = 0$, donde $j$ es cada una de las variables.
En caso de que usted sólo tiene una variable (grupo), una de sus categorías se convierten en la intersección (es decir, el grupo de referencia). En ese caso, las pruebas realizadas por la mayoría de los software estadístico será:
- Es la estimación para el grupo de referencia significativamente distinto de cero?
- Es la estimación de $(\text{group 1}) - (\text{reference group})$ significativamente distinto de cero?
- Es la estimación de $(\text{group 2}) - (\text{reference group})$ significativamente distinto de cero?
Esto es bueno si usted tiene un claro grupo de referencia, porque entonces usted puede simplemente ignorar el (normalmente insignificante) interceptar $p$-valor y correcto de los otros dos para pruebas múltiples. Esto le ahorra algo de energía, debido a que se trata solo de corregir en dos pruebas, en lugar de tres.
Entonces, para resumir, si el grupo de llamar a comparison
es en realidad un grupo de control, puede que desee utilizar la regresión lineal en lugar de ANOVA. Sin embargo, las tres pruebas que usted dice que usted quiere hacer en su pregunta se parece a la de un ANOVA post hoc o tres pares de $t$-pruebas.