Al igual que otras pruebas paramétricas, el análisis de la varianza supone que los datos se ajustan a la distribución normal. Si su variable de medida no se distribuye normalmente, puede estar aumentando la probabilidad de obtener un resultado falso positivo si analiza los datos con un anova u otra prueba que asuma la normalidad. Afortunadamente, un anova no es muy sensible a las desviaciones moderadas de la normalidad; los estudios de simulación, utilizando una variedad de distribuciones no normales, han demostrado que la tasa de falsos positivos no se ve muy afectada por esta violación del supuesto (Glass et al. 1972, Harwell et al. 1992, Lix et al. 1996). Esto se debe a que cuando se toma un gran número de muestras aleatorias de una población, las medias de esas muestras se distribuyen aproximadamente de forma normal incluso cuando la población no es normal.
Es posible comprobar la bondad de ajuste de un conjunto de datos a la distribución normal. No le sugiero que lo haga, porque muchos conjuntos de datos que son significativamente no normales serían perfectamente apropiados para un anova.
En su lugar, si dispone de un conjunto de datos lo suficientemente grande, le sugiero que se limite a observar el histograma de frecuencias. Si parece más o menos normal, siga adelante y realice un anova. Si parece una distribución normal que ha sido empujada hacia un lado, como los datos de sulfato anteriores, deberías probar diferentes transformaciones de datos y ver si alguna de ellas hace que el histograma parezca más normal. Si eso no funciona, y los datos siguen pareciendo severamente no normales, probablemente todavía esté bien analizar los datos utilizando un anova. Sin embargo, es posible que desee analizarlos utilizando una prueba no paramétrica. Casi todas las pruebas estadísticas paramétricas tienen un sustituto no paramétrico, como la prueba de Kruskal-Wallis en lugar de un anova unidireccional, la prueba de rango con signo de Wilcoxon en lugar de una prueba t pareada y la correlación de rango de Spearman en lugar de la regresión lineal. Estas pruebas no paramétricas no suponen que los datos se ajusten a la distribución normal. Sin embargo, sí suponen que los datos de los distintos grupos tienen la misma distribución entre sí; si los distintos grupos tienen distribuciones con formas diferentes (por ejemplo, uno está sesgado a la izquierda y otro a la derecha), es posible que una prueba no paramétrica no sea mejor que una paramétrica.
Referencias
- Glass, G.V., P.D. Peckham y J.R. Sanders. 1972. Consequences of failure to meet assumptions underlying fixed effects analyses of variance and covariance. Rev. Educ. Res. 42: 237-288.
- Harwell, M.R., E.N. Rubinstein, W.S. Hayes y C.C. Olds. 1992. Summarizing Monte Carlo results in methodological research: the one- and two-factor fixed effects ANOVA cases. J. Educ. Stat. 17: 315-339.
- Lix, L.M., J.C. Keselman y H.J. Keselman. 1996. Consequences of assumption violations revisited: A quantitative review of alternatives to the one-way analysis of variance F test. Rev. Educ. Res. 66: 579-619.
2 votos
¿Podría enlazar a algunos de esos hilos? Mi instinto me dice "NOOO no no no", pero no soy un experto y me interesaría leer algunos de esos argumentos.
4 votos
No se puede confiar en los valores p derivados de las distribuciones F con este tipo de datos.
3 votos
Muchos citan la robustez del ANOVA como justificación para utilizarlo con datos no normales. En mi humilde opinión, la robustez no es un atributo general de una prueba, sino que hay que establecer con precisión a) contra qué violaciones de sus supuestos es robusta una prueba (normalidad, esfericidad, ...), b) hasta qué punto estas violaciones no tienen un gran efecto, c) cuáles son los requisitos previos para que la prueba muestre robustez (tamaño de celda grande e igual ...). En su diseño de parcela dividida, me encantaría que alguien indicara los supuestos precisos de esfericidad e igualdad de las matrices de covarianza. Ya es alucinante en el caso de 2 factores.
1 votos
Algunas ideas: ¿hay alguna forma de agregar alguno de los grupos (por ejemplo, promediando valores individuales) y seguir realizando análisis significativos? [Murtaugh, Paul A. 2007. Simplicidad y complejidad en el análisis de datos ecológicos. Ecology 88, nº 1: 56-62. esajournals.org/doi/abs/10.1890/ Me preocuparía bastante una situación con el 90% de las observaciones iguales a cero...
0 votos
@whuber Desde entonces he probado un montón de transformaciones. Una transformación de raíz cuadrada resulta en una distribución con un sesgo de 2,77 y curtosis de 6,21. ¿Sería ANOVA resultados más fiables de esta distribución? ¿Existen directrices sobre hasta qué punto una distribución puede desviarse de la normalidad y seguir funcionando con ANOVA?
3 votos
@Matt Parece que el 90% de los residuos son cero. Si ese es el caso, ninguna transformación va a hacer que los residuos se acerquen remotamente a la normalidad. Los estudios de simulación han demostrado que los valores p de las pruebas F son muy sensibles a las desviaciones de la normalidad. (En su caso, es bastante probable que algunos denominadores de las pruebas F sean cero: un claro indicador de hasta qué punto pueden ir mal las cosas). Necesita un enfoque diferente. Lo que hay que hacer depende de por qué por lo que muchos residuos son cero. ¿Falta de precisión suficiente en las mediciones?
1 votos
@whuber Supongo que se podría decir que los 0s resultaron de la falta de precisión. Simplemente, era una tarea fácil con alta precisión que empujó la varianza de interés en los tiempos de respuesta. Otro enfoque que he tomado es usar GEEs con una distribución binomial negativa. No pude conseguir que convergiera un modelo equivalente al ANOVA, pero pude hacer múltiples modelos reducidos con variables clave de interés. ¿Le parece un enfoque razonable?
2 votos
@Matt eso suena más apropiado, suponiendo que tus datos sean recuentos. Otra consideración atractiva es una respuesta binomial negativa inflada a cero ( ats.ucla.edu/stat/r/dae/zinbreg.htm ).