35 votos

¿Puedo confiar en los resultados del ANOVA para una VD distribuida de forma no normal?

He analizado un experimento con un ANOVA de medidas repetidas. El ANOVA es un 3x2x2x2x3 con 2 factores entre sujetos y 3 dentro (N = 189). La tasa de error es la variable dependiente. La distribución de las tasas de error tiene un sesgo de 3,64 y una curtosis de 15,75. El sesgo y la curtosis son el resultado de que el 90% de las medias de las tasas de error sean 0. La lectura de algunos de los hilos anteriores sobre pruebas de normalidad me tiene un poco confundido. Pensaba que si tienes datos que no se distribuyen normalmente te conviene transformarlos si es posible, pero parece que mucha gente piensa que analizar datos no normales con un ANOVA o una prueba T es aceptable. ¿Puedo fiarme de los resultados del ANOVA?

(Para su información, en el futuro tengo la intención de analizar este tipo de datos en R con modelos mixtos con una distribución binomial)

2 votos

¿Podría enlazar a algunos de esos hilos? Mi instinto me dice "NOOO no no no", pero no soy un experto y me interesaría leer algunos de esos argumentos.

4 votos

No se puede confiar en los valores p derivados de las distribuciones F con este tipo de datos.

3 votos

Muchos citan la robustez del ANOVA como justificación para utilizarlo con datos no normales. En mi humilde opinión, la robustez no es un atributo general de una prueba, sino que hay que establecer con precisión a) contra qué violaciones de sus supuestos es robusta una prueba (normalidad, esfericidad, ...), b) hasta qué punto estas violaciones no tienen un gran efecto, c) cuáles son los requisitos previos para que la prueba muestre robustez (tamaño de celda grande e igual ...). En su diseño de parcela dividida, me encantaría que alguien indicara los supuestos precisos de esfericidad e igualdad de las matrices de covarianza. Ya es alucinante en el caso de 2 factores.

36voto

Al igual que otras pruebas paramétricas, el análisis de la varianza supone que los datos se ajustan a la distribución normal. Si su variable de medida no se distribuye normalmente, puede estar aumentando la probabilidad de obtener un resultado falso positivo si analiza los datos con un anova u otra prueba que asuma la normalidad. Afortunadamente, un anova no es muy sensible a las desviaciones moderadas de la normalidad; los estudios de simulación, utilizando una variedad de distribuciones no normales, han demostrado que la tasa de falsos positivos no se ve muy afectada por esta violación del supuesto (Glass et al. 1972, Harwell et al. 1992, Lix et al. 1996). Esto se debe a que cuando se toma un gran número de muestras aleatorias de una población, las medias de esas muestras se distribuyen aproximadamente de forma normal incluso cuando la población no es normal.

Es posible comprobar la bondad de ajuste de un conjunto de datos a la distribución normal. No le sugiero que lo haga, porque muchos conjuntos de datos que son significativamente no normales serían perfectamente apropiados para un anova.

En su lugar, si dispone de un conjunto de datos lo suficientemente grande, le sugiero que se limite a observar el histograma de frecuencias. Si parece más o menos normal, siga adelante y realice un anova. Si parece una distribución normal que ha sido empujada hacia un lado, como los datos de sulfato anteriores, deberías probar diferentes transformaciones de datos y ver si alguna de ellas hace que el histograma parezca más normal. Si eso no funciona, y los datos siguen pareciendo severamente no normales, probablemente todavía esté bien analizar los datos utilizando un anova. Sin embargo, es posible que desee analizarlos utilizando una prueba no paramétrica. Casi todas las pruebas estadísticas paramétricas tienen un sustituto no paramétrico, como la prueba de Kruskal-Wallis en lugar de un anova unidireccional, la prueba de rango con signo de Wilcoxon en lugar de una prueba t pareada y la correlación de rango de Spearman en lugar de la regresión lineal. Estas pruebas no paramétricas no suponen que los datos se ajusten a la distribución normal. Sin embargo, sí suponen que los datos de los distintos grupos tienen la misma distribución entre sí; si los distintos grupos tienen distribuciones con formas diferentes (por ejemplo, uno está sesgado a la izquierda y otro a la derecha), es posible que una prueba no paramétrica no sea mejor que una paramétrica.

Referencias

  1. Glass, G.V., P.D. Peckham y J.R. Sanders. 1972. Consequences of failure to meet assumptions underlying fixed effects analyses of variance and covariance. Rev. Educ. Res. 42: 237-288.
  2. Harwell, M.R., E.N. Rubinstein, W.S. Hayes y C.C. Olds. 1992. Summarizing Monte Carlo results in methodological research: the one- and two-factor fixed effects ANOVA cases. J. Educ. Stat. 17: 315-339.
  3. Lix, L.M., J.C. Keselman y H.J. Keselman. 1996. Consequences of assumption violations revisited: A quantitative review of alternatives to the one-way analysis of variance F test. Rev. Educ. Res. 66: 579-619.

12voto

Matt Mitchell Puntos 17005

Específicamente en lo que respecta a las tasas de error como VD, Dixon (2008) demuestra de forma muy convincente que la comprobación de hipótesis nulas mediante ANOVA puede provocar tanto un aumento de las tasas de falsas alarmas (considerar "significativos" los efectos cuando no lo son) y aumento de los porcentajes de fallo (omisión de efectos reales). También demuestra que la modelización de efectos mixtos, especificando el error distribuido binomialmente, es el enfoque más adecuado para analizar los datos de tasas.

5voto

Mike Young Puntos 31

No puedes confiar en tu ANOVA con tanto sesgo y un gran número de 0s. Un método más apropiado sería utilizar el número de errores como VD (convirtiendo así el VD en datos de recuento) y realizar un análisis de Poisson. Este enfoque requeriría utilizar un análisis de efectos mixtos y especificar la familia de distribución de errores como Poisson. En Dixon (2008) * El artículo mencionado por Mike Lawrence utiliza el análisis de efectos mixtos en R pero con resultados binomiales. Me he pasado completamente a R para la mayoría de mis análisis de medidas repetidas porque muchas de mis variables de resultado son binomiales. El paquete R apropiado es lme4 .

$*$ Dixon, P. (2008). Modelos de precisión en diseños de medidas repetidas. Revista de Memoria y Lenguaje , 59 (4), 447-456.

5voto

pauly Puntos 932

Juan ha ofrecido mucho, aunque me haré eco de otros y repetiré que para mayor precisión las propias variables pueden ser no normales siempre que sus residuales no lo sean. También, una respuesta simplificada y un poco más estructurada (a través de un diagrama de flujo anotado) está disponible en yellowbrickstats.com .

2 votos

Lo siento, pero -1 de mi parte. Esto es cierto en general, pero los residuos no lo será si tenemos una inflación de ceros. Creo que las respuestas no deben limitarse a las generalidades, sino abordar la cuestión específica.

1voto

james Puntos 11

Los efectos de techo son el problema aquí. Una prueba no paramétrica es su apuesta más segura, aunque ANOVAs son robustos a esta violación de la normalidad si n es grande. Normalmente, la gente utiliza un histograma para probar esto, pero si el problema es con los residuos podría ser más avanzado que eso. Tenga en cuenta también CÓMO afecta esto a sus resultados (no sólo que lo hace). Pallant (2007) probablemente diría que esto aumenta la probabilidad de error de tipo uno, por lo que si se reduce el alfa crítico se mitiga.

i-Ciencias.com

I-Ciencias es una comunidad de estudiantes y amantes de la ciencia en la que puedes resolver tus problemas y dudas.
Puedes consultar las preguntas de otros usuarios, hacer tus propias preguntas o resolver las de los demás.

Powered by:

X