No hay una respuesta clara en la literatura sobre cómo tratar el hecho de que los datos de RT no se ajustan a los modelos tradicionales de error gaussiano. Algunos dirán que no hay que preocuparse por el error no gaussiano dentro de las celdas del diseño experimental porque los enfoques de análisis tradicionales suelen reducir estas observaciones a una media, y sabemos que la distribución de muestreo de la media tenderá a ajustarse a la hipótesis gaussiana del error. Tales argumentos pasan por alto el punto, ahora bien establecido en la literatura de RT, de que las variables experimentales pueden afectar no sólo a la tendencia central de la distribución de RT, sino también a la escala y la forma de la distribución. De hecho, varios informes muestran que el enfoque tradicional de "colapso a una media" puede pasar por alto fenómenos cuando una variable disminuye la tendencia central pero aumenta la inclinación.
Para aquellos interesados en caracterizar la naturaleza completa de la distribución de RT (o al menos, las características de la distribución más allá de la tendencia central), existen tres enfoques generales:
- Cuantificar la distribución mediante cuantiles (normalmente
seq(.1,.9,.2)
) y añada el cuantil a la lista de variables de efecto fijo en su análisis. Esto requiere que usted tenga algún método para tratar con la naturaleza continua, aunque probablemente no lineal, del cuantil como variable; me gusta el modelo de efectos mixtos aditivos generalizados para este propósito.
- Elija una forma de distribución a priori (por ejemplo, Ex-Gaussian, Wald, Weibull, etc.) e intente estimar los parámetros que mejor se ajustan a esta distribución (y el efecto de sus variables experimentales sobre ella) dados los datos. Mientras que algunas personas obtienen estimaciones de parámetros por celda del diseño experimental y luego someten las estimaciones a ANOVA, pero donde la suposición de error gaussiano puede no ser apropiada para estas estimaciones de parámetros, yo diría que la modelización jerárquica (como en Rouder et al 2005 ) es un mejor enfoque.
- Elija un modelo de proceso a priori (por ejemplo, difusión, acumulador balístico lineal, etc.) y ajústelo repetidamente a los datos, comparando la calidad de los ajustes resultantes en función de si deja variar ciertos parámetros de interés en función del diseño experimental. De nuevo, esto se hace mejor de forma jerárquica.
Personalmente, me gusta el número 3, pero sugiero que el número 1 también se haga siempre para evitar la posibilidad de que el modelo de proceso no sea adecuado.
Ahora bien, cómo hacer todo lo anterior y tener en cuenta los valores atípicos (rápidos y lentos) es otra cuestión, aunque Trisha Van Zandt dio una buena charla en la reunión del SCiP del año pasado en la que mostró un enfoque en el que los valores atípicos rápidos y lentos se modelaron explícitamente con distribuciones a priori (su modelización también tuvo en cuenta las correlaciones seriales en los TR).