Un experimento llevado a cabo recientemente ha utilizado un 2 (entre los participantes) x 3 (dentro de los participantes) de diseño. Es decir, los participantes fueron asignados aleatoriamente a una de dos condiciones, y luego completó tres tareas similares en cada uno (en un orden de contrapeso).
En cada una de estas tareas, los participantes hicieron elecciones binarias (2AFC) en un número de ensayos, cada uno de los cuales tenía una fundamentación de la respuesta correcta.
En cada ensayo, los participantes presentaron un distractor, el cual fue asumido el sesgo de las respuestas hacia una de las alternativas. Las tareas que difieren sólo en la presencia y la magnitud de este distractor (es decir, no un distractor vs distractor de pequeña y gran magnitud).
Me gustaría examinar la tasa de errores (desviaciones de la fundamentación de la respuesta correcta) a través de estas condiciones. Mi hipótesis es que la tasa de error aumenta cuando un distractor está presente, pero no va a aumentar, aún más, cuando la magnitud de la distractor es mayor. También, espero que este incremento se diferencian entre las entre-sujetos de condiciones. El último de la interacción es el interés central.
A partir de las discusiones de aquí y de la literatura (Dixon, 2008; Jaeger, 2008), deduzco que logit mixto modelos son el adecuado método de análisis, y que, en R, el paquete lme4 es la herramienta de elección.
Mientras yo podía calcular algunos análisis básicos (por ejemplo, al azar interceptar modelo de efectos aleatorios ANCOVA) con lme4, estoy estancado en cuanto a cómo aplicar los modelos para el diseño en cuestión, tengo la sensación de que soy mucho de pensar en términos de Realizó, y no han entendido la totalidad de modelos de efectos mixtos. Por lo tanto, yo estaría muy agradecido por su ayuda.
Tengo dos preguntas básicas:
En un primer análisis, me gustaría considerar las tasas de error sólo en aquellos ensayos en los que los participantes estaban sesgadas hacia el mal respuesta. El primer modelo sería, por tanto, fijarse sólo en los ensayos en los que el sesgo sería el punto lejos de la respuesta correcta.
Si mis observaciones son independientes, probablemente voy a utilizar un modelo como este:
correct ~ condition + distractor + condition:distractor
... pero obviamente, no lo son: las Observaciones se agrupan dentro de una tarea (con una constante presencia de un distractor) y dentro de los participantes. Mi pregunta, entonces, es esta: ¿Cómo puedo añadir el de efectos aleatorios para reflejar esto?
(Si no he perdido ya : -) ) ¿Sería posible incluir todos los ensayos (aquellos en los que el sesgo sería en la dirección del mal y de la respuesta correcta), e incluir esta diferencia (es decir, la dirección de la tendencia) como una prueba de nivel predictor?
En mi imaginación de los Realizó, un predictor (en el nivel de la prueba) depende de la magnitud de la distractor presente (en el nivel de la cuadra), que a su vez dependerá de la condición del participante (además de, posiblemente, un factor único para cada participante).
Las interacciones que luego emerger "automáticamente" como cross-nivel de las interacciones. ¿Cómo sería un modelo que se especifica en el "plano" de lme4 sintaxis? (Sería un modelo de hacer sentido de todo?)
Ok, espero que todo esto tiene sentido: con mucho gusto le elaborar de otro modo. De nuevo, yo estaría muy agradecido por todas las ideas y comentarios con respecto a este análisis, y quiero dar las gracias a usted por tomarse el tiempo y la molestia de responder.
Referencias
Dixon, P. (2008). Modelos de precisión en medidas repetidas diseños. Diario de la Memoria y el Lenguaje, 59(4), 447-456. doi: 10.1016/j.jml.2007.11.004
Jaeger T. F. (2008). Análisis de datos categóricos: Distancia desde el análisis de la varianza (transformación o no) y hacia logit mixto modelos. Diario de la Memoria y el Lenguaje, 59(4), 434-446. doi: 10.1016/j.jml.2007.11.007