6 votos

Análisis de un 2 x 3 repiten diseño medidas utilizando un modelo de logit Mixto

Un experimento llevado a cabo recientemente ha utilizado un 2 (entre los participantes) x 3 (dentro de los participantes) de diseño. Es decir, los participantes fueron asignados aleatoriamente a una de dos condiciones, y luego completó tres tareas similares en cada uno (en un orden de contrapeso).

En cada una de estas tareas, los participantes hicieron elecciones binarias (2AFC) en un número de ensayos, cada uno de los cuales tenía una fundamentación de la respuesta correcta.
En cada ensayo, los participantes presentaron un distractor, el cual fue asumido el sesgo de las respuestas hacia una de las alternativas. Las tareas que difieren sólo en la presencia y la magnitud de este distractor (es decir, no un distractor vs distractor de pequeña y gran magnitud).

Me gustaría examinar la tasa de errores (desviaciones de la fundamentación de la respuesta correcta) a través de estas condiciones. Mi hipótesis es que la tasa de error aumenta cuando un distractor está presente, pero no va a aumentar, aún más, cuando la magnitud de la distractor es mayor. También, espero que este incremento se diferencian entre las entre-sujetos de condiciones. El último de la interacción es el interés central.

A partir de las discusiones de aquí y de la literatura (Dixon, 2008; Jaeger, 2008), deduzco que logit mixto modelos son el adecuado método de análisis, y que, en R, el paquete lme4 es la herramienta de elección.
Mientras yo podía calcular algunos análisis básicos (por ejemplo, al azar interceptar modelo de efectos aleatorios ANCOVA) con lme4, estoy estancado en cuanto a cómo aplicar los modelos para el diseño en cuestión, tengo la sensación de que soy mucho de pensar en términos de Realizó, y no han entendido la totalidad de modelos de efectos mixtos. Por lo tanto, yo estaría muy agradecido por su ayuda.

Tengo dos preguntas básicas:

  1. En un primer análisis, me gustaría considerar las tasas de error sólo en aquellos ensayos en los que los participantes estaban sesgadas hacia el mal respuesta. El primer modelo sería, por tanto, fijarse sólo en los ensayos en los que el sesgo sería el punto lejos de la respuesta correcta.

    Si mis observaciones son independientes, probablemente voy a utilizar un modelo como este:

    correct ~ condition + distractor + condition:distractor

    ... pero obviamente, no lo son: las Observaciones se agrupan dentro de una tarea (con una constante presencia de un distractor) y dentro de los participantes. Mi pregunta, entonces, es esta: ¿Cómo puedo añadir el de efectos aleatorios para reflejar esto?

  2. (Si no he perdido ya : -) ) ¿Sería posible incluir todos los ensayos (aquellos en los que el sesgo sería en la dirección del mal y de la respuesta correcta), e incluir esta diferencia (es decir, la dirección de la tendencia) como una prueba de nivel predictor?

    En mi imaginación de los Realizó, un predictor (en el nivel de la prueba) depende de la magnitud de la distractor presente (en el nivel de la cuadra), que a su vez dependerá de la condición del participante (además de, posiblemente, un factor único para cada participante).
    Las interacciones que luego emerger "automáticamente" como cross-nivel de las interacciones. ¿Cómo sería un modelo que se especifica en el "plano" de lme4 sintaxis? (Sería un modelo de hacer sentido de todo?)

Ok, espero que todo esto tiene sentido: con mucho gusto le elaborar de otro modo. De nuevo, yo estaría muy agradecido por todas las ideas y comentarios con respecto a este análisis, y quiero dar las gracias a usted por tomarse el tiempo y la molestia de responder.

Referencias

Dixon, P. (2008). Modelos de precisión en medidas repetidas diseños. Diario de la Memoria y el Lenguaje, 59(4), 447-456. doi: 10.1016/j.jml.2007.11.004

Jaeger T. F. (2008). Análisis de datos categóricos: Distancia desde el análisis de la varianza (transformación o no) y hacia logit mixto modelos. Diario de la Memoria y el Lenguaje, 59(4), 434-446. doi: 10.1016/j.jml.2007.11.007

3voto

jgauffin Puntos 54

No estoy de acuerdo con el resto de responder, usted no sólo debe adaptarse a las distintas interceptar, fija la pendiente de forma predeterminada.

y~1+condición*distractor*dirección+(1+condición*distractor*dirección|sujeto) debe ser al menos ajuste para el modelo de pruebas. De lo contrario, usted está asumiendo que el sujeto es sólo un efecto en el intercepto y que están suponiendo que no hay correlación de la pendiente y la intersección de efectos aleatorios. No se salte estas importantes investigaciones. Ver http://lme4.r-forge.r-project.org/book/Ch4.pdfy http://www.stat.columbia.edu/~gelman/investigación/inédito/multi.pdf

3voto

Matt Mitchell Puntos 17005

Definitivamente, me gustaría utilizar todos sus datos y agregar la dirección de la intención de sesgo en la inducción como en una variable. Ya que usted ya tiene variables en el modelo que describe la diferencia entre las tareas, no creo que la adición de una tarea como un efecto aleatorio es necesario. El modelo sería:

my_model = lmer(
    correct ~ (1|subject) + condition*distractor*direction
    , family = 'binomial'
    , data = my_data
)

Echa un vistazo a la ezMixed función de la ez paquete de una forma automatizada de evaluación de las pruebas para cada efecto en el modelo.

i-Ciencias.com

I-Ciencias es una comunidad de estudiantes y amantes de la ciencia en la que puedes resolver tus problemas y dudas.
Puedes consultar las preguntas de otros usuarios, hacer tus propias preguntas o resolver las de los demás.

Powered by:

X