7 votos

Realización prevista comparaciones en modelo mixto usando lmer

Cuando la deconstrucción de mi modelo de efectos mixtos, he encontrado una interacción significativa. He calculado mi p-valor mediante máxima verosimilitud de la relación de pruebas que permite una comparación del ajuste de los dos modelos (el modelo con todos los predictores menos el modelo con todos los predictores, pero el predictor de interés - en este caso, la interacción de tres vías). Cuando llevé a cabo el seguimiento de las comparaciones de la interacción de tres vías, necesito corregir el nivel alfa de la importancia con la corrección de Bonferroni?

Gracias por todos los aportes!

EDIT: (combinado de respuesta-mbq)

Quiero ver la importancia de la interacción de tres vías y entonces...yo quería ver a ningún otro interacciones significativas dentro de la primera interacción de tres vías.

Puedo utilizar el mismo conjunto de datos...el modelo es un cruzado de efectos aleatorios de los participantes y de los elementos (los datos se compone de las observaciones repetidas (tiempos de respuesta) con la Valencia (positiva y negativa) y la edad, como entre los sujetos factor así como dos continuo de las variables predictoras (anexo dimensiones). Por lo tanto, mi modelo es de Valencia x Edad x Apego ansiedad x Apego de evitación. Me encontré con que Valencia x Edad x Apego de evitación es significativo. Sin embargo, quiero examinar esta interacción más. Hice esto por examinar el mismo modelo, pero solo para jóvenes adultos y adultos mayores por separado. Por lo tanto, me encontré con los adultos mayores una interacción significativa de Valencia y el Apego de evitación. Sin embargo, cuando me calcula el p-valor (como se describe arriba) de esta interacción en ambos sentidos, puedo tomar el valor de p es o tengo que corregir con corrección de Bonferroni? Y si es así, ¿cómo? Espero que esto sea más claro?

Gracias!

Básicamente quiero examinar la 'dirección' de mi interacción de tres vías y probar si es o no las diferencias dentro de los que la interacción es significativa.

7voto

patfla Puntos 1

Parece que, básicamente, tienen un problema de modelo de elección. Creo que este es el mejor tratado como un problema de decisión. Si quieres actuar como si el modelo final que usted seleccione es el verdadero modelo, por lo que usted puede hacer conclusiones acerca de sus datos.

Así, en la teoría de la decisión, es necesario especificar una función de pérdida, que dice cómo se va a clasificar cada modelo, y un conjunto de modelos alternativos que se va a decidir entre. Ver aquí y aquí para una decisión teórica de la prueba de hipótesis en la inferencia. Y aquí es uno que utiliza un enfoque de la teoría de la decisión para elegir un modelo.

Suena como que usted desea utilizar el p-valor como su función de pérdida (porque eso es lo que desea comparar los modelos). Así que si este es tu criterio, entonces tienes que elegir el modelo con el menor p-valor.

Pero el criterio que debe aplicarse a algo que los modelos tienen en común, un "obvio" que la elección basada en una estadística que mide qué tan bien el modelo se ajusta a los datos.

Un ejemplo es la suma de los cuadrados de los errores de la predicción de un nuevo conjunto de observaciones que no fueron incluidas en el ajuste del modelo (basado en la idea de que un "buen" modelo debe reproducir los datos que se supone debe de estar describiendo). Así, lo que puedes hacer es, para cada modelo:

1) de forma aleatoria dividir los datos en dos partes, una "parte del modelo" lo suficientemente grande para tu modelo, y una "prueba" de la parte para verificar predicciones (que partición en particular no debe importar si el modelo es un buen modelo). El "modelo" conjunto es generalmente más grande que la "prueba" de ajuste (por lo menos 10 veces más grande, dependiendo de la cantidad de datos que tienen)

2) ajustar el modelo a la "modelo de datos" y, a continuación, utilizarlo para predecir la "prueba" de datos.

3) Calcular la suma de cuadrados del error de predicción en el "test" de datos.

4) repita el 1-3 tantas veces como se considere necesario para su base de datos (sólo en caso de que se hizo una "mala" o "mala suerte" de la partición), y tomar el promedio de la suma de cuadrados valor de error en el paso 3).

Parece como si ya ha definido una clase de modelos alternativos que usted está dispuesto a considerar.

Sólo una nota al margen: Cualquier procedimiento que utilice para seleccionar el modelo, debe ir en el paso 1, incluyendo "automático" modelo de procedimientos de selección. De esta manera usted debidamente en cuenta las "comparaciones múltiples" que el procedimiento automático. Desafortunadamente, usted necesita tener una alternativa (tal vez uno es "foward" selección de uno de ellos es "forward stepwise" uno es "hacia atrás" selección, etc.). "Mantener las cosas en equilibrio" se podría mantener el mismo conjunto de particiones para todos los modelos.

i-Ciencias.com

I-Ciencias es una comunidad de estudiantes y amantes de la ciencia en la que puedes resolver tus problemas y dudas.
Puedes consultar las preguntas de otros usuarios, hacer tus propias preguntas o resolver las de los demás.

Powered by:

X