8 votos

¿Cuándo una prueba no pareada da como resultado un valor p más alto que una prueba pareada?

Yo determinaron algunos parámetros en un grupo de sujetos bajo dos condiciones, de tal manera que cada sujeto fue puesto a prueba en ambas condiciones. Quiero saber si la condición tiene un efecto sobre el parámetro. Mi diseño es obviamente vinculado. Sin embargo, la experiencia previa con este experimento me hace creer que la respuesta es independiente durante cada medición. Por lo tanto, supongo que los sujetos son independientes y no vinculado. En consecuencia, me decido a analizar los datos con un unpaired t-test. Pero por curiosidad, yo también ejecutar una prueba t pareada, con los siguientes resultados:

El valor de P para la prueba de T pareada es de 0,08 (no hay diferencia). El valor de P para la unpaired T-test es de 0,04 (diferencia significativa).

Estoy confundido porque he pensado que uno de los pares de la prueba siempre debe dar menor p-valor (o igual en el peor de los casos) que uno no prueba, por la eliminación de la variabilidad entre sujetos y aumento de la energía.

Preguntas:

1) Cuando puede uno de los pares de la prueba de producir a mayor p-valor que uno no prueba? ¿Qué significa el resultado en términos de las fuentes de variación? Parece que el emparejamiento de los sujetos que no sólo no elimina la variabilidad entre sujetos, pero añade algún tipo de un nuevo variabilidad.

2) este resultado Puede decirme algo acerca de mi suposición de que los sujetos son independientes? Puede invalidar esta hipótesis?

3) En resumen, es siempre una cuestión de elección a la par o no a la par de los sujetos durante el análisis? O es formalmente correcto usar un impares de la prueba cuando los sujetos son, lógicamente, emparejado?

6voto

Brandon Grossutti Puntos 140
  1. Como @whuber dice en el comentario anterior, cuando las medidas están negativamente correlacionados, el p-valor puede ser menor en los impares prueba que en los pares de prueba. He aquí un ejemplo donde hay una diferencia:

    library(MASS)
    s  <- matrix(c(1, -0.8, -0.8, 1), 2)
    df <- mvrnorm(n=100, mu=c(0, 0.3), Sigma=s, empirical=TRUE)
    t.test(df[,1], df[, 2], paired=FALSE)
    t.test(df[,1], df[, 2], paired=TRUE)
    

    La primera prueba (impares) da p=0.035, el segundo da p=0.117.

  2. Sí, este es un problema de diseño. Este libro capítulo explica: Keren, G. (2014). Entre o dentro de los sujetos de diseño: Un dilema metodológico. Un Manual para el Análisis de Datos en la Behaviorial Ciencias: Volumen 1: aspectos Metodológicos Volumen 2: Cuestiones Estadísticas, 257, que se pueden leer algunos de los libros de Google.

  3. Hmmm... no estoy seguro. Me gustaría hacer una simulación para conocer el efecto sobre el tipo de la tasa de error. Cómo afecta esto a la alimentación es un tema aparte que no he estudiado aquí. Ligera adaptación de mi código anterior:

    paired   <- rep(NA, 1000)
    unpaired <- rep(NA, 1000)
    for(i in 1:1000){
          df          <- mvrnorm(n=100, mu=c(0, 0), Sigma=s, empirical=FALSE)
          unpaired[i] <- t.test(df[,1], df[, 2], paired=FALSE)$p.value
          paired[i]   <- t.test(df[,1], df[, 2], paired=TRUE )$p.value
    }
    
    sum(paired < 0.05)
    sum(unpaired < 0.05)
    

    Resultado:

    > sum(paired < 0.05)
    [1] 46
    > sum(unpaired < 0.05)
    [1] 137
    

Pues mira en eso. Si los tratas como impares, el tipo de la tasa de error de los cohetes. Es necesario tratarlos como asociado para llegar a la respuesta correcta. Yo creo (es un largo tiempo desde que he leído) que este es uno de los temas Keren habla en ese capítulo. Si usted va a disponer de datos que puede ser negativa correlación (por ejemplo, cantidad de sopa y la cantidad de hamburguesas que alguien come) tendrás más potencia con un impares de diseño.

i-Ciencias.com

I-Ciencias es una comunidad de estudiantes y amantes de la ciencia en la que puedes resolver tus problemas y dudas.
Puedes consultar las preguntas de otros usuarios, hacer tus propias preguntas o resolver las de los demás.

Powered by:

X