Usted puede utilizar un lineales generalizados mixtos modelo (binomio de la familia), con la persona como un efecto aleatorio y de los hermanos como un efecto fijo.
En R
esto se llevaría a cabo como
data <- data.frame(person=as.factor(c(1,1,2,2)),
sibling=as.factor(c(0,1,0,1)),
attempts=c(300,35,125,40),
hits=c(15,5,10,8))
data$failures <- data$attempts - data$hits
require(lme4)
fit <- lmer(cbind(hits, failures) ~ sibling + (1 | person), family=binomial(), data=data)
summary(fit)
La salida da un (a dos caras) p-valor de $0.00101$ en este ejemplo:
Fixed effects:
Estimate Std. Error z value Pr(>|z|)
(Intercept) -2.7726 0.2062 -13.449 < 2e-16 ***
sibling1 1.2104 0.3682 3.288 0.00101 **
El positivo de la estimación indica que los hermanos hacen mejor. Esta diferencia en el resultado de la combinación de un montón de chi-cuadrado pruebas, una para cada persona:
chisq <- by(data, data$person, function(x) chisq.test(cbind(x$failures, x$hits)),
simplify=FALSE) #$
stat <- -2 * sum(unlist(lapply(chisq, function(x) log(x$p.value)))) #$
pchisq(stat, df=2, lower.tail=FALSE)
El separar los valores de p se $6.9$$6.8$%%, respectivamente, que cuando se combina, como muestra el rendimiento de un valor de p $0.47$% más que en el GLMM valor de p $0.10$%.
Uno de los peligros del uso de la chi-cuadrado pruebas se produce cuando los efectos de diferentes personas están en direcciones opuestas: la combinación de sus (de dos caras) los valores de p sería erróneo. Ese problema no existe con el GLMM.
Hay más potencia y flexibilidad en el uso de los GLMM en comparación con la realización de la chi-cuadrado pruebas. Por otra parte, el GLMM va a manejar varios hermanos por persona y múltiples experimentos por persona sin ningún cambio; es difícil ver cómo adaptar chi-cuadrado de la tabla de contingencia de análisis a las generalizaciones.