Tengo algunas bastante desordenado datos de un experimento natural. Un número de sujetos fueron medidos (las mediciones se espera de Poisson distribuidos de la cuenta y asociados offsets), colocada en un tratamiento en el tiempo T, y a continuación se mide de nuevo en algún momento después. Sin embargo, hay alguna razón para sospechar que la variable dependiente ha ido cambiando con el tiempo, así que nos pareció un control conjunto de datos y medir los sujetos antes y después de T así. Por desgracia, yo no sé cual de los sujetos en el conjunto de datos fuera de control en el tratamiento - todo lo que sé es que los que estaban se quedaron y los que se fueron se quedó fuera. Puedo obtener esta información, pero es bastante tiempo/caro.
Hay dos preguntas que me gustaría responder:
- ¿El tratamiento tiene un efecto general?
- ¿El tratamiento afecta a la mayoría de los sujetos?
Realmente no sé cómo responder a 2 (alguna variante de la prueba de McNemar test?) así que agradecería algún consejo, pero 1 he estado configurando el problema algo como esto:
glm(counts ~ as.factor(subject.id) + before + offset(log(observation.time)),family=quasipoisson)
donde antes es 0 o 1. Así que tengo dos filas por cada sujeto. Yo he hecho eso de regresión para el control y la prueba de conjuntos de datos, y los respectivos intervalos de confianza de antes no se cruzan, por lo que yo he sido moderadamente optimista. ¿Cuál es la mejor manera de combinar los dos conjuntos de datos en un único análisis, aunque? Si yo sabía que los del control conjunto de datos se realizó el tratamiento y las que no, parece bastante fácil, pero como he dicho, no sé de que.