Si las trampas se consideran independientes, a continuación, no se trata de una variación en $\chi^2$ prueba, es solo uno. Pero debido a que son utilizados en pares, y por lo tanto no es independiente, entonces lo que estás buscando sería una variación en una prueba de McNemar test. Por desgracia, cualquier modificación de la prueba por más de una matriz de 2x2 todavía sufren porque tienen pequeñas cantidades de elementos en la inferior de la columna.
Su efecto es tan fuerte que yo estaría tentado a acaba de informar de los datos. Qué tiene de malo eso? Cuando los datos son muy fuertes y hay poco o ningún ruido en el efecto entonces es difícil ver por qué no simplemente se informe de lo que se encuentra y el estado como un hecho. Las estadísticas no son tan poderosos como pensar y no hacer realidad esta convincente de datos de la historia mejor. Tengo miedo de que acababa de ser utilizado para ocultar el pequeño de la muestra problema.
Si usted realmente desea una probabilidad, entonces remuestreo es probablemente su mejor apuesta aquí. Puede realizar una permutación o la aleatorización de la prueba. Calcular la diferencia de medias entre el Más y el Menos condiciones. Entonces la lucha de las muestras de forma aleatoria, manteniendo su vinculación, y calcular las nuevas diferencias de medias. Hacer eso en un equipo que miles de veces y averiguar dónde está la diferencia se encuentra cae en la distribución de las diferencias en las muestras. La probabilidad de un efecto grande o más grande será su p-valor para el informe.
Aquí un poco de la base de R que hace.
dat <- matrix(c(6, 1, 3, 1, 15, 0, 0, 1, 0, 3), ncol = 2)
n <- nrow(dat)
eff <- diff( colSums(dat) )
samps <- rowSums(dat)
nsamp <- 5000
# bootstrap nsamp replications of your experiment
y <- replicate(nsamp, {
# get a random amount for each location and put it in the more trap
more <- sapply(1:n, function(i) {sample(samps[i]+1, 1) - 1})
# of course, the rest is in the less trap
less <- samps - more
# calculate effect (less - more might be backwards of what you want
# but it's what the diff command did above for the original effect so
#we keep calculating in the same direction
sum(less) - sum(more)
})
# two sided p-value
sum(y < eff | y > -eff) / nsamp
Que el valor p es la probabilidad de que los datos que vienen con un efecto tan grande, o mayor, que el que te dio la hipótesis nula y una hipótesis de una muestra representativa (siempre implícita). Piense en ello como teniendo en cuenta lo que pasaría si el null era cierto. Las trampas sólo al azar de atrapar los insectos. Imagine usted atrapado como muchos insectos como lo hizo, en todas las ubicaciones y, a continuación, ver la forma en que la distribución aparece al azar a través de las trampas. Si el efecto que tenía era poco probable que ocurra cuando la nula era cierto, entonces llegamos a la conclusión de que el null no lo era.
Alternativamente, uno podría muestra la distribución de los efectos de sustitución. Al hacer esto uno puede arrancar un intervalo de confianza del efecto.
# get each separate effect
effs <- dat[,2] - dat[,1]
nsamp <- 1000
# bootstrap nsamp replications of your experiment
y <- replicate(nsamp, {
# randomly sample from the distribution of effects
effSamp <- sample(effs, replace = TRUE)
# get total sample effect
sum(effSamp)
})
# get y into order so we can get the distribution cutoffs
y <- sort(y)
# 95% CI
y[0.025 * nsamp]; y[0.975 * nsamp]