7 votos

La combinación de $\chi^{2}$ pruebas de

Tengo un problema con las estadísticas. Estoy mirando si la variación en la concentración de una determinada sustancia cómo afecta fuertemente los insectos son atraídos hacia ella. Hice esto por el hostigamiento de los insectos trampas con la sustancia, en diferentes concentraciones. Me extendió las trampas como pares con las trampas en el par tener diferentes concentraciones. Ahora, los datos que tengo parece un poco a esto:

More : Less
   6 : 0  
   1 : 0   
   3 : 1  
   1 : 0  
  15 : 3  

Lo que necesito hacer es mostrar que los insectos prefieren que las altas concentraciones de cebo.

La agrupación de los datos y el uso de $\chi^{2}$ es una opción, pero no sé si es la mejor opción. La interceptación se hizo en varios lugares durante un mes por lo que puede ser la perturbación de los factores implicados.

Gracias de antemano!

EDITAR: Eso es solo una pequeña parte de mis datos completos. En total tengo alrededor de 40 pares de valores para comparar, y alrededor de 300 de los insectos capturados. Que es sólo una pequeña, pero representativa de la porción.

6voto

Si las trampas se consideran independientes, a continuación, no se trata de una variación en $\chi^2$ prueba, es solo uno. Pero debido a que son utilizados en pares, y por lo tanto no es independiente, entonces lo que estás buscando sería una variación en una prueba de McNemar test. Por desgracia, cualquier modificación de la prueba por más de una matriz de 2x2 todavía sufren porque tienen pequeñas cantidades de elementos en la inferior de la columna.

Su efecto es tan fuerte que yo estaría tentado a acaba de informar de los datos. Qué tiene de malo eso? Cuando los datos son muy fuertes y hay poco o ningún ruido en el efecto entonces es difícil ver por qué no simplemente se informe de lo que se encuentra y el estado como un hecho. Las estadísticas no son tan poderosos como pensar y no hacer realidad esta convincente de datos de la historia mejor. Tengo miedo de que acababa de ser utilizado para ocultar el pequeño de la muestra problema.

Si usted realmente desea una probabilidad, entonces remuestreo es probablemente su mejor apuesta aquí. Puede realizar una permutación o la aleatorización de la prueba. Calcular la diferencia de medias entre el Más y el Menos condiciones. Entonces la lucha de las muestras de forma aleatoria, manteniendo su vinculación, y calcular las nuevas diferencias de medias. Hacer eso en un equipo que miles de veces y averiguar dónde está la diferencia se encuentra cae en la distribución de las diferencias en las muestras. La probabilidad de un efecto grande o más grande será su p-valor para el informe.

Aquí un poco de la base de R que hace.

dat <- matrix(c(6, 1, 3, 1, 15, 0, 0, 1, 0, 3), ncol = 2)
n <- nrow(dat)
eff <- diff( colSums(dat) )
samps <- rowSums(dat)
nsamp <- 5000

# bootstrap nsamp replications of your experiment
y <- replicate(nsamp, {
    # get a random amount for each location and put it in the more trap
    more <- sapply(1:n, function(i) {sample(samps[i]+1, 1) - 1})
    # of course, the rest is in the less trap
    less <- samps - more
    # calculate effect (less - more might be backwards of what you want 
    # but it's what the diff command did above for the original effect so 
    #we keep calculating in the same direction
    sum(less) - sum(more)
    })
# two sided p-value
sum(y < eff | y > -eff) / nsamp

Que el valor p es la probabilidad de que los datos que vienen con un efecto tan grande, o mayor, que el que te dio la hipótesis nula y una hipótesis de una muestra representativa (siempre implícita). Piense en ello como teniendo en cuenta lo que pasaría si el null era cierto. Las trampas sólo al azar de atrapar los insectos. Imagine usted atrapado como muchos insectos como lo hizo, en todas las ubicaciones y, a continuación, ver la forma en que la distribución aparece al azar a través de las trampas. Si el efecto que tenía era poco probable que ocurra cuando la nula era cierto, entonces llegamos a la conclusión de que el null no lo era.

Alternativamente, uno podría muestra la distribución de los efectos de sustitución. Al hacer esto uno puede arrancar un intervalo de confianza del efecto.

# get each separate effect
effs <- dat[,2] - dat[,1] 
nsamp <- 1000    
# bootstrap nsamp replications of your experiment
y <- replicate(nsamp, {
    # randomly sample from the distribution of effects
    effSamp <- sample(effs, replace = TRUE)
    # get total sample effect
    sum(effSamp)
    })
    # get y into order so we can get the distribution cutoffs
y <- sort(y)
# 95% CI
y[0.025 * nsamp]; y[0.975 * nsamp]

1voto

StasK Puntos 19497

Uno de uber robusto y ultra-conservador enfoque sería no-paramétrico de rango firmada o pares signo de pruebas. En la primera prueba, asumir distribuciones idénticas de dos grupos; en el segundo, se puede incorporar de manera explícita el acoplamiento de las dos distribuciones.

. signrank trapped0 = trapped1

Wilcoxon signed-rank test

        sign |      obs   sum ranks    expected
-------------+---------------------------------
    positive |        0           0         7.5
    negative |        5          15         7.5
        zero |        0           0           0
-------------+---------------------------------
         all |        5          15          15

unadjusted variance       13.75
adjustment for ties       -0.13
adjustment for zeros       0.00
                     ----------
adjusted variance         13.63

Ho: trapped0 = trapped1
             z =  -2.032
    Prob > |z| =   0.0422

. signtest trapped0 = trapped1

Sign test

        sign |    observed    expected
-------------+------------------------
    positive |           0         2.5
    negative |           5         2.5
        zero |           0           0
-------------+------------------------
         all |           5           5

One-sided tests:
  Ho: median of trapped0 - trapped1 = 0 vs.
  Ha: median of trapped0 - trapped1 > 0
      Pr(#positive >= 0) =
         Binomial(n = 5, x >= 0, p = 0.5) =  1.0000

  Ho: median of trapped0 - trapped1 = 0 vs.
  Ha: median of trapped0 - trapped1 < 0
      Pr(#negative >= 5) =
         Binomial(n = 5, x >= 5, p = 0.5) =  0.0313

Two-sided test:
  Ho: median of trapped0 - trapped1 = 0 vs.
  Ha: median of trapped0 - trapped1 != 0
      Pr(#positive >= 5 or #negative >= 5) =
         min(1, 2*Binomial(n = 5, x >= 5, p = 0.5)) =  0.0625

Básicamente, estas pruebas dicen que cinco diferencias sólo ocurren a caer en el mismo lado (el aumento de los recuentos para la "Más" condición 1:2^5 = 1:32 probabilidad si el nula de no diferencias eran verdaderas. Sin embargo, estas pruebas no tienen mucho poder con el tamaño de muestra de 5, y usted puede obtener mejores resultados haciendo más fuerte supuestos.

Puesto que usted está tratando con que cuenta, de una herramienta adecuada para su problema será un modelo lineal generalizado, a saber, el modelo de Poisson para la cuenta. Denotando los sitios como block, y las condiciones como treat, estoy consiguiendo

Poisson regression                                Number of obs   =         10
                                                  LR chi2(5)      =      47.17
                                                  Prob > chi2     =     0.0000
Log likelihood =  -11.51985                       Pseudo R2       =     0.6718

------------------------------------------------------------------------------
     trapped |        IRR   Std. Err.      z    P>|z|     [95% Conf. Interval]
-------------+----------------------------------------------------------------
       block |
          2  |   .1666667   .1800206    -1.66   0.097     .0200653    1.384368
          3  |   .6666667   .4303315    -0.63   0.530     .1881311    2.362419
          4  |   .1666667   .1800206    -1.66   0.097     .0200653    1.384368
          5  |          3   1.414214     2.33   0.020     1.190861    7.557558
             |
     1.treat |        6.5    3.49106     3.49   0.000     2.268531    18.62438
       _cons |         .8   .4953114    -0.36   0.719     .2377266    2.692168
------------------------------------------------------------------------------

Es decir, el "Más" condición atrae, en promedio, más de 6.5 insectos que hace el "Menos" condición, con un intervalo de confianza [2.27 x, 18.62 x]. El p-valor es mucho más fuerte que el de una prueba no paramétrica con p = 0.0005.

Stata código:

clear
input trapped block treat
6 1 1
0 1 0
1 2 1
0 2 0
3 3 1
1 3 0
1 4 1
0 4 0
15 5 1
3 5 0
end
poisson trapped i.block i.treat, irr
testparm i.treat
reshape wide trapped, i(block) j(treat)
signrank trapped0 = trapped1
signtest trapped0 = trapped1

i-Ciencias.com

I-Ciencias es una comunidad de estudiantes y amantes de la ciencia en la que puedes resolver tus problemas y dudas.
Puedes consultar las preguntas de otros usuarios, hacer tus propias preguntas o resolver las de los demás.

Powered by:

X