4 votos

¿Qué prueba estadística debe ser utilizado para evaluar la eficacia de algunos tratamientos?

Tenemos dos grupo de personas (una de las $n$ de la gente, el otro de $m$ personas) que ir a través de la misma experiencia de entretenimiento (piensen en un día en el parque de atracciones o algo así).

Un grupo recibe un tratamiento especial sobre el otro grupo en algún momento durante el día (una bebida gratis por ejemplo). Al final de la jornada, cada participante da una satisfacción grado (un entero) $X_1, \cdots, X_n, Y_1, \cdots, Y_m$ que los rangos de$0$$5$.

Nos gustaría saber si el tratamiento especial que afecta a la satisfacción general de la experiencia.

Supongo que tenemos que probar si el medio de la satisfacción de los dos grupos son iguales ? Prueba de lo que debe ser utilizado ?

3voto

BruceET Puntos 7117

Los datos falsos para la ilustración. Supongamos que hay $n = 40$ de los sujetos en el X-grupo e $m = 60$ en el eje del grupo, con los contados de satisfacción de los puntajes de la siguiente manera:

table(x)
x
 0  1  2  3  4  5 
 3  5 16  9  6  1 

table(y)
y
 0  1  2  3  4  5 
 4  5 12  3 20 16 

No paramétrica de clasificación basada en el test de Wilcoxon. A continuación, un 2 muestras de Wilcoxon rank sum test de $H_o: \eta_1 = \eta_2$ contra $H_a: \eta_1 \ne \eta_2.$ (a partir R de software estadístico) da resultados como sigue:

wilcox.test(x, y)

        Wilcoxon rank sum test with continuity correction

data:  x and y 
W = 737, p-value = 0.0008556
alternative hypothesis: true location shift is not equal to 0 

Así que para mi falsa de datos que hay una fuerte diferencia significativa en la dos de población significa.

Boxplots con muescas. Porque boxplots se basa, fundamentalmente, en el fin de estadísticas (válido para los datos ordinales), he dejado de lado a lado boxplots de los datos. El estilo se muestra aquí tiene 'muescas' en los lados de las cajas, que muestran no paramétrica los intervalos de confianza (ic) para los dos grupos de población en los camellones. A grandes rasgos estos CIs están calibrados para que no se superponen CIs indican un significativo la diferencia en las medianas. (Esto no es tan poderoso pruebas como el test de Wilcoxon, pero el efecto para el conjunto de datos actual es lo suficientemente fuerte como para mostrar la significación.)

enter image description here

Si esto es para un informe o para su publicación, puede ser útil para mostrar boxplots-mencionando los tamaños de muestra, pero posiblemente sin el CIs (que puede ser un poco técnico para un no-estadístico de la audiencia). Hay pocos efectivos gráfica muestra para datos categóricos, así que vale la pena destacar posibilidades.

Nota: Otra posible prueba sería hacer una $2 \times 6$ matriz de cuenta, con filas de la X y la y, los grupos y las columnas de opinión de las puntuaciones. Entonces hacer una prueba de chi-cuadrado de independencia. Me gustaría ilustrar esto, pero me ver que @Remy ha publicado simultáneamente una Respuesta (+1) a lo largo de esas líneas. Un hallazgo de asociación en lugar de la independencia podría ser todo lo que usted necesita, pero la prueba de Wilcoxon inherentemente sugiere la 'dirección' de el efecto.

Addendum (por solicitud en el Comentario). Aquí es R código que he usado para hacer el los datos falsos. Yo no establecer una semilla, por lo que cada ejecución de el código da una diferente conjunto de datos simulados. [Observe que los elementos de la prob argumento no tiene suma a la unidad; antes de su uso, R normaliza el vector de proporciones para obtener las probabilidades de sumar a $1.]$

x = sample(0:5, 40, rep=T, prob=c(1,2,3,3,2,1))
y = sample(0:5, 60, rep=T, prob=c(1,1,2,2,3,3))

2voto

John H Puntos 122

Ya que las opciones son enteros, esta es una escala de likert, por lo que los datos ordinales. Usted puede usar una Prueba de Chi-Cuadrado de Independencia para probar la hipótesis

$$H_0: p_{i0}= p_{0j} \text{ for all cells } (i,j)$$

$$H_a:\exists(i,j) \text{ such that } p_{i0} \neq p_{0j}$$

or more simply

$$H_0: \text{group and satisfaction level are independent}$$

$$H_a: \text{group and satisfaction level are associated}$$

We have

$$p_{i0}=\frac{n_{i0}}{n}, p_{0j}=\frac{n_{0j}}{n}$$

The assumption is that all of the expected cell counts $\geq 5$.

We have

$$X^2=∑_{all cells}\frac{(n_{ij}-E_{ij})^2}{E_{ij}}$$

where

$$E_{ij}=\frac{(n_{i0} n_{0j})}{n}$$

and

$$X^2\sim\chi_{(r-1)(c-1)}^2$$

El uso de Bruce falsos conjunto de datos, la prueba se puede ejecutar en R usando:

library(reshape)

df <- data.frame(Rating = c("0","1","2","3","4","5","0","1","2","3","4","5"),
                 Group= c("x","x","x","x","x","x","y","y","y","y","y","y"),
                 INTERACTIONS = c(3,5,16,9,6,1,4,5,12,3,20,16),
                 stringsAsFactors=FALSE)

df <- melt(df,id.vars=c("Rating","Group"))    
df <- cast(df,formula=Rating~Group)
df <- replace(df,is.na(df),0)

chisq.test(df)

que devuelve

Pearson's Chi-squared test

data:  df
X-squared = 21.342, df = 5, p-value = 0.0006981

así que tenemos una evidencia muy fuerte de que los dos grupos que tienen diferentes niveles de satisfacción.

2voto

BruceET Puntos 7117

Comentario. Una mirada más cercana a la prueba de chi-cuadrado:

Aquí es un poco como una manera simplificada para hacer la prueba de chi-cuadrado de independencia.

MAT = matrix(c(3,5,16,9,6,1,  4,5,12,3,20,16), byrow=T, nrow=2)
tst.inf = chisq.test(MAT);  tst.inf

        Pearson's Chi-squared test

data:  MAT 
X-squared = 21.3417, df = 5, p-value = 0.0006981

Warning message:
In chisq.test(MAT) : Chi-squared approximation may be incorrect

El mensaje de advertencia puede ser por cuenta de uno o más esperados cuenta que son "demasiado pequeños". El objeto tst.inf contiene más información de la que habitualmente se muestra. En particular, podemos mirar a la espera de cuenta:

tst.inf$exp
     [,1] [,2] [,3] [,4] [,5] [,6]
[1,]  2.8    4 11.2  4.8 10.4  6.8
[2,]  4.2    6 16.8  7.2 15.6 10.2

Vemos que las dos primeras columnas contienen indeseablemente pequeña espera de los condes. En vista de la muy pequeña P-valor no es probable un problema grave.

Si uno piensa que es un problema, hay dos "cura": (1) se Combinan los dos primeros niveles de respuesta para obtener una nueva matriz observada de cuenta y vuelva a ejecutar la prueba. (2) Que R simular el correcto valor de P para el original de los valores observados, en lugar de utilizar el test de la chi-cuadrado de aproximación; en efecto, este es una estructurado prueba de permutación basados en matrices con la correcta marginales. (1) Es la rutina; voy a mostrar (2):

chisq.test(MAT, sim=T)

    Pearson's Chi-squared test with simulated p-value (based
    on 2000 replicates)

data:  MAT 
X-squared = 21.3417, df = NA, p-value = 0.001499

La simulación de la P-valor es mayor que el cuestionable de arriba, pero es todavía muy por debajo de 0.05, por lo que el rechazo en el 5% (o incluso a nivel del 1%) se justifica.

i-Ciencias.com

I-Ciencias es una comunidad de estudiantes y amantes de la ciencia en la que puedes resolver tus problemas y dudas.
Puedes consultar las preguntas de otros usuarios, hacer tus propias preguntas o resolver las de los demás.

Powered by:

X