43 votos

¿Cuál es la diferencia entre la prueba de McNemar y la prueba de chi-cuadrado, y cómo saber cuándo utilizar cada una?

He intentado leer en diferentes fuentes, pero sigo sin tener claro qué prueba sería la adecuada en mi caso. Hay tres preguntas diferentes que me hago sobre mi conjunto de datos:

  1. Los sujetos se someten a pruebas de infecciones de X en diferentes momentos. Quiero saber si la proporción de positivos por X después está relacionada con la proporción de positivos por X antes:

                 After   
               |no  |yes|
    Before|No  |1157|35 |
          |Yes |220 |13 |
    
    results of chi-squared test: 
    Chi^2 =  4.183     d.f. =  1     p =  0.04082 
    
    results of McNemar's test: 
    Chi^2 =  134.2     d.f. =  1     p =  4.901e-31

    Según tengo entendido, como los datos son de medidas repetidas, debo utilizar la prueba de McNemar, que comprueba si la proporción de positivos para X ha cambiado.

    Pero mis preguntas parecen necesitar la prueba de chi-cuadrado - probar si la proporción de positivos para X después está relacionada con la proporción de positivos para X antes.

    Ni siquiera estoy seguro de entender correctamente la diferencia entre la prueba de McNemar y la chi-cuadrado. ¿Cuál sería la prueba correcta si mi pregunta fuera: "La proporción de sujetos infectados con X después es diferente a la de antes"?

  2. Un caso similar, pero en el que en lugar de un antes y un después, mido dos infecciones diferentes en un momento dado:

            Y   
          |no  |yes|
    X|No  |1157|35 |
     |Yes |220 |13 |

    ¿Qué prueba sería la correcta en este caso si la pregunta es "¿se relacionan las proporciones más altas de una infección con las proporciones más altas de Y?

  3. Si mi pregunta fuera: "¿La infección Y en el momento t2 está relacionada con la infección X en el momento t1?", ¿qué prueba sería la adecuada?

                  Y at t2   
                |no  |yes|
    X at t1|No  |1157|35 |
           |Yes |220 |13 |

Estaba utilizando la prueba de McNemar en todos estos casos, pero tengo mis dudas de que sea la prueba adecuada para responder a mis preguntas. Estoy utilizando R. ¿Podría utilizar una prueba binomial glm en su lugar? ¿Sería esto análogo a la prueba de chi-cuadrado?

1 votos

¿Intentaste leer stats.stackexchange.com/questions/tagged/mcnemar-test temas aquí sobre la prueba Mcnemar?

0 votos

¿Qué quiere decir con "relación entre dos probabilidades"?

0 votos

@ttnphns Los repasé, pero no pude reformularlo a mi pregunta. Después de pensar más, parece que puedo responder a dos preguntas basándome en la Q1:La Chi-sq me diría si la proporción de +ve X después está relacionada con la proporción de +ve X antes mientras que la de Mcnemar me diría si ha habido un cambio en las proporciones. ¿Estoy en lo cierto?

60voto

Sean Hanley Puntos 2428

Es muy lamentable que Prueba de McNemar es tan difícil de entender para la gente. Incluso me he dado cuenta de que en la parte superior de su página de Wikipedia se dice que la explicación de la página es difícil de entender para la gente. La típica explicación breve de la prueba de McNemar es que es "una prueba de chi-cuadrado dentro de los sujetos", o que es "una prueba de la homogeneidad marginal de una tabla de contingencia". No me parece que ninguna de las dos cosas sea muy útil. En primer lugar, no está claro lo que se quiere decir con "chi-cuadrado dentro de los sujetos", porque siempre se miden los sujetos dos veces (una vez en cada variable) y se intenta determinar la relación entre esas variables. Además, "homogeneidad marginal" es apenas inteligible (sé lo que significa y me cuesta pasar de las palabras al significado). (Trágicamente, incluso esta respuesta puede ser confusa. Si lo es, tal vez le ayude leer mi segundo intento abajo).

Vamos a ver si podemos trabajar a través de un proceso de razonamiento sobre su ejemplo superior para ver si podemos entender si (y si es así, por qué) la prueba de McNemar es apropiada. Usted ha puesto:

enter image description here

Esta es una tabla de contingencia, por lo que connota un análisis de chi-cuadrado. Además, se quiere entender la relación entre ${\rm Before}$ y ${\rm After}$ y la prueba de chi-cuadrado comprueba una relación entre las variables, por lo que a primera vista parece que la prueba de chi-cuadrado debe ser el análisis que responde a su pregunta.

Sin embargo, cabe señalar que también podemos presentar estos datos así:

enter image description here

Cuando se observan los datos de esta manera, se puede pensar que se puede hacer un $t$ -prueba. Pero un $t$ -la prueba no es del todo correcta. Hay dos problemas: En primer lugar, porque cada fila enumera los datos medidos del mismo sujeto, no querríamos hacer una prueba entre sujetos $t$ -de la prueba, querríamos hacer una prueba dentro de los sujetos $t$ -prueba. En segundo lugar, dado que estos datos se distribuyen como un binomio la varianza es una función de la media. Esto significa que no hay ninguna incertidumbre adicional de la que preocuparse una vez que se ha estimado la media de la muestra (es decir, no hay que estimar posteriormente la varianza), por lo que no hay que referirse a la $t$ puede utilizar la función $z$ distribución. (Para más información sobre esto, puede ser útil leer mi respuesta aquí: El $z$ -prueba contra el $\chi^2$ prueba .) Por lo tanto, necesitaríamos un $z$ -prueba. Es decir, necesitamos una prueba de igualdad de proporciones dentro de los sujetos.

Hemos visto que hay dos formas diferentes de pensar y analizar estos datos (provocados por dos formas diferentes de ver los datos). Así que tenemos que decidir qué forma debemos utilizar. La prueba de chi-cuadrado evalúa si ${\rm Before}$ y ${\rm After}$ son independientes. Es decir, ¿es más probable que las personas que estaban enfermas de antemano lo estén después que las que nunca lo han estado? Es extremadamente difícil ver cómo no sería el caso dado que estas medidas se evalúan en los mismos sujetos. Si se obtuviera un resultado no significativo (como casi ocurre), se trataría simplemente de un error de tipo II. En lugar de si ${\rm Before}$ y ${\rm After}$ son independientes, es casi seguro que se quiere saber si el tratamiento funciona (una pregunta que la chi-cuadrado no responde). Esto es muy similar a cualquier número de estudios de tratamiento frente a control en los que se quiere ver si las medias son iguales, excepto que en este caso las mediciones son sí/no y están dentro de los sujetos. Considere un estudio más típico $t$ -situación de prueba con medición de la presión arterial antes y después de algún tratamiento. Aquellos cuya pb estaba por encima de la media de la muestra antes, tenderán casi con toda seguridad a estar entre las pb más altas después, pero usted no quiere saber la consistencia de las clasificaciones, quiere saber si el tratamiento provocó un cambio en la pb media. Su situación aquí es directamente análoga. En concreto, desea ejecutar una prueba dentro de los sujetos $z$ -prueba de igualdad de proporciones. En eso consiste la prueba de McNemar.

Entonces, una vez que nos hemos dado cuenta de que queremos realizar la prueba de McNemar, ¿cómo funciona? Ejecutando una prueba entre sujetos $z$ -La prueba es fácil, pero ¿cómo se ejecuta una versión dentro de los sujetos? La clave para entender cómo hacer una prueba de proporciones dentro de un sujeto es examinar la tabla de contingencia, que descompone las proporciones:
\begin{array}{rrrrrr} & &{\rm After} & & & \\ & &{\rm No} &{\rm Yes} & &{\rm total} \\ {\rm Before}&{\rm No} &1157 &35 & &1192 \\ &{\rm Yes} &220 &13 & &233 \\ & & & & & \\ &{\rm total} &1377 &48 & &1425 \\ \end{array} Evidentemente, el ${\rm Before}$ son los totales de las filas divididos por el total general, y las ${\rm After}$ Las proporciones son los totales de las columnas divididos por el total general. Si observamos la tabla de contingencia podemos ver que son, por ejemplo:
$$ \text{Before proportion yes} = \frac{220 + 13}{1425},\quad\quad \text{After proportion yes} = \frac{35 + 13}{1425} $$ Lo que es interesante señalar aquí es que $13$ las observaciones eran sí antes y después. Acaban formando parte de ambas proporciones, pero al estar en ambos cálculos no añaden ninguna información distinta sobre el cambio en la proporción de síes. Además, se cuentan dos veces, lo que no es válido. Del mismo modo, el total general aparece en ambos cálculos y no añade ninguna información distinta. Al descomponer las proporciones podemos reconocer que la única información distinta sobre las proporciones de síes antes y después existe en el $220$ y $35$ Así que esos son los números que tenemos que analizar. Esta fue la visión de McNemar. Además, se dio cuenta de que bajo el nulo, esta es una prueba binomial de $220/(220 + 35)$ frente a una proporción nula de $.5$ . (Existe una formulación equivalente que se distribuye como un chi-cuadrado, que es lo que R salidas).

Hay otra discusión sobre la prueba de McNemar, con extensiones a tablas de contingencia más grandes que 2x2, ici .


Aquí hay un R demostración con sus datos:

mat = as.table(rbind(c(1157, 35), 
                     c( 220, 13) ))
colnames(mat) <- rownames(mat) <- c("No", "Yes")
names(dimnames(mat)) = c("Before", "After")
mat
margin.table(mat, 1)
margin.table(mat, 2)
sum(mat)

mcnemar.test(mat, correct=FALSE)
#  McNemar's Chi-squared test
# 
# data:  mat
# McNemar's chi-squared = 134.2157, df = 1, p-value < 2.2e-16
binom.test(c(220, 35), p=0.5)
#  Exact binomial test
# 
# data:  c(220, 35)
# number of successes = 220, number of trials = 255, p-value < 2.2e-16
# alternative hypothesis: true probability of success is not equal to 0.5
# 95 percent confidence interval:
#  0.8143138 0.9024996
# sample estimates:
# probability of success 
#              0.8627451 

Si no tuviéramos en cuenta la naturaleza intra-sujeto de sus datos, tendríamos una prueba de igualdad de proporciones algo menos potente:

prop.test(rbind(margin.table(mat, 1), margin.table(mat, 2)), correct=FALSE)
#  2-sample test for equality of proportions without continuity
#  correction
# 
# data:  rbind(margin.table(mat, 1), margin.table(mat, 2))
# X-squared = 135.1195, df = 1, p-value < 2.2e-16
# alternative hypothesis: two.sided
# 95 percent confidence interval:
#  0.1084598 0.1511894
# sample estimates:
#    prop 1    prop 2 
# 0.9663158 0.8364912 

Eso es, X-squared = 133.6627 en lugar de chi-squared = 134.2157 . En este caso, se diferencian muy poco, porque tienes muchos datos y sólo $13$ Los casos se superponen como se ha comentado anteriormente. (Otro problema, y más importante, aquí es que esto cuenta sus datos dos veces, es decir, $N = 2850$ en lugar de $N = 1425$ .)


Aquí están las respuestas a sus preguntas concretas:

  1. El análisis correcto es la prueba de McNemar (como ya se ha comentado ampliamente).
  2. Esta versión es más complicada, y la frase "las proporciones más altas de una infección se relacionan con proporciones más altas de Y" es ambigua. Hay dos preguntas posibles:

    • Es perfectamente razonable querer saber si los pacientes que contraen una de las infecciones tienden a contraer la otra, en cuyo caso se utilizaría la prueba de independencia chi-cuadrado. Esta pregunta se refiere a si la susceptibilidad a las dos infecciones diferentes es independiente (quizás porque se contraen por vías fisiológicas diferentes) o no (quizás se contraen debido a un sistema inmunitario generalmente debilitado).
    • También es perfectamente razonable qué saber si la misma proporción de pacientes tiende a contraer ambas infecciones, en cuyo caso se utilizaría la prueba de McNemar. La cuestión aquí es si las infecciones son igualmente virulentas.
  3. Como se trata de nuevo de la misma infección, por supuesto que estarán relacionados. Deduzco que esta versión no es antes y después de un tratamiento, sino en algún momento posterior. Por lo tanto, usted está preguntando si las tasas de infección de fondo están cambiando orgánicamente, que es de nuevo una pregunta perfectamente razonable. En cualquier caso, el análisis correcto es la prueba de McNemar.
    Editar: Parece que he interpretado mal su tercera pregunta, quizás debido a un error tipográfico. Ahora lo interpreto como dos infecciones diferentes en dos momentos distintos. Según esta interpretación, la prueba de chi-cuadrado sería apropiada.

0 votos

@Alexis Por lo que veo, tú y gung parece que estáis hablando más de la cuenta. Incluso la llamada prueba t "no pareada" o de "muestras independientes", o el ANOVA de "una vía" o de "muestras independientes", requiere en realidad datos pareados en el sentido de gung: para cada sujeto, hay que registrar tanto a variable categórica de pertenencia al grupo y un variable de resultado continua . (Si la variable de pertenencia a un grupo tiene dos niveles, solemos utilizar la prueba t no emparejada; para más de 3 niveles se necesita un ANOVA de una vía).

2 votos

Cuando explico qué prueba utilizar, muestro ambas formas de verlo: si tienes observaciones de una variable continua, una por cada sujeto, y los sujetos proceden de 2 (o 3+) grupos y estás interesado en las diferencias entre grupos, entonces utiliza la prueba t de muestras independientes (o ANOVA de una vía). A continuación, confirme su elección observando su tabla de datos: ¿tiene, para cada sujeto, dos piezas de información: la categoría de pertenencia al grupo y la variable continua. Incluso podemos dar la vuelta a las cosas y decir que la prueba t es una especie de prueba de asociación entre la variable binaria y la continua.

2 votos

La prueba t emparejada (o ANOVA de muestras correlacionadas) se utiliza si, para cada sujeto, se tienen dos (o 3+) lecturas continuas, tomadas en condiciones diferentes, y se desea comprobar las diferencias entre las condiciones. Esto es "emparejado" en un sentido diferente. Pero en esta pregunta, tenemos dos variables categóricas registrado para cada sujeto. Observando la tabla de datos, los valores registrados de esas variables categóricas deben venir en pares. Pero esta no lo hace significa que el propio diseño del estudio está emparejado. Esto es confuso (como señala Gung). Pero si conoce el diseño de su estudio, esto puede resolverlo (como señala alexis)

30voto

Sean Hanley Puntos 2428

Bueno, parece que he hecho un lío con esto. Voy a tratar de explicar esto de nuevo, de una manera diferente y vamos a ver si puede ayudar a aclarar las cosas.

La forma tradicional de explicar la prueba de McNemar frente a la prueba de chi-cuadrado es preguntar si los datos están "emparejados" y recomendar la prueba de McNemar si los datos están emparejados y la prueba de chi-cuadrado si los datos están "no emparejados". He descubierto que esto lleva a mucha confusión (¡este hilo es un ejemplo!). En lugar de esto, he descubierto que es más útil centrarse en la pregunta que está tratando de hacer y utilizar la prueba que corresponda a su pregunta. Para concretar esto, veamos un escenario inventado:

Si te paseas por un congreso de estadística, anota en un cuaderno de bitácora si el estadístico es de Estados Unidos o del Reino Unido. También anotas si tienen la presión arterial alta o normal.

Aquí están los datos:

mat = as.table(rbind(c(195,   5),
                     c(  5, 195) ))
colnames(mat)        = c("US", "UK")
rownames(mat)        = c("Hi", "Normal")
names(dimnames(mat)) = c("BP", "Nationality")
mat
#         Nationality
# BP        US  UK
#   Hi     195   5
#   Normal   5 195

En este punto, es importante averiguar qué pregunta queremos hacer con nuestros datos. Hay tres preguntas diferentes que podríamos hacer aquí:

  1. Podríamos querer saber si las variables categóricas BP y Nationality están asociados o son independientes;
  2. Podríamos preguntarnos si la hipertensión es más común entre los estadísticos estadounidenses que entre los británicos;
  3. Por último, podríamos preguntarnos si la proporción de estadísticos con presión alta es igual a la proporción de estadísticos estadounidenses con los que hablamos. Esto se refiere a las proporciones marginales de la tabla. Éstas no se imprimen por defecto en R, pero podemos obtenerlas así (nótese que, en este caso, son exactamente iguales):

    margin.table(mat, 1)/sum(mat)
    # BP
    #    Hi Normal 
    #   0.5    0.5 
    margin.table(mat, 2)/sum(mat)
    # Nationality
    #  US  UK 
    # 0.5 0.5 

Como ya he dicho, el enfoque tradicional, que se discute en muchos libros de texto, es determinar qué prueba utilizar en función de si los datos están "emparejados" o no. Pero esto es muy confuso, ¿esta tabla de contingencia está "emparejada"? Si comparamos la proporción con presión arterial alta entre los estadísticos de EE.UU. y del Reino Unido, estás comparando dos proporciones (aunque de la misma variable) medidas en diferentes conjuntos de personas. Por otro lado, si se quiere comparar la proporción con presión arterial alta con la proporción de EE.UU., se están comparando dos proporciones (aunque de diferentes variables) medidas en el mismo conjunto de personas. Estos datos son ambos "emparejado" y "no emparejado" al mismo tiempo (aunque con respecto a diferentes aspectos de los datos). Esto lleva a la confusión. Para tratar de evitar esta confusión, sostengo que se debe pensar en términos de qué pregunta se está haciendo. En concreto, si se quiere saber

  1. Si las variables son independientes: utilice la prueba de chi-cuadrado.
  2. Si la proporción de hipertensos difiere según la nacionalidad: utilice la prueba z de diferencia de proporciones.
  3. Si las proporciones marginales son iguales: utilice la prueba de McNemar.

Puede que alguien no esté de acuerdo conmigo en este punto, argumentando que, como la tabla de contingencia no está "emparejada", no se puede utilizar la prueba de McNemar para comprobar la igualdad de las proporciones marginales y que, en su lugar, se debería utilizar la prueba de chi-cuadrado. Dado que éste es el punto de controversia, probemos ambos para ver si los resultados tienen sentido:

chisq.test(mat)
#  Pearson's Chi-squared test with Yates' continuity correction
# 
# data:  mat
# X-squared = 357.21, df = 1, p-value < 2.2e-16
mcnemar.test(mat)
#  McNemar's Chi-squared test
# 
# data:  mat
# McNemar's chi-squared = 0, df = 1, p-value = 1

La prueba de chi-cuadrado arroja un valor p de aproximadamente 0. Es decir, dice que la probabilidad de obtener datos tan lejos o más de proporciones marginales iguales, si las proporciones marginales fueran realmente iguales es esencialmente 0. Pero las proporciones marginales son exactamente las mismas, $50\%=50\%$ como hemos visto anteriormente. Los resultados de la prueba de chi-cuadrado no tienen ningún sentido a la luz de los datos. Por otro lado, la prueba de McNemar arroja un valor p de 1. Es decir, dice que tendrá un 100% de posibilidades de encontrar proporciones marginales tan cercanas a la igualdad o más alejadas de ella, si las verdaderas proporciones marginales son iguales. Dado que las proporciones marginales observadas no pueden estar más cerca de la igualdad de lo que están, este resultado tiene sentido.

Probemos con otro ejemplo:

mat2 = as.table(rbind(c(195, 195),
                      c(  5,   5) ))
colnames(mat2)        = c("US", "UK")
rownames(mat2)        = c("Hi", "Normal")
names(dimnames(mat2)) = c("BP", "Nationality")
mat2
#         Nationality
# BP        US  UK
#   Hi     195 195
#   Normal   5   5
margin.table(mat2, 1)/sum(mat2)
# BP
#     Hi Normal 
#  0.975  0.025 
margin.table(mat2, 2)/sum(mat2)
# Nationality
#  US  UK 
# 0.5 0.5 

En este caso, las proporciones marginales son muy diferentes, $97.5\%\gg 50\%$ . Probemos de nuevo las dos pruebas para ver cómo se comparan sus resultados con la gran diferencia observada en las proporciones marginales:

chisq.test(mat2)
#  Pearson's Chi-squared test
# 
# data:  mat2
# X-squared = 0, df = 1, p-value = 1
mcnemar.test(mat2)
#  McNemar's Chi-squared test with continuity correction
# 
# data:  mat2
# McNemar's chi-squared = 178.605, df = 1, p-value < 2.2e-16

Esta vez, la prueba de chi-cuadrado da un valor p de 1, lo que significa que las proporciones marginales son tan iguales como pueden serlo. Pero hemos visto que las proporciones marginales no son obviamente iguales, así que este resultado no tiene ningún sentido a la luz de nuestros datos. Por otra parte, la prueba de McNemar arroja un valor p de aproximadamente 0. En otras palabras, es extremadamente improbable obtener datos con proporciones marginales tan alejadas de la igualdad como éstas, si realmente son iguales en la población. Dado que nuestras proporciones marginales observadas están lejos de ser iguales, este resultado tiene sentido.

El hecho de que la prueba de chi-cuadrado arroje resultados que no tienen sentido teniendo en cuenta nuestros datos sugiere que hay algo incorrecto en el uso de la prueba de chi-cuadrado en este caso. Por supuesto, el hecho de que la prueba de McNemar proporcionara resultados sensatos no demuestra que sea válida, puede que sólo haya sido una coincidencia, pero la prueba de chi-cuadrado es claramente errónea.

Veamos si podemos elaborar el argumento de por qué la prueba de McNemar podría ser la correcta. Utilizaré un tercer conjunto de datos:

mat3 = as.table(rbind(c(190,  15),
                      c( 60, 135) ))
colnames(mat3)        = c("US", "UK")
rownames(mat3)        = c("Hi", "Normal")
names(dimnames(mat3)) = c("BP", "Nationality")
mat3
#         Nationality
# BP        US  UK
#   Hi     190  15
#   Normal  60 135
margin.table(mat3, 1)/sum(mat3)
# BP
#     Hi Normal 
# 0.5125 0.4875 
margin.table(mat3, 2)/sum(mat3)
# Nationality
#    US    UK 
# 0.625 0.375 

Esta vez queremos comparar $51.25\%$ a $62.5\%$ y preguntarse si en la población las verdaderas proporciones marginales podrían haber sido las mismas. Como estamos comparando dos proporciones, la opción más intuitiva sería utilizar una prueba z para la igualdad de dos proporciones. Podemos probarlo aquí:

prop.test(x=c(205, 250), n=c(400, 400))
#  2-sample test for equality of proportions with continuity correction
# 
# data:  c(205, 250) out of c(400, 400)
# X-squared = 9.8665, df = 1, p-value = 0.001683
# alternative hypothesis: two.sided
# 95 percent confidence interval:
#   -0.18319286 -0.04180714
# sample estimates:
# prop 1 prop 2 
# 0.5125 0.6250 

(Para utilizar prop.test() para probar las proporciones marginales, tuve que introducir manualmente el número de "éxitos" y el número total de "ensayos", pero en la última línea de la salida se puede ver que las proporciones son correctas). Esto sugiere que es poco probable que las proporciones marginales se alejen tanto de la igualdad si fueran realmente iguales, dada la cantidad de datos que tenemos.

¿Es válida esta prueba? Hay dos problemas aquí: La prueba cree que tenemos 800 datos, cuando en realidad sólo tenemos 400. Esta prueba tampoco tiene en cuenta que estas dos proporciones no son independientes, en el sentido de que fueron medidas en las mismas personas.

Veamos si podemos desmontar esto y encontrar otra forma. De la tabla de contingencia, podemos ver que las proporciones marginales son:
$$ \text{% high BP: }\frac{190 + 15}{400} \qquad\qquad\qquad \text{% US: }\frac{190 + 60}{400} $$ Lo que vemos aquí es que el $190$ Los estadísticos estadounidenses con presión arterial alta aparecen en ambas proporciones marginales. Ambos se cuentan dos veces y no aportan ninguna información sobre las diferencias en las proporciones marginales. Además, el $400$ total aparece también en ambos denominadores. Toda la información única y distintiva está en los dos recuentos de celdas fuera de la diagonal ( $15$ y $60$ ). El hecho de que las proporciones marginales sean iguales o diferentes se debe únicamente a ellas. El hecho de que una observación tenga la misma probabilidad de caer en cualquiera de esas dos casillas se distribuye como una binomial con probabilidad $\pi = .5$ bajo el nulo. Esa fue la idea de McNemar. De hecho, la prueba de McNemar es esencialmente una prueba binomial de si las observaciones tienen la misma probabilidad de caer en esas dos celdas:

binom.test(x=15, n=(15+60))
#  Exact binomial test
# 
# data:  15 and (15 + 60)
# number of successes = 15, number of trials = 75, p-value = 1.588e-07
# alternative hypothesis: true probability of success is not equal to 0.5
# 95 percent confidence interval:
#   0.1164821 0.3083261
# sample estimates:
# probability of success 
#                    0.2 

En esta versión, sólo se utilizan las observaciones informativas y no se cuentan dos veces. El valor p aquí es mucho menor, 0,0000001588, lo que suele ocurrir cuando se tiene en cuenta la dependencia de los datos. Es decir, esta prueba es más potente que la prueba z de diferencia de proporciones. Podemos ver además que la versión anterior es esencialmente la misma que la prueba de McNemar:

mcnemar.test(mat3, correct=FALSE)
#  McNemar's Chi-squared test
# 
# data:  mat3
# McNemar's chi-squared = 27, df = 1, p-value = 2.035e-07

Si la no-identidad es confusa, la prueba de McNemar típicamente, y en R, eleva el resultado al cuadrado y lo compara con la distribución chi-cuadrado, que no es una prueba exacta como la binomial anterior:

(15-60)^2/(15+60)
# [1] 27
1-pchisq(27, df=1)
# [1] 2.034555e-07

Así, cuando se quiere comprobar que las proporciones marginales de una tabla de contingencia son iguales, la prueba de McNemar (o la prueba binomial exacta calculada manualmente) es correcta. Utiliza sólo la información relevante sin utilizar ilegalmente ningún dato dos veces. No da por casualidad resultados que tengan sentido para los datos.

Sigo creyendo que intentar averiguar si una tabla de contingencia está "emparejada" no es útil. Sugiero que se utilice la prueba que coincida con la pregunta que se hace a los datos.

1 votos

Tienes mi voto. :)

1 votos

"Los resultados de la prueba de chi-cuadrado no tienen ningún sentido a la luz de los datos". En realidad los resultados tienen mucho sentido a la luz de los datos, si tienes en cuenta que en las pruebas de chi-cuadrado la independencia un valor p de 1 es lo esperado al ver el segundo ejemplo. Científicamente, en tu ejemplo es menos interesante saber si las proporciones marginales son iguales frente a saber que las variables son independientes.

0 votos

Deberías releer la respuesta. Los datos son exactamente 50-50. Utilizas una prueba de chi-cuadrado para ver si los datos son 50-50 y obtienes p=0. Eso no tiene ningún sentido. El problema es que la prueba de chi-cuadrado no evalúa las proporciones marginales.

14voto

GenericTypeTea Puntos 27689

La cuestión de qué prueba utilizar, tabla de contingencia $\chi^{2}$ frente a la de McNemar $\chi^{2}$ de una hipótesis nula de no asociación entre dos variables binarias es es simplemente una cuestión de si sus datos son emparejados/dependientes, o no emparejados/independientes:

Datos binarios en dos muestras independientes
En este caso, se utilizaría una tabla de contingencia $\chi^{2}$ prueba.

Por ejemplo, se puede tener una muestra de 20 estadísticos de los Estados Unidos, y otra independiente muestra de 37 estadísticos del Reino Unido, y tiene una medida de si estos estadísticos son hipertensos o normotensos. Su hipótesis nula es que tanto los estadísticos del Reino Unido como los de EE.UU. tienen la misma probabilidad subyacente de ser hipertensos (es decir, que saber si uno es de EE.UU. o del Reino Unido no dice nada sobre la probabilidad de ser hipertenso). Por supuesto, es posible que tenga el mismo tamaño de muestra en cada grupo, pero eso no cambia el hecho de que las muestras sean independientes (es decir no emparejado ).

Datos binarios en muestras pareadas
En este caso se utilizaría el método de McNemar $\chi^{2}$ prueba.

Por ejemplo, puede tener individualmente emparejados datos de un estudio de casos y controles extraídos de una conferencia internacional de estadísticos, en la que 30 estadísticos con hipertensos (casos) y 30 estadísticos sin hipertensión (controles; que son emparejados individualmente por edad, sexo, IMC y condición de fumador con los casos particulares), son evaluados retrospectivamente para la residencia profesional en el Reino Unido frente a la residencia en otro lugar. La hipótesis nula es que la probabilidad de residir en el Reino Unido entre los casos es la misma que la probabilidad de residir en el Reino Unido entre los controles (es decir, que el conocimiento del estado de hipertensión no dice nada sobre el historial de residencia en el Reino Unido).

De hecho, la prueba de McNemar analiza pares de datos . En concreto, analiza los pares discordantes. Así, el $r$ y $s$ de $\chi^{2}=\frac{[(rs)1]^{2}}{(r+s)}$ son recuento de pares discordantes .

Anto, en tu ejemplo, tus datos son emparejado (misma variable medida dos veces en el mismo sujeto) y, por lo tanto, la prueba de McNemar es la elección adecuada para la asociación.

[Gung y yo discrepamos durante un tiempo sobre una respuesta anterior].

Referencias citadas
"Suponiendo que todavía estamos interesados en comparar las proporciones, ¿qué podemos hacer si nuestros datos están emparejados, en lugar de ser independientes? ... En esta situación, utilizamos la prueba de McNemar" -Pagano y Gauvreau, Principios de bioestadística , 2ª edición, página 349. [ Énfasis añadido ]

"La expresión es más conocida como el McNemar estadística de la prueba de pares emparejados (McNemar, 1949), y ha sido un pilar de análisis de pares emparejados Rothman, Greenland y Lash. Epidemiología moderna , página 286. [ Énfasis añadido ]

"El emparejamiento t y las medidas repetidas del análisis de la varianza pueden utilizarse para analizar experimentos en los que la variable estudiada puede medirse en una escala de intervalo (y satisface otros supuestos exigidos a los métodos paramétricos). ¿Qué ocurre con los experimentos, análogos a los del capítulo 5, en los que el resultado se mide en una escala de nominal ¿escala? Este problema se plantea a menudo cuando se pregunta si un individuo ha respondido o no a un tratamiento o cuando se comparan los resultados de dos pruebas diagnósticas diferentes que se clasifican como positivas o negativas en los mismos individuos . Desarrollaremos un procedimiento para analizar dichos experimentos, La prueba de Mcnemar para los cambios En el contexto de uno de estos estudios" -Glanz, Introducción a la bioestadística , 7ª edición, página 200. [ Énfasis añadido . Glanz trabaja a través de un ejemplo de una aplicación errónea de la tabla de contingencia $\chi^{2}$ prueba a los datos emparejados en la página 201].

"Para datos emparejados de casos y controles con un control por caso El análisis resultante es sencillo, y la prueba estadística adecuada es la prueba de chi-cuadrado de McNemar... nótese que para el cálculo tanto de la razón de momios como del estadístico, los únicos contribuyentes son los pares que son dispares en la exposición , es decir, el pares en los que el caso estaba expuesto pero el control no, y aquellos en los que el control estaba expuesto pero el caso no" -Elwood. Evaluación crítica de estudios epidemiológicos y ensayos clínicos , 1ª edición, páginas 189-190. [ Énfasis añadido ]

8voto

rnso Puntos 2424

Mi interpretación de la prueba de McNemar es la siguiente: Se utiliza para ver si una intervención ha supuesto una diferencia significativa en un resultado binario. En su ejemplo, se comprueba si un grupo de sujetos está infectado y la respuesta se registra como sí o no. A continuación, todos los sujetos reciben una intervención, por ejemplo, un medicamento antibiótico. A continuación, se vuelve a comprobar si hay infección y la respuesta se registra de nuevo como sí/no. Los (pares de) respuestas pueden colocarse en la tabla de contigencia:

             After   
           |no  |yes|
Before|No  |1157|35 |
      |Yes |220 |13 |

Y la prueba de McNemar sería apropiada para esto.

En la tabla se ve claramente que son muchos más los que han pasado del "sí" al "no" (220/(220+13) o el 94,4%) que del "no" al "sí" (35/(1157+35) o el 2,9%). Teniendo en cuenta estas proporciones, el valor P de McNemar (4,901e-31) parece más correcto que el valor P de chi-cuadrado (0,04082 ).

Si la tabla de contigüidad representa 2 infecciones diferentes (pregunta 2), entonces la Chi-cuadrado sería más apropiada.

Tu tercera pregunta es ambigua: primero afirmas relacionar Y en t2 con Y en t1 pero en la tabla escribes 'X' en t1 vs Y en t2. Y en t2 frente a Y en t1 es lo mismo que su primera pregunta y, por lo tanto, se necesita la prueba de McNemar, mientras que X en t1 e Y en t2 indican que se están comparando eventos diferentes y, por lo tanto, la prueba de Chi-cuadrado será más adecuada.

Editar: Como menciona Alexis en el comentario, los datos de casos y controles emparejados también se analizan mediante la prueba de McNemar. Por ejemplo, se reclutan 1425 pacientes de cáncer para un estudio y para cada paciente se recluta también un control emparejado. A todos ellos (1425*2) se les comprueba la infección. Los resultados de cada par pueden mostrarse en una tabla similar:

             Normal   
           |no  |yes|
Cancer|No  |1157|35 |
      |Yes |220 |13 |

Más claramente:

                                    Normal:
                                    No infection   Infection  
Cancer patient:     No infection    1157            35      
                    Infection       220             13      

Muestra que es mucho más frecuente que el paciente con cáncer tenga una infección y el de control no, que lo contrario. Su significación puede comprobarse mediante la prueba de McNemar.

Si estos pacientes y controles no estaban emparejados y eran independientes, sólo se puede hacer la siguiente tabla y hacer una prueba chisquare:

            Infection
            No    Yes
Cancer  No  1377   48
        Yes 1192  233

Más claramente:

                No infection        Infection
No cancer       1377                48
Cancer          1192                233

Tenga en cuenta que estos números son los mismos que los márgenes de la primera tabla:

> addmargins(mat)
      After
Before   No  Yes  Sum
   No  1157   35 1192
   Yes  220   13  233
   Sum 1377   48 1425

Esa debe ser la razón del uso de términos como "frecuencias marginales" y "homogeneidad marginal" en la prueba de McNemar.

Curiosamente, la función addmargins también puede ayudar a decidir qué prueba utilizar. Si el total general es la mitad del número de sujetos observados (lo que indica que se ha realizado el emparejamiento), entonces es aplicable la prueba de McNemar, si no, es apropiada la prueba de chisquare:

> addmargins(mat)
      Normal
Cancer   No  Yes  Sum
   No  1157   35 1192
   Yes  220   13  233
   Sum 1377   48 1425
> 
> addmargins(mat3)
      Infection
Cancer   No  Yes  Sum
   No  1377   48 1425
   Yes 1192  233 1425
   Sum 2569  281 2850

Los códigos R de las tablas anteriores son los de las respuestas anteriores:

mat = as.table(rbind(c(1157, 35), 
                      c( 220, 13) ))
colnames(mat) <- rownames(mat) <- c("No", "Yes")
names(dimnames(mat)) = c("Cancer", "Normal")

mat3 = as.table(rbind(c(1377, 48), 
                     c(1192, 233) ))
colnames(mat3) <- rownames(mat3) <- c("No", "Yes")
names(dimnames(mat3)) = c("Cancer", "Infection")

El siguiente pseudocódigo también puede ayudar a conocer la diferencia:

subject_id      result_first_observation    result_second_observation   
1               no                          yes                     
2               yes                         no                      
...

mcnemar.test(table(result_first_observation, result_second_observation))

pair_id     result_case_subject     result_control_subject  
1           no                      yes                     
2           yes                     no                      
...

mcnemar.test(table(result_case_subject, result_control_subject))

subject_id      result_first_test       result_second_test
1               yes                     no
2               no                      yes
..

chisq.test(table(result_first_test, result_second_test))

Editar:

mid-p variación de la prueba de McNemar ( https://www.ncbi.nlm.nih.gov/pmc/articles/PMC3716987/ ) es interesante. Compara b y c de la tabla de contingencia, es decir, el número de personas que cambiaron del sí al no frente al número de personas que cambiaron del no al sí (ignorando el número de personas que permanecieron en el sí o en el no durante el estudio). Se puede realizar utilizando la prueba binomial en python, como se muestra en https://gist.github.com/kylebgorman/c8b3fb31c1552ecbaafb

Podría ser equivalente a binom.test(b, b+c, 0.5) ya que en un cambio aleatorio, se esperaría b para que sea igual a c .

3 votos

No sólo para el análisis de intervenciones: también se utiliza para analizar datos de casos y controles emparejados en sentido observacional.

0 votos

Dada la descripción/configuración previa a la tabla de la Q3, sospecho que la "X" es un error tipográfico, pero ha sido una buena captura y es una contribución útil al hilo +1.

0 votos

@mso Editado Q3. es X en t1! de lo contrario, como usted dice que no es diferente de Q1. este Q es más de un año de edad y sorprendido de ver a alguien volver a ella con los mismos pensamientos que me confundió. ¡Siguiendo con mucho interés!

i-Ciencias.com

I-Ciencias es una comunidad de estudiantes y amantes de la ciencia en la que puedes resolver tus problemas y dudas.
Puedes consultar las preguntas de otros usuarios, hacer tus propias preguntas o resolver las de los demás.

Powered by:

X