20 votos

Prueba T emparejada versus no emparejada

Supongamos que tengo 20 ratones. Emparejo los ratones de alguna manera, para obtener 10 pares. Para el propósito de esta pregunta, podría ser un emparejamiento al azar, O podría ser un emparejamiento sensato, como tratar de emparejar ratones de la misma camada, del mismo sexo, con peso similar, O podría ser un emparejamiento deliberadamente estúpido como tratar de emparejar ratones con pesos tan desiguales como podrían ser. Entonces uso números aleatorios para asignar un ratón de cada pareja al grupo de control y el otro ratón al grupo a tratar. Ahora hago el experimento, tratando sólo a los ratones que van a ser tratados, pero sin prestar atención a los arreglos que se acaban de hacer.

Cuando se analizan los resultados, se puede usar una prueba t sin emparejar o una prueba t emparejada. ¿De qué manera, si es que hay alguna, las respuestas serán diferentes? (Básicamente estoy interesado en las diferencias sistemáticas de cualquier parámetro estadístico que necesite ser estimado.)

La razón por la que pregunto esto es porque un biólogo criticó un trabajo en el que estuve recientemente involucrado por usar una prueba t emparejada en lugar de una prueba t no emparejada. Por supuesto, en el experimento real, la situación no era tan extrema como la que he esbozado, y había, en mi opinión, buenas razones para el emparejamiento. Pero el biólogo no estaba de acuerdo.

Me parece que no es posible mejorar incorrectamente la significación estadística (disminuir el valor p), en las circunstancias que he esbozado, utilizando una prueba t emparejada, en lugar de una prueba no emparejada, aunque sea inapropiado emparejar. Sin embargo, podría empeorar la significación estadística si los ratones se emparejan mal. ¿Esto es correcto?

23voto

mat_geek Puntos 1367

Estoy de acuerdo con los puntos que exponen tanto Frank como Peter, pero creo que hay una fórmula sencilla que llega al meollo de la cuestión y que tal vez merezca la pena que el PO considere.

Dejemos que $X$ y $Y$ sean dos variables aleatorias cuya correlación es desconocida.

Dejemos que $Z=X-Y$

¿Cuál es la varianza de $Z$ ?

Esta es la sencilla fórmula: $$ \text{Var}(Z)=\text{Var}(X) + \text{Var}(Y) - 2 \text{Cov}(X,Y). $$ ¿Y si $\text{Cov}(X,Y)>0$ (es decir, $X$ y $Y$ están correlacionados positivamente)?

Entonces $\text{Var}(Z)\lt \text{Var}(X)+\text{Var}(Y)$ . En este caso, si el emparejamiento se realiza debido a una correlación positiva, como cuando se trata del mismo sujeto antes y después de la intervención, el emparejamiento ayuda porque la diferencia independiente emparejada tiene una varianza menor que la que se obtiene para el caso no emparejado. El método reduce la varianza. La prueba es más potente. Esto puede demostrarse de forma dramática con datos cíclicos. Vi un ejemplo en un libro en el que querían ver si la temperatura en Washington DC es mayor que en la ciudad de Nueva York. Así que tomaron la temperatura media mensual en ambas ciudades durante, digamos, 2 años. Por supuesto, hay una gran diferencia a lo largo del año debido a las cuatro estaciones. Esta variación es demasiado grande para que una prueba t no apareada pueda detectar una diferencia. Sin embargo, el emparejamiento basado en el mismo mes del mismo año elimina este efecto estacional y la prueba t emparejada $t$ -prueba mostró claramente que la temperatura media en DC tendía a ser más alta que en Nueva York. $X_i$ (temperatura en NY en el mes $A$ ) y $Y_i$ (temperatura en DC en el mes $A$ ) están positivamente correlacionadas porque las estaciones son las mismas en NY y DC y las ciudades están lo suficientemente cerca como para experimentar a menudo los mismos sistemas meteorológicos que afectan a la temperatura. DC puede ser un poco más cálido porque está más al sur.

Obsérvese que cuanto mayor sea la covarianza o correlación, mayor será la reducción de la varianza.

Supongamos ahora que $\text{Cov}(X,Y)$ es negativo.

Entonces $\text{Var}(Z) \gt \text{Var}(X)+\text{Var}(Y)$ . Ahora el emparejamiento será peor que el no emparejamiento porque la varianza se incrementa.

Cuando $X$ y $Y$ no están correlacionados, entonces probablemente no importa el método que se utilice. El caso del emparejamiento aleatorio de Peter es como esta situación.

7voto

dan90266 Puntos 609

En lugar de emparejar, probablemente sea mejor entender el modelo de datos subyacente. Si el emparejamiento se realiza para tratar la heterogeneidad no controlada, suele ocurrir (excepto en los estudios de gemelos) que el emparejamiento sólo controla parcialmente esta fuente de variabilidad y la regresión múltiple lo haría mejor. Esto se debe a que el emparejamiento de variables continuas a menudo da lugar a una variabilidad residual debido a que no se puede realizar un emparejamiento exacto de dichas variables.

6voto

Zizzencs Puntos 1358

Las dos pruebas (emparejadas y no emparejadas) formulan preguntas diferentes, por lo que pueden obtener respuestas distintas. El emparejamiento correcto casi siempre es más potente que el no emparejado, ese es realmente el objetivo del emparejamiento. Así que, dado que dice que el emparejamiento es correcto, es probable que el valor p de su prueba emparejada sea menor que el de los mismos datos sin emparejar. Por supuesto, podría hacer ambas cosas y comprobarlo usted mismo.

Por tanto, la respuesta a su dilema es sustantiva, no estadística. ¿Es correcto su emparejamiento?

¿Podría obtener un resultado más significativo con un emparejamiento aleatorio que con una prueba no emparejada? Veamos:

set.seed(2910110192)
x <- rnorm(100, 10, 2)
y <- rnorm(100, 10, 2)
t.test(x, y)
t.test(x, y, paired = T)

Sí se puede, aunque aquí la diferencia es muy pequeña, el emparejado tenía una p más baja. No es sorprendente que a veces una p sea más baja, a veces la otra, pero la diferencia era pequeña en todos los casos. Sin embargo, estoy seguro de que en algunas situaciones la diferencia en los valores de p podría ser grande.

5voto

Dwight T Puntos 544

Ahora entiendo mucho mejor lo que me preocupaba sobre las pruebas t emparejadas frente a las no emparejadas, y los valores p asociados. Descubrirlo ha sido un viaje interesante, y ha habido muchas sorpresas en el camino. Una de las sorpresas ha sido la investigación de la contribución de Michael. Es irreprochable en cuanto a consejos prácticos. Además, dice lo que creo que creen prácticamente todos los estadísticos, y tiene varios upvotes que lo respaldan. Sin embargo, como pieza de teoría, no es literalmente correcta. Lo descubrí elaborando las fórmulas para los valores p, y luego pensando cuidadosamente cómo utilizar las fórmulas para llevar a los contraejemplos. Soy matemático de formación, y el contraejemplo es un "contraejemplo matemático". No es algo que se encuentre en la estadística práctica, pero fue el tipo de cosas que estaba tratando de averiguar cuando hice mi pregunta original.

Aquí está el código R que da el contraejemplo:

vLength <- 10; meanDiff <-10^9; numSamples <- 3;
pv <- function(vLength,meanDiff) {
    X <- rnorm(vLength)
    Y <- X - meanDiff + rnorm(vLength,sd=0.0001)
    Paired <- t.test(X,Y,var.equal=T,paired=T)
    NotPaired <- t.test(X,Y,var.equal=T,paired=F)
    c(Paired$p.value,NotPaired$p.value,cov(X,Y))
}
ans <- replicate(numSamples,pv(vLength,meanDiff))

Tenga en cuenta las siguientes características: X e Y son dos 10-tuplas cuya diferencia es enorme y casi constante. Con muchas cifras significativas, la correlación es de 1,000.... El valor p de la prueba no emparejada es unas 10^40 veces menor que el valor p de la prueba emparejada. Así que esto contradice el relato de Michael, siempre que uno lea su relato literalmente, al estilo matemático. Aquí termina la parte de mi respuesta relacionada con la respuesta de Michael.


Estas son las reflexiones que suscita la respuesta de Peter. Durante la discusión de mi pregunta original, conjeturé en un comentario que dos distribuciones particulares de valores p que suenan diferentes son en realidad la misma. Ahora puedo demostrarlo. Lo que es más importante es que la prueba revela la naturaleza fundamental de un valor p, tan fundamental que ningún texto (que yo haya encontrado) se molesta en explicar. Puede que todos los estadísticos profesionales conozcan el secreto, pero a mí la definición de valor p siempre me ha parecido extraña y artificial. Antes de desvelar el secreto del estadístico, permítanme especificar la pregunta.

Dejemos que $n>1$ y elegir al azar y de forma independiente dos $n$ -de una distribución normal. Hay dos formas de obtener un valor p a partir de esta elección. Una es utilizar una prueba t no emparejada, y la otra es utilizar una prueba t emparejada. Mi conjetura era que la distribución de los valores p que se obtiene es la misma en los dos casos. Cuando me puse a pensar en ello, decidí que esta conjetura había sido temeraria y era falsa: la prueba no emparejada está asociada a un estadístico t sobre $2(n-1)$ grados de libertad, y la prueba emparejada a un estadístico t en $n-1$ grados de libertad. Estas dos distribuciones son diferentes, así que ¿cómo es posible que las distribuciones asociadas de los valores p sean iguales? Sólo después de pensarlo mucho más me di cuenta de que esta obvia desestimación de mi conjetura era demasiado fácil.

La respuesta proviene de las siguientes consideraciones. Supongamos que $f:(0,\infty)\to (0,\infty)$ es una pdf continua (es decir, su integral tiene valor uno). Un cambio de coordenadas convierte la distribución asociada en la distribución uniforme en $[0,1]$ . La fórmula es $$p=\int_t^\infty f(s)\,ds$$ y esto se explica en muchos textos. Lo que los textos no señalan en el contexto de los valores p es que esto es exactamente la fórmula que da el valor p del estadístico t, cuando $f$ es el pdf de la distribución t. (Estoy tratando de mantener la discusión tan simple como puedo, porque realmente es simple. Una discusión más completa trataría las pruebas t de una y dos caras de forma ligeramente diferente, podrían surgir factores de 2, y el estadístico t podría estar en $(-\infty,\infty)$ en lugar de en $[0,\infty)$ . Omití todo ese desorden).

Exactamente la misma discusión se aplica cuando se encuentra el valor p asociado a cualquiera de las otras distribuciones estándar en estadística. Una vez más, si los datos se distribuyen aleatoriamente (esta vez según alguna distribución diferente), los valores p resultantes se distribuirán uniformemente en $[0,1]$ .

¿Cómo se aplica esto a nuestras pruebas t emparejadas y no emparejadas? La cuestión es que en la prueba t emparejada, con muestras elegidas de forma independiente y aleatoria, como en mi código anterior, el valor de t sigue efectivamente una distribución t (con $n-1$ grados de libertad). Así que los valores p que resultan de replicar la elección de X e Y muchas veces siguen la distribución uniforme en $[0,1]$ . Lo mismo ocurre con la prueba t no apareada, aunque esta vez la distribución t tiene $2(n-1)$ grados de libertad. Sin embargo, los valores p resultantes también tienen una distribución uniforme en $[0,1]$ por el argumento general que he dado más arriba. Si se aplica el código de Peter anterior para determinar los valores p, entonces obtenemos dos métodos distintos para extraer una muestra aleatoria de la distribución uniforme en $[0,1]$ . Sin embargo, las dos respuestas no son independientes.

4voto

Calion Puntos 128

Yo ofrecería otra perspectiva. A menudo, el emparejamiento se hace para reducir el sesgo. Supongamos que estamos interesados en saber si la exposición E es un factor de riesgo para un resultado continuo Y. Para cada sujeto E+, obtenemos un sujeto emparejado por edad y sexo que es E. Ahora, podríamos hacer una prueba t emparejada o una prueba t no emparejada. Creo que deberíamos tener en cuenta el emparejamiento explícitamente y realizar una prueba t emparejada. Es más básico en el sentido de que tiene en cuenta el diseño. El hecho de tener en cuenta el emparejamiento en el análisis es una cuestión de equilibrio entre el sesgo y la varianza. Tener en cuenta el emparejamiento en el análisis proporciona más protección contra el sesgo, pero puede aumentar la varianza. Hacer una prueba t no emparejada puede ser más eficiente, pero no proporcionaría ninguna protección contra el sesgo.

i-Ciencias.com

I-Ciencias es una comunidad de estudiantes y amantes de la ciencia en la que puedes resolver tus problemas y dudas.
Puedes consultar las preguntas de otros usuarios, hacer tus propias preguntas o resolver las de los demás.

Powered by:

X