Parece que para el cálculo de Cohen $d$ (estimación del tamaño del efecto), se debe usar la diferencia en los valores medios (o en caso de ejemplo, desde la línea de base), dividido por $SD$, si la información está disponible: $$ \frac{\bar X_1 - \bar X_2}{SD} $$ Sin embargo, cuando tienes el $t$-estadística y los grados de libertad ($\rm df$) disponibles, ¿cuál es la fórmula para Cohen $d$? En la muestra de pares de caso del ejemplo, es intuitiva cómo derivar $d$$t$, ya que el $t$ se calcula como la diferencia en los medios más que el estándar de error: $$ t = \frac{\bar X_1 - \bar X_2}{SE} = \frac{\bar X_1 - \bar X_2}{\frac{SD}{\sqrt{N}}} $$ por lo $d$ es igual a: $$ d = \frac{\bar X_1 - \bar X_2}{SD} = \frac{t}{\sqrt{N}} $$ Y eso es lo que encontrará en línea de artículos como este (pdf). Pero para muestras independientes, la ecuación que aparece en su lugar como: $$ d = \frac{2}{\sqrt{\rm df}} $$ como se ve aquí, o incluso: $$ d = t \sqrt{\frac 2 N} $$ Entonces, ¿dónde la "$2$"? Se relaciona con la fórmula para agrupadas SD?
Respuesta
¿Demasiados anuncios?La SD se utiliza en el t cálculo es que de el efecto, no de los grupos individuales. En los pares de caso de la tarjeta SD para su uso en Cohen d y t son los mismos. Pero la SD se utiliza en la d de cálculo para muestras independientes es el conjunto de SD de los grupos individuales, no el teórico SD de el efecto. Bajo los supuestos de 0 correlación y la igualdad de la varianza (el caso) de la varianza del efecto es el doble de la variación de las condiciones individuales.
Pruebe el siguiente código R para demostrar el efecto
x <- rnorm(1000, 0, 10)
var(x)
y <- rnorm(1000, 5, 10)
var(y)
cor(x,y)
var(x-y)
Ejecutar el ejemplo de un par de veces. Las dos primeras líneas de obtener al azar muestras independientes de 1000 con variaciones de 100 (sd = 10). Lo que verás es que con la correlación entre x y y cerca de 0 y la varianza de x-y (el efecto) tiende hacia el 200. Esto también es cierto para x+y. Con la gran cantidad de muestras en el código anterior correlaciones espurias son raras, pero en experimentos reales con grandes muestreados que ocurren todo el tiempo (reducir el n en el ejemplo anterior y que va a pasar). Por lo tanto, lo que hacemos es meter a la teoría y de la media de la variación a través de los grupos (combinados de la varianza) y, a continuación, haga doble. Uno podría alternativamente solo suma var(x) + var(y). Este resulta ser matemáticamente la misma, pero se esconde el supuesto de igualdad de varianza.
Para la comparación, pruebe algunos datos correlacionados hecha de efecto de los cálculos.
m <- rnorm(1000, 2.5, 10)
x <- m - rnorm(1000, 2.5, 10)
y <- m + rnorm(1000, 2.5, 10)
var(x)
var(y)
cor(x,y)
var(x-y)
No me molesta la equiparación de las desviaciones a la anterior (sd = sqrt(50) en todos los ejemplos anteriores lo haría). Lo que verá en este momento es que la varianza de x y y de cada 200. Esto debe resultar en una final de la varianza de x-y de 400, si todo era cierto, como antes. Sin embargo, debido a que x y y están correlacionados (alrededor de 0,5) obtendrá una menor varianza. Esta es la propiedad matemática de que una prueba t pareada aprovecha.
Eso es parte de ella, pero ¿por qué cohen d utilizar diferentes cálculos? Con los pares de medidas de diseño, la correlación entre las condiciones se parte del cálculo del efecto. Normalmente sólo recoger suficiente N para medir el efecto y usted no es realmente acerca de la medición de los verdaderos valores en cada condición, sólo el efecto. Futuros experimentos tienden a ser de un diseño similar y el tamaño del efecto de medidas repetidas proporciona una información más precisa pronosticador de la probabilidad de replicación. Un argumento similar se tiene para el diseño independiente.
Algunos han argumentado que usted debe utilizar un conjunto de varianza de las condiciones individuales todo el tiempo. Hay debate acerca de que con algunas personas que vienen hacia abajo firmemente que el d de la fórmula debe ser siempre el mismo y el uso de los grupos independientes de la versión. Esto asegura un punto de referencia común para cuando se haga o no uso de medidas repetidas de los diseños. Creo que el argumento tiene su mérito, si un diseño independiente es posible, y probable. Pero veo que esta discusión hecha en aspectos como las diferencias entre los oídos de la gente. Que nunca puede ser independiente de los grupos de diseño, tendrá muy alta correlación de las mediciones, y por lo tanto siempre debe de tener un tamaño del efecto calculado a través de los pares o correlacionados efecto de la medición.