La mayoría de las veces veo esta fórmula cuando busco una fórmula para la estimación del error típico en la diferencia entre dos medias, y también se utiliza en este vídeo . $$\Delta=\sqrt{s_1^2/N_1+s_2^2/N_2}$$ Pero también he visto ésta (y es la que utiliza mi libro): $$\Delta'=\sqrt{\dfrac{\left(N_1-1\right)s_1^2+\left(N_2-1\right)s_2^2}{N_1+N_2-2}\left(\dfrac{1}{N_1}+\dfrac{1}{N_2}\right)}$$ Dado que se trata de dos fórmulas muy diferentes, ¿cómo es posible que se utilicen indistintamente?
Respuestas
¿Demasiados anuncios?En ambos casos $\sigma_{1}$ et $\sigma_{2}$ son desconocidos. La fórmula inferior utiliza el supuesto de que $\sigma_{1} = \sigma_{2}$ e intentar estimar esa varianza compartida agrupando todas las observaciones y calculando una media ponderada. Así pues, el factor de la izquierda desempeña el papel tanto de $s_{1}^{2}$ et $s_{2}^{2}$ en la ecuación inferior. Este método suele utilizarse cuando el tamaño de las muestras es pequeño y la hipótesis de varianza igual es plausible.
Existen dos versiones diferentes de la prueba t de dos muestras de uso común.
Puesta en común. Se parte de la hipótesis, a menudo injustificada en la práctica, de que las dos poblaciones tienen la misma varianza $\sigma_1^2 = \sigma_2^2.$ En ese caso se trata de estimar el común varianza poblacional, utilizando las dos varianzas muestrales, para obtener lo que se denomina una puesta en común estimación $s_p^2$ .
Si los dos tamaños de muestra son iguales, $n_1 = n_2,$ entonces esto es simplemente $(s_1^2 + s_2^2)/2.$ Pero si los tamaños de las muestras difieren, se da más importancia a la varianza de la muestra más grande. Las ponderaciones utilizan los grados de libertad $\nu_i = n_i - 1)$ en lugar del $n_i.$ El primer factor bajo el radical en su $\Delta^\prime$ es $s_p^2.$ Bajo el supuesto de varianzas poblacionales iguales, la desviación típica de $\bar X_1 - \bar X_2$ (error estándar estimado) es su $\Delta^\prime$ .
En consecuencia, el $T$ -estadística es $T = (\bar X_1 - \bar X_2)/\Delta^\prime$ . Bajo la hipótesis nula de que las medias poblacionales $\mu_1$ et $\mu_2$ son iguales, este $T$ -tiene una distribución T de Student con $n_1 + n_2 - 2$ grados de libertad.
Variaciones separadas (Welch). El supuesto de varianzas poblacionales iguales es no hecho. A continuación, la varianza de $\bar X_1 - \bar X_2$ es $\sigma_1^2/n_1 + \sigma_2^2/n_2.$ Esta varianza se estima mediante $s_1^2/n_1 + s_2^2/n_2.$ Por tanto, el error típico (estimado) es $\Delta = \sqrt{s_1^2/n_1 + s_2^2/n_2}.$ Así que tu primera fórmula tiene errores tipográficos y es incorrecto. Esto puede explicar la diferencia "ridícula" que está obteniendo. Si $n_1 - n_2$ entonces debería obtener $\Delta = \Delta^\prime.$ Pero los dos errores estándar (estimados) no serán necesariamente iguales si los tamaños de las muestras difieren.
Una diferencia crucial entre las pruebas t agrupadas y de Welch es que la prueba de Welch utiliza una fórmula bastante complicada que implica tanto el tamaño de las muestras como las varianzas de las muestras para los grados de libertad (DF). El DF de Welch está siempre entre el mínimo de $n_1 - 1$ et $n_2 - 1$ por un lado y $n_1 + n_2 - 2$ por el otro. Por tanto, si ambos tamaños de muestra son moderadamente grandes, tanto $T$ -las estadísticas tendrán una distribución casi normal cuando $\mu_1 = \mu_2.$ El Welch $T$ -es sólo aproximado, pero los estudios de simulación han demostrado que es una aproximación muy exacta en una gran variedad de tamaños de muestra (iguales o no) y varianzas de población (iguales o no).
El consenso actual entre los estadísticos aplicados es utilizar siempre la prueba t de Welch y no preocuparse de si las varianzas de la población son iguales. La mayoría de los paquetes informáticos estadísticos utilizan el procedimiento de Welch por defecto y el procedimiento agrupado sólo si se solicita específicamente.