Así que he notado algo extremadamente confuso sobre t.test, que es que el intervalo de confianza que proporciona con respecto a una hipótesis alternativa de dos lados parece ser inconsistente con lo que proporciona para una prueba unilateral, mi propia función CI & CONFIDENCE()
de Excel (que son consistentes entre sí). Además, parece ser inconsistente con mi propia función de prueba z de dos colas, ¡y todas estas inconsistencias son bastante pequeñas (pero mayores que el error de punto flotante)!
Aquí está mi ejemplo: t.test---
sample = c(38, 30, 41, 28, 31)
t.test(sample) # CI = 26.65334, 40.54666
t.test(sample, alternative = 'less') # CI = -Inf, 38.93388
t.test(sample, alternative = 'greater') # CI = 28.26612, Inf`
Mi propio CI---
# testeado 10/5/19
# xbar = media de la muestra, s = sigma de la muestra, n = tamaño de la muestra
mean_conf_interval <- function(xbar, s, n, conf_lvl=0.95) {
z_a2 <- qnorm((1-conf_lvl)/2, lower.tail=F)
err_margin <- z_a2*s/sqrt(n)
return(c(xbar-err_margin, xbar+err_margin))
}
mean_conf_interval(mean(sample),sd(sample),length(sample))
# CI = 28.26612, 38.93388
Excel--- (traducción aproximada a seudocódigo)
E276:E280 = 38, 30, 41, 28, 31 # misma muestra que antes
B277 = CONFIDENCE(0.05, STDEV(E276:E280), COUNT(E276:E280)) # margen de error
B278=AVERAGE(E276:E280) # xbar
# CI = B278-B277, B278+B277 = 28.69617167, 38.50382833
Por razones de brevedad, no entraré en comparación con mi propia función de prueba z de dos colas a menos que sea necesario. ¿Pero qué está pasando? Esto es tan extraño que realmente parece ser un error...