Estaba leyendo en el cálculo de la estimación objetiva de la desviación estándar y la fuente que he leído declaró
(...) excepto en algunas situaciones importantes, la tarea tiene poca relevancia para aplicaciones de la estadística ya que su necesidad es evitado por la norma procedimientos, tales como el uso de las pruebas de significación y de confianza intervalos, o mediante el análisis Bayesiano.
Me preguntaba si alguien podría aclarar el razonamiento detrás de esta afirmación, por ejemplo, no el intervalo de confianza del uso de la desviación estándar como parte del cálculo? Por lo tanto, no los intervalos de confianza se ve afectada por una visión sesgada de la desviación estándar?
EDITAR:
Gracias por las respuestas hasta ahora, pero no estoy muy seguro de que me siga algunos de los razonamientos de ellos, así que voy a añadir un ejemplo muy simple. El punto es que si la fuente es correcta, entonces algo está mal desde mi conclusión para el ejemplo y me gustaría que alguien a punto de cómo el p-valor no depende de la desviación estándar.
Supongamos que un investigador desea probar si la media de la puntuación de los estudiantes de quinto grado en una prueba en su ciudad difieren de la media nacional de 76, con un nivel de significación de 0,05. El investigador en una muestra aleatoria de las puntuaciones de 20 estudiantes. La media de la muestra fue 80.85 con una desviación estándar de la muestra de 8.87. Esto significa: t = (80.85-76)/(8.87/sqrt(20)) = 2.44. Un t-table se utiliza para calcular que la de dos colas valor de probabilidad de una t de 2,44 con 19 df es de 0,025. Esto es por debajo de nuestro nivel de significación de 0,05 por lo que rechazamos la hipótesis nula.
Así, en este ejemplo, no el valor de p (y tal vez su conclusión) cambiar dependiendo de cómo se calcula su desviación estándar de la muestra?