En casi cualquier libro de texto que introduzca el tema de la estadística frecuentista, las hipótesis nulas de la forma $H_0: \mu=\mu_0$ o similares (la moneda es insesgada, dos dispositivos de medición tienen un comportamiento idéntico, etc.). Las pruebas estadísticas clásicas, como la $Z$ ou $T$ se basan en el rechazo de estas hipótesis nulas.
En mi opinión, este tipo de hipótesis de igualdad carecen de interés por varias razones:
- En la "vida real" uno siempre está interesado sólo en cierta precisión finita $\epsilon$ lo que significa que la hipótesis de interés es en realidad de la forma $H_0: |\mu-\mu_0|<\epsilon$ .
- Se sabe a priori que la hipótesis de igualdad es errónea cuando se consideran variables continuas (¡ninguna moneda es perfectamente insesgada en la realidad!), y como corolario,
- El hecho de que no se pueda rechazar la hipótesis nula es, por definición, temporal, y es un artefacto de la falta de datos suficientes. Con datos suficientes, cualquier tipo de hipótesis de igualdad sobre variables continuas se rechazará en un caso de uso del mundo real.
Entonces, ¿por qué se siguen utilizando estas hipótesis, tanto en los libros de texto como en las aplicaciones, mientras que es difícil encontrar fórmulas para hipótesis "reales" más interesantes*?
* por ejemplo a <a href="https://stats.stackexchange.com/questions/594474/sample-size-needed-to-show-difference-of-means-is-smaller-than-y?noredirect=1#comment1099993_594474">pregunta </a>Hace poco pregunté sobre este tipo de hipótesis