Esto parece otro artículo estridente de un individuo confundido. Fisher no cayó en tal trampa, aunque muchos estudiantes de estadística sí lo hacen.
La comprobación de hipótesis es un problema de teoría de la decisión. Por lo general, se llega a una prueba con un umbral determinado entre las dos decisiones (hipótesis verdadera o hipótesis falsa). Si tiene una hipótesis que corresponde a un único punto, como por ejemplo $\theta=0$ entonces puedes calcular la probabilidad de que tus datos resulten cuando es verdad. Pero, ¿qué hacer si no es un único punto? Obtienes una función de $\theta$ . La hipótesis $\theta\not= 0$ es tal hipótesis, y obtienes tal función para la probabilidad de producir tus datos observados dado que es cierta. Esa función es la función de potencia. Es muy clásica. Fisher sabía todo sobre ella.
La pérdida esperada forma parte de la maquinaria básica de la teoría de la decisión. Tenemos varios estados de la naturaleza, varios datos posibles resultantes de ellos y algunas decisiones posibles que podemos tomar, y queremos encontrar una buena función de los datos a la decisión. ¿Cómo se define "buena"? Dado un determinado estado de la naturaleza que subyace a los datos que has obtenido, y la decisión tomada por ese procedimiento, ¿cuál es tu pérdida esperada? Esto se entiende de forma más sencilla en los problemas empresariales (si hago esto basándome en las ventas que he observado en los últimos tres trimestres, ¿cuál es la pérdida monetaria esperada?)
Los procedimientos bayesianos son un subconjunto de los procedimientos de la teoría de la decisión. La pérdida esperada es insuficiente para especificar de forma única los mejores procedimientos en todos los casos salvo en los triviales. Si un procedimiento es mejor que otro tanto en el estado A como en el B, obviamente lo preferirá, pero si uno es mejor en el estado A y otro en el B, ¿cuál elige? Aquí es donde entran en juego ideas auxiliares como los procedimientos de Bayes, la minimaxidad y la insesgadez.
En realidad, la prueba t es una solución perfecta a un problema de teoría de la decisión. La cuestión es cómo elegir el punto de corte en el $t$ calcula. Un valor dado de $t$ corresponde a un valor determinado de $\alpha$ la probabilidad de error de tipo I, y a un conjunto dado de potencias $\beta$ dependiendo del tamaño del parámetro subyacente que se esté estimando. ¿Es una aproximación utilizar una hipótesis nula puntual? Sí. ¿Suele ser un problema en la práctica? No, igual que utilizar la teoría aproximada de Bernoulli para la desviación de una viga suele estar bien en ingeniería estructural. ¿Tener la $p$ -¿valor inútil? No. Otra persona que consulte sus datos puede querer utilizar un valor diferente. $\alpha$ que tú, y el $p$ -valor se adapta a ese uso.
También me confunde un poco por qué nombra juntos a Student y Jeffreys, teniendo en cuenta que Fisher fue el responsable de la amplia difusión de la obra de Student.
Básicamente, el uso ciego de los valores p es una mala idea, y son un concepto bastante sutil, pero eso no los hace inútiles. ¿Debemos oponernos a su uso indebido por parte de investigadores con escasa formación matemática? Por supuesto, pero recordemos cómo era antes de Fisher intentó destilar algo para que el hombre de campo pudiera utilizarlo.