Sé que la interpretación frecuentista de la probabilidad está asociada a la estadística clásica y a la estimación de máxima verosimilitud, y que una interpretación subjetiva de la probabilidad se considera parte integrante de la estadística bayesiana. Pero, ¿son estas interpretaciones de la probabilidad esenciales para los métodos estadísticos, o son históricas? En concreto, ¿cuál es la relación entre la interpretación frecuentista de la probabilidad y la estimación de máxima verosimilitud? Además, ¿hay alguna razón por la que alguien que se adhiera a la interpretación de la probabilidad basada en la "propensión" no pueda utilizar cualquiera de los dos enfoques, o favorecer uno sobre el otro? A mi entender, parece que la diferencia conceptual más importante es entre considerar los parámetros fijos y desconocidos (clásico) y modelizar los parámetros con distribuciones de probabilidad (bayesiano). Pero, ¿hay alguna razón por la que una persona que crea en una interpretación frecuentista de la probabilidad no pueda decir "aunque el parámetro sea fijo, modelizaré el rango de sus valores plausibles con una distribución de probabilidad" y hacer estadística bayesiana para llegar a una estimación?
Respuesta
¿Demasiados anuncios?Les recomiendo encarecidamente que lean las obras de Deborah Mayo y Andrew Gelman . introduzca aquí la descripción del enlace . El Dr. Mayo representa una visión moderna de la inferencia al estilo del frecuentismo, mientras que el Dr. Gelman es un conocido expositor de los enfoques bayesianos modernos.
El Dr. Gelman tiene un bonita pieza donde analiza cómo la estadística bayesiana moderna y la estadística frecuentista moderna comparten una preocupación común por la "calibración" de las inferencias y predicciones de un modelo. En otras palabras, si un bayesiano hace 1000 predicciones, cada una con una probabilidad posterior del 40% (de ser correcta), entonces se preocuparía si sólo 200 fueran correctas, y se intrigaría (pero también se preocuparía) si 900 fueran correctas. Esperarían alrededor de 400.
Del mismo modo, como explican Mayo y Gelman, las técnicas estadísticas frecuentistas se centran en el rendimiento a largo plazo en ensayos repetidos: un intervalo de confianza del 95% debe cubrir el parámetro verdadero en el 95% de las muestras.
Cabe señalar que la zona de " modelos de efectos aleatorios " es un puente realmente agradable entre los mundos metodológicos bayesiano y frecuentista. Aquí es donde incluso los frecuentistas permiten parámetros aleatorios. Los bayesianos simplemente tratan cada problema como un modelo de efectos aleatorios.
Tenga en cuenta que ni el bayesiano ni el frecuentista saben si su modelo es correcto (de hecho, la mayoría están casi seguros de que sus modelos son erróneos), por lo que, en cualquier caso, los modelos son en realidad meras herramientas que proporcionan un marco interpretativo para algún fenómeno del mundo real. Así, llegamos a reducir un proceso complejo a una discusión sobre $\gamma,\mu,$ y otros parámetros, en lugar de tener que abordar todo el lío. Puede que no sea física/mecánicamente correcto, pero, no obstante, su ciencia funciona, sobre todo en las ciencias sociales (por ejemplo, la economía). Este "instrumentalismo" no es un problema en la medida en que podemos verificar nuestros modelos con datos y comprobar su calibración.
Así pues, ambas escuelas estadísticas se apoyan en última instancia en una interpretación "frecuencial" de la probabilidad, ya que es la única que tiene alguna esperanza de confirmación experimental (aunque sólo sea parcialmente). Sin embargo, difieren en tipos de modelos utilizados y el "conjunto de referencia" sobre el que calculamos nuestra probabilidad de error: Los científicos utilizan modelos de "efectos fijos" y los calibran a partir de repeticiones del mismo experimento con los parámetros constantes. Los bayesianos prefieren los modelos de "efectos aleatorios" y calibran sus errores a partir de todas las realizaciones posibles de los efectos aleatorios (es decir, los posibles modelos subyacentes), manteniendo constantes los parámetros. observaciones constante.
Al final, la opinión de un estadístico moderno sobre el valor de un modelo debería basarse principalmente en lo bien que sus predicciones coinciden con las observaciones, no en cuestiones filosóficas/ideológicas.