Como @amoeba notado, tenemos la definición frecuencial de probabilidad y frecuentista estadísticas . Todas las fuentes que he visto hasta ahora dicen que la inferencia frecuencial se basa en la definición frecuencial de la probabilidad, es decir, entendiéndola como límite en proporción dado un número infinito de sorteos aleatorios (como ya advirtió @fcop y @Aksakal citando a Kolmogorov)
$$ P(A) = \lim_{n\to\infty} \frac{n_A}{n} $$
Así que, básicamente, existe la noción de una población de la que podemos tomar muestras de forma repetible. La misma idea se utiliza en la inferencia frecuentista. He revisado algunos artículos clásicos, por ejemplo, de Jerzy Neyman para seguir los fundamentos teóricos de la estadística frecuentista. En 1937 Neyman escribió
( ia ) El estadístico se ocupa de una población, $\pi$ que por una u otra razón no puede ser estudiado exhaustivamente. Sólo es posible posible extraer una muestra de esta población que pueda ser estudiada en estudiarse en detalle y utilizarse para formarse una opinión sobre los valores de ciertas constantes que describen las propiedades de la población $\pi$ . En Por ejemplo, se puede desear calcular aproximadamente la media de un carácter que poseen los individuos que forman la población $\pi$ etc.
( ib ) Alternativamente, el estadístico puede estar preocupado por de ciertos experimentos que, si se repiten en condiciones aparentemente idénticas idénticas, dan resultados diferentes. Tales experimentos se denominan experimentos aleatorios aleatorios [...]
En los dos casos descritos, el problema con el que se estadístico es el problema de la estimación. Este problema consiste en determinar qué operaciones aritméticas deben realizarse operaciones aritméticas sobre los datos de observación para obtener un resultado resultado, llamado estimación, que presumiblemente no difiere mucho del el verdadero valor del carácter numérico, ya sea de la población $\pi$ como en ( ia ), o de los experimentos aleatorios, como en ( ib ). [...]
En ( ia ) hablamos de un estadístico que extrae una muestra de la población estudiada.
En otro trabajo (Neyman, 1977), advierte que la evidencia proporcionada en los datos necesita ser verificada mediante la observación de la naturaleza repetida del fenómeno estudiado:
Normalmente, la "verificación" o "validación" de un modelo adivinado consiste en deducir algunas de sus consecuencias frecuenciales en situaciones no estudiadas empíricamente con anterioridad, y luego en realizar experimentos apropiados para ver si sus resultados son consistentes con las predicciones. Muy generalmente, el primer intento de verificación es negativo: las frecuencias observadas de los distintos resultados del experimentos no concuerdan con el modelo. Sin embargo, en algunas afortunadas ocasiones hay un acuerdo razonable y se siente la satisfacción de de haber "entendido" el fenómeno, al menos de forma general. Más tarde, invariablemente, aparecen nuevos hallazgos empíricos que indican la que indican la inadecuación del modelo original y exigen su abandono o modificación. modificación. Y ésta es la historia de la ciencia.
y en otro trabajo Neyman y Pearson (1933) escriben sobre las muestras aleatorias extraídas de una población fija
En la práctica estadística habitual, cuando se describen los hechos observados como "muestras", y las hipótesis se refieren a las "poblaciones", para las que las muestras, los caracteres de las muestras, o como los llamaremos denominaremos criterios, que se han utilizado para la comprobación de las hipótesis, parecen estar fijados a menudo por una feliz intuición.
La estadística frecuencial en este contexto formaliza el razonamiento científico en el que se reúnen pruebas, luego se extraen nuevas muestras para verificar los hallazgos iniciales y, a medida que acumulamos más pruebas, nuestro estado de conocimiento se cristaliza. De nuevo, tal y como describe Neyman (1977), el proceso sigue los siguientes pasos
( i ) Establecimiento empírico de una relación aparentemente estable a largo plazo frecuencias (o "frecuencias" para abreviar) de los acontecimientos que se consideran interesantes a medida que se desarrollan en la naturaleza.
( ii ) Adivinar y luego verificar el mecanismo de la casualidad", cuyo funcionamiento repetido produce la frecuencias observadas. Se trata de un problema de "probabilidad frecuentista frecuencial". A veces, este paso se denomina "construcción de modelos". Naturalmente, el mecanismo de azar adivinado es hipotético.
( iii ) Utilizar el hipotético mecanismo de azar del fenómeno estudiado para deducir reglas para ajustar nuestras acciones (o "decisiones") a las observaciones para asegurar la mayor "medida" de "éxito". [...] el deducción de las "reglas de ajuste de nuestras acciones" es un problema de las matemáticas, concretamente de la estadística matemática.
Frecuentadores plan su investigación teniendo en cuenta la naturaleza aleatoria de los datos y la idea de repetidas extracciones de una población fija, ellos diseñar sus métodos basado en él, y utilizarlo para verificar sus resultados (Neyman y Pearson, 1933),
Sin esperar saber si cada hipótesis por separado es verdadera o falsa, podemos buscar reglas que rijan nuestro comportamiento con respecto a que nos aseguren que, a lo largo de la experiencia, no nos equivocaremos con demasiada frecuencia. experiencia, no nos equivocaremos con demasiada frecuencia.
Esto está relacionado con el principio de muestreo repetido (Cox y Hinkley, 1974):
(ii) Principio de muestreo repetido fuerte
Según el principio de muestreo repetido fuerte, los procedimientos estadísticos deben ser evaluados por su comportamiento en repeticiones hipotéticas en las mismas condiciones. Esto tiene dos facetas. Las medidas de incertidumbre deben ser interpretarse como frecuencias hipotéticas en repeticiones a largo plazo; Los criterios de optimización deben formularse en términos de comportamiento sensible comportamiento sensible en las repeticiones hipotéticas.
El argumento para ello es que asegura un significado físico para las cantidades que calculamos y que asegura una estrecha relación entre el análisis que hacemos y la modelo subyacente que se considera que representa el "verdadero" estado de estado de cosas.
(iii) Principio de muestreo repetido débil
La versión débil del principio de muestreo repetido exige que no sigamos procedimientos que para algunos posibles valores de los parámetros darían, en repeticiones hipotéticas, conclusiones engañosas la mayoría de las veces.
Por el contrario, cuando se utiliza la máxima verosimilitud nos preocupamos por la muestra que tenemos y en el caso bayesiano hacemos la inferencia basada en la muestra y nuestro antecedentes y a medida que aparecen nuevos datos podemos realizar una actualización bayesiana. En ambos casos, la idea del muestreo repetido no es crucial. Los frecuentadores sólo se basan en los datos que tienen (como se ha observado en @WBT ), pero teniendo en cuenta que es algo aleatorio y que debe pensarse como parte de un proceso de muestreo repetido de la población (recordemos, por ejemplo, cómo intervalos de confianza están definidos).
En el caso frecuencial la idea de muestreo repetido nos permite cuantificar la incertidumbre (en estadística) y nos permite interpretar los acontecimientos de la vida real en términos de probabilidad .
Como nota al margen, nótese que ni Neyman (Lehmann, 1988), ni Pearson (Mayo, 1992) eran tan frecuentistas puros como podríamos imaginar que eran. Por ejemplo, Neyman (1977) propone utilizar el Bayesiano Empírico y la Máxima Verosimilitud para la estimación puntual. Por otro lado (Mayo, 1992),
en la respuesta de Pearson (1955) a Fisher (y en otras partes de su obra) es que para los contextos científicos Pearson rechaza tanto la baja a largo plazo probabilidad de error a largo plazo [...]
Así que parece que es difícil encontrar puro frecuentistas incluso entre los padres fundadores.
Neyman, J, y Pearson, E.S. (1933). Sobre el problema de las pruebas más eficientes de las hipótesis estadísticas. Philosophical Transactions of the Royal Society A: Mathematical, Physical and Engineering Sciences. 231 (694-706): 289-337.
Neyman, J. (1937). Esbozo de una teoría de la estimación estadística basada en la teoría clásica de la probabilidad. Phil. Trans. R. Soc. Lond. A. 236: 333-380.
Neyman, J. (1977). Probabilidad frecuentista y estadística frecuentista. Synthese, 36(1), 97-131.
Mayo, D. G. (1992). ¿Rechazó Pearson la filosofía estadística de Neyman-Pearson? Synthese, 90(2), 233-262.
Cox, D. R. y Hinkley, D. V. (1974). Theoretical Statistics. Chapman and Hall.
Lehmann, E. (1988). Jerzy Neyman, 1894 - 1981. Informe técnico nº 155. Departamento de Estadística, Universidad de California.