61 votos

¿Quiénes son los frecuentadores?

Ya teníamos un hilo preguntando que son bayesianos y uno que pide si los frecuentadores son bayesianos pero no había ningún hilo que preguntara directamente que son frecuentadores ? Esta es una pregunta que se hizo el @whuber como comentar en este hilo y pide que se le responda. ¿Existen (hay algún frecuencialista que se autoidentifique)? ¿Quizá se los inventaron los bayesianos que necesitaban un chivo expiatorio al que culpar cuando criticaban a la estadística dominante?

Meta-comentario a las respuestas ya dadas: En cambio, la estadística bayesiana es no sólo definido en términos de uso del teorema de Bayes (los no bayesianos también lo usan), ni sobre el uso de la interpretación subjetivista de la probabilidad (no se llamaría a cualquier lego que diga cosas como "¡Apuesto a que la probabilidad es menor de 50:50!" un bayesiano) - entonces, ¿podemos definir el frecuentismo sólo en términos de la interpretación adoptada de la probabilidad? Además, estadísticas $\ne$ probabilidad aplicada Por lo tanto, ¿la definición del frecuentismo debe centrarse únicamente en la interpretación de la probabilidad?

4voto

Una pregunta realmente interesante.

Yo me situaría en el campo frecuencialista cuando se trata de entender e interpretar los enunciados de la probabilidad, aunque no soy tan duro en cuanto a la necesidad de una secuencia real de experimentos iid para fundamentar esta probabilidad. Sospecho que la mayoría de las personas que no compran la tesis de que "la probabilidad es una medida subjetiva de la creencia" también pensarían en la probabilidad de esta manera.

Esto es lo que quiero decir: tomemos nuestra habitual moneda "justa", con asignación $P(H)=0.5$ . Cuando escucho esto, me formó una imagen de alguien lanzando esta moneda muchas veces y la fracción de cabezas se acerca $0.5$ . Ahora, si me presionan, también diría que la fracción de cabezas en cualquier muestra aleatoria de una secuencia finita de tales lanzamientos de moneda también se acercará $0.5$ a medida que aumenta el tamaño de la muestra (hipótesis de independencia).

Como se ha dicho por otros, la mayor suposición es que este límite existe y es correcto (es decir, el límite es $0.5$ ), pero creo que igual de importante es la suposición de que el mismo límite existe también para submuestras elegidas al azar. De lo contrario, nuestra interpretación sólo tiene significado con respecto a toda la secuencia infinita (por ejemplo, podríamos tener una fuerte autocorrelación que se promedia).

Creo que lo anterior es bastante incontrovertible para los frecuentistas. Un bayesiano se centraría más en el experimento en cuestión y menos en el comportamiento a largo plazo: afirmaría que su grado de creencia de que el próximo lanzamiento saldrá cara es $P(H) = 0.5$ ...y punto.

Para un caso sencillo como el lanzamiento de una moneda, podemos ver que los enfoques frecuentista y bayesiano son funcionalmente equivalentes, aunque filosóficamente muy diferentes. Como ha señalado Dikran Marsupial, el bayesiano puede utilizar el hecho de que, empíricamente, vemos que las monedas salen cara con la misma frecuencia que salen cruz (frecuencia de la muestra larga como prioridad).

¿Qué pasa con las cosas que no pueden tener frecuencias largas? Por ejemplo, ¿cuál es la probabilidad de que Corea del Norte inicie una guerra con Japón en los próximos 10 años? Para los frecuentistas, nos quedamos realmente en la estacada, ya que no podemos describir realmente las distribuciones de muestreo necesarias para probar una hipótesis de este tipo. Un bayesiano podría abordar este problema colocando una distribución de probabilidad sobre las posibilidades, muy probablemente basada en la obtención de información de expertos.

Sin embargo, surge una pregunta clave: ¿de dónde proceden estos grados de creencia (o valor supuesto para la frecuencia a largo plazo)? Yo argumentaría desde la psicología y diría que estas creencias (especialmente en áreas alejadas de los datos experimentales) provienen de lo que se denomina el heurística de disponibilidad y heurística de representatividad . Hay un montón de otros que probablemente entren en juego. Lo digo porque, a falta de datos para calibrar nuestras creencias (¡hacia la frecuencia observada a largo plazo!), debemos confiar en la heurística, por muy sofisticada que nos parezca.

El pensamiento mental heurístico anterior se aplica por igual a los frecuentistas y a los bayesianos. Lo que me parece interesante es que, independientemente de nuestra filosofía, en el fondo creemos más en algo que nos parece más probable que sea cierto, y creemos que es más probable que sea cierto porque creemos que hay más formas de que sea cierto, o imaginamos que los caminos que conducen a que sea cierto ocurrirían más a menudo (frecuentemente:-) que los que harían que no fuera cierto.

Ya que es un año de elecciones, tomemos un ejemplo político: Qué creencia pondríamos en la afirmación "Ted Cruz propondrá una prohibición de los rifles de asalto en los próximos 4 años". Ahora, tenemos algunos datos sobre esto a partir de sus propias declaraciones, y probablemente pondríamos nuestra creencia previa en la verdad de esta afirmación muy cerca de cero. Pero, ¿por qué? ¿Por qué sus declaraciones anteriores nos hacen pensar así? Porque pensamos que las personas muy ideológicas tienden a "mantenerse firmes" más que sus homólogos pragmáticos. ¿De dónde viene esto? Probablemente de los estudios realizados por los psicólogos y de nuestras propias experiencias con personas de altos principios.

En otras palabras, tenemos algunos datos y la creencia de que en la mayoría de los casos en los que alguien como Cruz podría cambiar de opinión, no lo hará (de nuevo, una especie de evaluación a largo plazo o de gran muestra).

Por eso estoy de acuerdo con los frecuentistas. No se trata de que me disguste la filosofía bayesiana (bastante razonable) o los métodos (¡son estupendos!), sino de que si profundizo lo suficiente en el motivo por el que mantengo creencias que carecen de un sólido respaldo en muestras grandes, descubro que me baso en algún tipo de modelo mental en el que se pueden contabilizar los resultados (aunque sea implícitamente) o en el que puedo invocar probabilidades a largo plazo en un subproceso concreto (por ejemplo, los republicanos votan en contra de las medidas de control de armas el X% de las veces) para ponderar mi creencia de una manera u otra.

Por supuesto, esto no es realmente frecuentismo, y dudo que haya mucha gente que suscriba al pie de la letra la interpretación de la probabilidad de von Mieses. Sin embargo, creo que muestra la compatibilidad subyacente entre la probabilidad bayesiana y la frecuentista: Ambos apelan a nuestra heurística interna sobre la disponibilidad o a lo que yo llamo el principio del "Pachinko" sobre las frecuencias a lo largo de una cadena de causalidad.

Así que tal vez debería llamarme "disponibilista", para indicar que asigno probabilidades en función de la frecuencia con la que puedo imaginar que se produce un acontecimiento como resultado de una cadena de acontecimientos (con cierto rigor/modelización, por supuesto). Si tengo muchos datos, estupendo. Si no los tengo, trataré de descomponer la hipótesis en una cadena de acontecimientos y utilizaré los datos que tengo (anecdóticos o de "sentido común", según sea necesario) para evaluar la frecuencia con la que me imagino que se produce ese acontecimiento.

Perdón por la extensión del mensaje, pero es una gran pregunta.

4voto

Dipstick Puntos 4869

Como @amoeba notado, tenemos la definición frecuencial de probabilidad y frecuentista estadísticas . Todas las fuentes que he visto hasta ahora dicen que la inferencia frecuencial se basa en la definición frecuencial de la probabilidad, es decir, entendiéndola como límite en proporción dado un número infinito de sorteos aleatorios (como ya advirtió @fcop y @Aksakal citando a Kolmogorov)

$$ P(A) = \lim_{n\to\infty} \frac{n_A}{n} $$

Así que, básicamente, existe la noción de una población de la que podemos tomar muestras de forma repetible. La misma idea se utiliza en la inferencia frecuentista. He revisado algunos artículos clásicos, por ejemplo, de Jerzy Neyman para seguir los fundamentos teóricos de la estadística frecuentista. En 1937 Neyman escribió

( ia ) El estadístico se ocupa de una población, $\pi$ que por una u otra razón no puede ser estudiado exhaustivamente. Sólo es posible posible extraer una muestra de esta población que pueda ser estudiada en estudiarse en detalle y utilizarse para formarse una opinión sobre los valores de ciertas constantes que describen las propiedades de la población $\pi$ . En Por ejemplo, se puede desear calcular aproximadamente la media de un carácter que poseen los individuos que forman la población $\pi$ etc.
( ib ) Alternativamente, el estadístico puede estar preocupado por de ciertos experimentos que, si se repiten en condiciones aparentemente idénticas idénticas, dan resultados diferentes. Tales experimentos se denominan experimentos aleatorios aleatorios [...]
En los dos casos descritos, el problema con el que se estadístico es el problema de la estimación. Este problema consiste en determinar qué operaciones aritméticas deben realizarse operaciones aritméticas sobre los datos de observación para obtener un resultado resultado, llamado estimación, que presumiblemente no difiere mucho del el verdadero valor del carácter numérico, ya sea de la población $\pi$ como en ( ia ), o de los experimentos aleatorios, como en ( ib ). [...]
En ( ia ) hablamos de un estadístico que extrae una muestra de la población estudiada.

En otro trabajo (Neyman, 1977), advierte que la evidencia proporcionada en los datos necesita ser verificada mediante la observación de la naturaleza repetida del fenómeno estudiado:

Normalmente, la "verificación" o "validación" de un modelo adivinado consiste en deducir algunas de sus consecuencias frecuenciales en situaciones no estudiadas empíricamente con anterioridad, y luego en realizar experimentos apropiados para ver si sus resultados son consistentes con las predicciones. Muy generalmente, el primer intento de verificación es negativo: las frecuencias observadas de los distintos resultados del experimentos no concuerdan con el modelo. Sin embargo, en algunas afortunadas ocasiones hay un acuerdo razonable y se siente la satisfacción de de haber "entendido" el fenómeno, al menos de forma general. Más tarde, invariablemente, aparecen nuevos hallazgos empíricos que indican la que indican la inadecuación del modelo original y exigen su abandono o modificación. modificación. Y ésta es la historia de la ciencia.

y en otro trabajo Neyman y Pearson (1933) escriben sobre las muestras aleatorias extraídas de una población fija

En la práctica estadística habitual, cuando se describen los hechos observados como "muestras", y las hipótesis se refieren a las "poblaciones", para las que las muestras, los caracteres de las muestras, o como los llamaremos denominaremos criterios, que se han utilizado para la comprobación de las hipótesis, parecen estar fijados a menudo por una feliz intuición.

La estadística frecuencial en este contexto formaliza el razonamiento científico en el que se reúnen pruebas, luego se extraen nuevas muestras para verificar los hallazgos iniciales y, a medida que acumulamos más pruebas, nuestro estado de conocimiento se cristaliza. De nuevo, tal y como describe Neyman (1977), el proceso sigue los siguientes pasos

( i ) Establecimiento empírico de una relación aparentemente estable a largo plazo frecuencias (o "frecuencias" para abreviar) de los acontecimientos que se consideran interesantes a medida que se desarrollan en la naturaleza.
( ii ) Adivinar y luego verificar el mecanismo de la casualidad", cuyo funcionamiento repetido produce la frecuencias observadas. Se trata de un problema de "probabilidad frecuentista frecuencial". A veces, este paso se denomina "construcción de modelos". Naturalmente, el mecanismo de azar adivinado es hipotético.
( iii ) Utilizar el hipotético mecanismo de azar del fenómeno estudiado para deducir reglas para ajustar nuestras acciones (o "decisiones") a las observaciones para asegurar la mayor "medida" de "éxito". [...] el deducción de las "reglas de ajuste de nuestras acciones" es un problema de las matemáticas, concretamente de la estadística matemática.

Frecuentadores plan su investigación teniendo en cuenta la naturaleza aleatoria de los datos y la idea de repetidas extracciones de una población fija, ellos diseñar sus métodos basado en él, y utilizarlo para verificar sus resultados (Neyman y Pearson, 1933),

Sin esperar saber si cada hipótesis por separado es verdadera o falsa, podemos buscar reglas que rijan nuestro comportamiento con respecto a que nos aseguren que, a lo largo de la experiencia, no nos equivocaremos con demasiada frecuencia. experiencia, no nos equivocaremos con demasiada frecuencia.

Esto está relacionado con el principio de muestreo repetido (Cox y Hinkley, 1974):

(ii) Principio de muestreo repetido fuerte
Según el principio de muestreo repetido fuerte, los procedimientos estadísticos deben ser evaluados por su comportamiento en repeticiones hipotéticas en las mismas condiciones. Esto tiene dos facetas. Las medidas de incertidumbre deben ser interpretarse como frecuencias hipotéticas en repeticiones a largo plazo; Los criterios de optimización deben formularse en términos de comportamiento sensible comportamiento sensible en las repeticiones hipotéticas.
El argumento para ello es que asegura un significado físico para las cantidades que calculamos y que asegura una estrecha relación entre el análisis que hacemos y la modelo subyacente que se considera que representa el "verdadero" estado de estado de cosas.

(iii) Principio de muestreo repetido débil
La versión débil del principio de muestreo repetido exige que no sigamos procedimientos que para algunos posibles valores de los parámetros darían, en repeticiones hipotéticas, conclusiones engañosas la mayoría de las veces.

Por el contrario, cuando se utiliza la máxima verosimilitud nos preocupamos por la muestra que tenemos y en el caso bayesiano hacemos la inferencia basada en la muestra y nuestro antecedentes y a medida que aparecen nuevos datos podemos realizar una actualización bayesiana. En ambos casos, la idea del muestreo repetido no es crucial. Los frecuentadores sólo se basan en los datos que tienen (como se ha observado en @WBT ), pero teniendo en cuenta que es algo aleatorio y que debe pensarse como parte de un proceso de muestreo repetido de la población (recordemos, por ejemplo, cómo intervalos de confianza están definidos).

En el caso frecuencial la idea de muestreo repetido nos permite cuantificar la incertidumbre (en estadística) y nos permite interpretar los acontecimientos de la vida real en términos de probabilidad .


Como nota al margen, nótese que ni Neyman (Lehmann, 1988), ni Pearson (Mayo, 1992) eran tan frecuentistas puros como podríamos imaginar que eran. Por ejemplo, Neyman (1977) propone utilizar el Bayesiano Empírico y la Máxima Verosimilitud para la estimación puntual. Por otro lado (Mayo, 1992),

en la respuesta de Pearson (1955) a Fisher (y en otras partes de su obra) es que para los contextos científicos Pearson rechaza tanto la baja a largo plazo probabilidad de error a largo plazo [...]

Así que parece que es difícil encontrar puro frecuentistas incluso entre los padres fundadores.


Neyman, J, y Pearson, E.S. (1933). Sobre el problema de las pruebas más eficientes de las hipótesis estadísticas. Philosophical Transactions of the Royal Society A: Mathematical, Physical and Engineering Sciences. 231 (694-706): 289-337.

Neyman, J. (1937). Esbozo de una teoría de la estimación estadística basada en la teoría clásica de la probabilidad. Phil. Trans. R. Soc. Lond. A. 236: 333-380.

Neyman, J. (1977). Probabilidad frecuentista y estadística frecuentista. Synthese, 36(1), 97-131.

Mayo, D. G. (1992). ¿Rechazó Pearson la filosofía estadística de Neyman-Pearson? Synthese, 90(2), 233-262.

Cox, D. R. y Hinkley, D. V. (1974). Theoretical Statistics. Chapman and Hall.

Lehmann, E. (1988). Jerzy Neyman, 1894 - 1981. Informe técnico nº 155. Departamento de Estadística, Universidad de California.

3voto

Physics Moron Puntos 435

"Frequentists vs. Bayesians" de XKCD (bajo CC-BY-NC 2.5 ), haga clic para discutir:

'Detector! What would the Bayesian statistician say if I asked him whether the--'  roll  'I AM A NEUTRINO DETECTOR, NOT A LABYRINTH GUARD. SERIOUSLY, DID YOUR BRAIN FALL OUT?'  roll  '... yes.'

El punto general de la filosofía frecuentista que se ilustra aquí es la creencia en sacar conclusiones sobre la probabilidad relativa de los sucesos basándose únicamente ("puramente") en los datos observados, sin "contaminar" ese proceso de estimación con nociones preconcebidas sobre cómo deberían o no deberían ser las cosas. Al presentar una estimación de la probabilidad, el frecuentista no tiene en cuenta las creencias previas sobre la probabilidad de un suceso cuando hay observaciones disponibles para apoyar el cálculo de su probabilidad empírica. El frecuentista debe tener en cuenta esta información previa a la hora de decidir el umbral de actuación o conclusión.

Como Dikran Marsupial escribió en un conciso comentar a continuación "El punto valioso que la caricatura hace (tal vez sin intención) es que la ciencia es, de hecho, más compleja y no podemos simplemente aplicar el "ritual nulo" sin pensar en el conocimiento previo".

Por ejemplo, cuando se trata de determinar/declarar qué temas son "tendencia" en Facebook, los frecuentistas probablemente agradecerían el enfoque de recuento más puramente algorítmico que Facebook está que se desplaza hacia En lugar del antiguo modelo, en el que los empleados confeccionaban esa lista basándose en parte en sus propias perspectivas sobre los temas que consideraban que "debían" ser más importantes.

3voto

Uri Puntos 111

(Una observación, sólo tangencialmente relevante para la pregunta y el sitio).

Probabilidad se trata de la situación objetiva del individuo cosas . Las cosas no pueden tener intención y reciben sus estados del universo. Con una cosa, un acontecimiento (que le da su estatus) siempre habrá ocurrido: el acontecimiento ya está realizado, aunque todavía no haya sucedido realmente - el futuro pasado de una cosa, también llamado "destino" o contingencia.

De nuevo, con probabilidad, el hecho del evento - habiendo ocurrido aún o no, no importa - es ya está allí [a diferencia de la que significa que nunca es allí]; y como tal ya es innecesario y superfluo. El hecho debe ser descartado, y esa invalidación del mismo es lo que llamamos "el hecho es probable". Cualquier hecho sobre una cosa lleva en sí mismo su lado primitivo no convincente, o probabilidad del hecho (incluso el hecho realmente ocurrido - lo reconocemos por de incredulidad). Es inevitable que, hasta cierto punto, estemos "cansados de las cosas" psíquicamente. Por lo tanto, sólo queda cuantificar esa negación parcial de la facticidad, si se necesita un número. Una forma de cuantificar es contar . Otra es pesa . Un frecuentista lleva a cabo o imagina una serie de pruebas que tiene ante sí y a las que da la vuelta para ver si el acontecimiento se produce realmente; cuenta. Un bayesiano considera una serie de motivos psicológicos que se arrastran ante él y que tamiza; los sopesa como cosas. Ambos están ocupados con el juego mental de acusación/excusa. Fundamentalmente, no hay mucha diferencia entre ellos.

Posibilidad es sobre las potencialidades de yo en el mundo. La posibilidad es siempre mía (la posibilidad de que llueva es mi problema para optar por coger un paraguas o mojarme) y no concierne a un objeto (el que estoy considerando como posible o que tiene la posibilidad) sino al mundo entero para mí. La posibilidad es siempre 50/50 y es siempre convincente, porque implica - o pide antes o conlleva después - mi decisión de cómo comportarme. Las cosas en sí mismas no tienen intenciones y, por tanto, posibilidades. No debemos confundir nuestras posibilidades de estas cosas para nosotros con sus propias probabilidades de "determinismo estocástico". La probabilidad nunca puede ser "subjetiva" en el sentido humano.


Un lector observador puede sentir en la respuesta una indirecta enmascarada al brillante respuesta en este hilo, donde @amoeba dice que piensa "there are almost no frequentists of the [probability definition] kind (P-frequentists)" . Podría ser al revés: los definidores de la probabilidad bayesiana no existen como clase diferente. Porque, como he admitido, los bayesianos consideran los trozos de realidad de la misma manera que los frecuentistas: como series de hechos; sólo que estos hechos no son experimentos, sino recuerdos de "verdades" y "argumentos". Pero tales formas de conocimiento es un hecho y sólo puede contarse o pesarse. La probabilidad que erige no se sintetiza como subjetivo, es decir , anticipado ("bayesiano" para ser) a menos que el humano expectativa (posibilidad) entra en escena para entrometerse. Y @amoeba lo deja entrar ansiosamente cuando imagina como "la moneda se agotará y el Sol se convertirá en supernova".

-2voto

kev Puntos 124

Oh, he sido un frecuentador durante muchos años,
Y me he pasado todo el tiempo tocando los datos de oído,
Pero ahora vuelvo con Bayes en una gran tienda,
Y nunca más jugaré al frecuentador.

Porque no es un no nunca, no es un no nunca, no más,
¿Jugaré al frecuentador? ¡No, nunca, nunca más!

Entré en un laboratorio donde solía hacer consultas.
Me dieron algunos datos, y me dijeron "p eso para nosotros",
Le dije: "De ninguna manera, José", con una pequeña sonrisa,
Los valores P y los evidentes no se concilian.

Coro

He dicho que es su anterioridad lo que hay que iluminar,
Y los ojos del investigador se abrieron de par en par con deleite,
Dijo: "Mis opiniones previas son tan buenas como las del resto,
Y seguro que un factor de Bayes es lo que mejor funcionará".

Coro

Volveré con mis profesores, confesaré lo que he hecho,
Y pedirles que perdonen a su hijo pródigo,
Pero cuando me han perdonado, como muchas veces antes,
¡No volveré a jugar al frecuentador!

Coro

Y es no, no, nunca, no, nunca más,
¿Jugaré al frecuentador? ¡No, nunca, nunca más!

Fuente: A E Raftery, en The Bayesian Songbook, editado por B P Carlin, en http://www.biostat.umn.edu/ . Cantado con la melodía tradicional "The Wild Rover". Citado en Open University M347 Mathematical Statistics, Unit 9.

i-Ciencias.com

I-Ciencias es una comunidad de estudiantes y amantes de la ciencia en la que puedes resolver tus problemas y dudas.
Puedes consultar las preguntas de otros usuarios, hacer tus propias preguntas o resolver las de los demás.

Powered by:

X