34 votos

¿Quién utilizó/inventó por primera vez los valores p?

Estoy intentando escribir una serie de entradas en el blog sobre los valores p y he pensado que sería interesante volver al punto de partida, que parece ser el documento de Pearson de 1900. Si estás familiarizado con ese documento, recordarás que cubre las pruebas de bondad de ajuste.

Pearson es un poco flojo con su lenguaje cuando se trata de los valores p. Utiliza repetidamente el término "probabilidades" cuando describe cómo interpretar su valor p. Por ejemplo, en la página 168, al hablar de los resultados de la repetición de las tiradas de 12 dados, dice ...lo que nos lleva a P=.0000016, o la probabilidades son 62.499 a 1 contra ese sistema de desviación en una selección aleatoria. Con tal probabilidades sería razonable concluir que los dados muestran un sesgo hacia los puntos más altos. "

En este artículo, hace referencia a trabajos anteriores, incluido un libro de 1891 sobre mínimos cuadrados de Merriman.

Sin embargo, Pearson establece el cálculo de los valores p (en relación con la prueba de bondad de ajuste de chi-cuadrado).

¿Fue Pearson el primero en concebir los valores p? Cuando hago una búsqueda sobre los valores p, se menciona a Fisher, y su trabajo fue en la década de 1920.

Editado: y un agradecimiento por la mención de Laplace - no parece que abordara la hipótesis nula (Pearson parece hacerlo implícitamente, aunque nunca utilizó ese término en su documento de 1900). Pearson consideró la prueba de bondad de ajuste a partir de: suponiendo que los recuentos se derivan de un proceso insesgado, ¿cuál es la probabilidad de que los recuentos observados (y los recuentos más desviados) surjan de la distribución supuesta?

Su tratamiento de las probabilidades/probabilidades (convierte las probabilidades en probabilidades) sugiere que está trabajando con una idea implícita de la hipótesis nula. De manera crucial, también menciona que la probabilidad que surge del valor x^2 muestra las probabilidades "contra un sistema de desviaciones tan improbable o más improbable que éste" -lenguaje que reconocemos ahora- con respecto a sus valores p calculados.

¿Arbuthnot fue tan lejos?

Siéntase libre de poner sus comentarios como respuestas. Estaría bien ver un debate.

7 votos

Este artículo sugiere que fue utilizado por Laplace, lo que establecería un límite inferior: es.wikipedia.org/wiki/

10 votos

Se podría argumentar que Arbuthnot (1710) en Un argumento a favor de la Providencia Divina, tomado de la constante regularidad observada en los nacimientos de ambos sexos tal vez podría contar. Utiliza un modelo de moneda ("cruz y pila"), y primero calcula la probabilidad de obtener exactamente tantas caras como colas antes de señalar que las "probabilidades abarcarán algunos de los Términos próximos al medio, y se inclinarán hacia un lado u otro. Pero es muy improbable (si gobernara el mero azar) que nunca llegaran hasta los extremos"; podemos ver que se acerca a la noción de valor p.

4 votos

Curiosamente David en su lista jstor.org/stable/2685564?seq=1#page_scan_tab_contents sugiere que el término valor P fue utilizado por primera vez en 1943 por Deming en su libro "Statistical adjustment of data". Sé que usted busca el concepto, no el término, pero me ha parecido interesante ver cuándo apareció finalmente el término.

19voto

user164061 Puntos 281

Jacob Bernoulli (~1700) - John Arbuthnot (1710) - Nicolaus Bernoulli (1710) - Abraham de Moivre (1718)

El caso de Arbuthnot 1 ver explicación en la nota siguiente también puede leerse en la obra de De Moivre Doctrina del azar (1718) de la página 251-254 que amplía esta línea de pensamiento.

De Moivre da dos pasos/avances:

  1. La aproximación normal de una distribución Bernoulli, que ayuda a calcular fácilmente las probabilidades de que los resultados estén dentro o fuera de un determinado rango. En la sección anterior al ejemplo sobre el caso de Arbuthnot, de Moivre escribe sobre su aproximación (ahora llamada distribución gaussiana/normal) para la distribución de Bernoulli. Esta aproximación permite calcular fácilmente un valor p (lo que Arbuthnot no pudo hacer).

  2. Generalización del argumento de Arbuthnot. Menciona que "este método de razonamiento también puede aplicarse de forma útil en algunas otras investigaciones muy interesantes". (lo que puede dar crédito parcial a de Moivre por ver la aplicabilidad general del argumento)


  • Según de Moivre, Jacob Bernoulli escribió sobre este problema en su Ars Conjectandi . De Moivre lo denomina en inglés "Assigning the limits within which, by the repetition of experiments, the probability of an event may approach indefinitely to a probability given", pero el texto original de Bernouilli está en latín. No sé suficiente latín como para saber si Bernoulli estaba escribiendo sobre un concepto como el valor p o más bien la ley de los grandes números. Lo interesante es que Bernouilli afirma tener estas ideas desde hace 20 años (y además la obra de 1713 fue publicada después de su muerte 1705 por lo que parece preceder a la fecha de 1710 mencionada en los comentarios por @Glen_b para Arbuthnot).

  • Una fuente de inspiración para de Moivre fue Nicolaus Bernouilli, que en 1712/1713 hizo los cálculos para la probabilidad de que el número de niños nacidos no sea inferior a 7037 ni superior a 7363, cuando 14000 es el número de niños nacidos en total y la probabilidad para un niño es de 18/35.

    (Las cifras de este problema se basan en 80 años de estadísticas de Londres. Escribió sobre esto en cartas a Pierre Raymond de Montmort publicadas en la segunda edición (1713) de la obra de Montmort Ensayo de análisis sobre los juegos de azar .)

    Los cálculos, que no seguí del todo, dieron como resultado una probabilidad de 43,58 a 1. (Utilizando un ordenador que suma todos los términos de probabilidad de una binomial desde 7037 hasta 7363 obtengo 175:1, así que puede que haya interpretado mal su trabajo/cálculo).


1: John Arbuthnot escribió sobre este caso en Un argumento a favor de la providencia divina, tomado de la regularidad constante observada en los nacimientos de ambos sexos (1710).

Explicación del argumento de Arbuthnot: la proporción de nacimientos de niños y niñas es notablemente diferente de la media. No calcula exactamente el valor p (que no es su objetivo), sino que utiliza la probabilidad de obtener chicos>chicas 82 veces seguidas $$\frac{1}{2}^{82} \sim \frac{1}{4 \,8360\,0000\,0000\,0000\,0000\,0000}$$ argumentando que este número sería aún más pequeño si se tiene en cuenta que se podría tomar un rango menor y que sucedió más que en sólo Londres y 82 años, termina en la conclusión de que es muy improbable y que esto debe ser alguna providencia (divina) para contrarrestar la mayor mortalidad entre los hombres para finalmente terminar con hombres y mujeres iguales.

Arbuthnot: entonces la Probabilidad de A estará cerca de una Cantidad infinitamente pequeña, al menos menor que cualquier Fracción asignable. De donde se deduce que es el Arte, y no el Azar, el que gobierna.

0 votos

Posiblemente Historia de la probabilidad inversa de Andrew Dale puede ayudar más. (Al buscar la traducción de Bernoulli, descubrí que tradujo el pasaje relevante mencionado por de Moivre). En los primeros tiempos, esta probabilidad inversa, que ahora se considera más una técnica bayesiana, podría haber sido una herramienta frecuentista en su interpretación y uso.

3voto

ShubhGOYAL5 Puntos 19

Tengo tres enlaces/argumentos de apoyo que respaldan la fecha ~1600-1650 para las estadísticas formalmente desarrolladas y mucho antes para simplemente la uso de probabilidades.

Si acepta pruebas de hipótesis como base, anterior a la probabilidad, entonces el Diccionario etimológico en línea ofrece esto:

" hipótesis (n.)

Década de 1590, "una afirmación particular"; Década de 1650, "una proposición, asumida y dada por sentada, utilizada como premisa", del francés medio hypothese y directamente del latín tardío hypothesis, del griego hypothesis "base, trabajo de base, fundamento", de ahí en uso extendido "base de un argumento, suposición", literalmente "una colocación debajo", de hypo- "debajo" (véase hypo-) + thesis "una colocación, proposición" (de la forma reduplicada de la raíz PIE *dhe- "poner, colocar"). Un término de la lógica; el sentido científico más restringido es de la década de 1640".

Wikcionario ofertas:

"Registrado desde 1596, del francés medio hypothese, del latín tardío hypothesis, del griego antiguo ὑπόθεσις (hupóthesis, "base, fundamento de un argumento, suposición"), literalmente "una colocación debajo", a su vez de ὑποτίθημι (hupotíthēmi, "pongo delante, sugiero"), de ὑπό (hupó, "debajo") + τίθημι (títhēmi, "pongo, coloco").

Hipótesis sustantiva (hipótesis en plural)

(ciencias) Utilizado de forma general, una conjetura provisional que explica una observación, un fenómeno o un problema científico que puede ponerse a prueba mediante más observaciones, investigaciones o experimentos. Como término científico, véase la cita adjunta. Compárese con la teoría y la cita que se da allí. citas ▲

  • 2005, Ronald H. Pine, http://www.csicop.org/specialarticles/show/intelligent_design_or_no_model_creationism , 15 de octubre de 2005:

    A demasiados de nosotros nos han enseñado en la escuela que un científico, al tratar de entender algo, primero se plantea una "hipótesis" (una conjetura o suposición, ni siquiera necesariamente una conjetura "educada"). ... [Pero la palabra "hipótesis" debería utilizarse, en ciencia, exclusivamente para una explicación razonada, sensata y basada en el conocimiento de por qué existe o se produce un fenómeno. Una hipótesis puede no haber sido probada todavía; puede haber sido probada ya; puede haber sido falsificada; puede no haber sido falsada todavía, aunque haya sido probada; o puede haber sido probada de infinidad de maneras innumerables sin ser falsada; y puede llegar a ser aceptada universalmente por la comunidad científica. Para entender la palabra "hipótesis", tal y como se utiliza en la ciencia, es necesario comprender los principios que subyacen a la Navaja de Occam y al pensamiento de Karl Popper en lo que respecta a la "falsabilidad", incluida la noción de que cualquier hipótesis científica respetable debe ser, en principio, "capaz de" ser falsa (si, de hecho, resulta ser falsa), pero nunca se puede demostrar que ninguna sea verdadera. Uno de los aspectos de una comprensión adecuada de la palabra "hipótesis", tal como se utiliza en la ciencia, es que sólo un porcentaje insignificante de hipótesis podría llegar a convertirse en una teoría".

En probabilidad y estadística Wikipedia ofertas:

" Recogida de datos

Muestreo

Cuando no pueden recogerse datos censales completos, los estadísticos recogen datos por muestreo elaborando diseños de experimentos específicos y muestras de encuestas. La propia estadística también proporciona herramientas de predicción y previsión mediante modelos estadísticos. La idea de hacer inferencias basadas en datos muestreados comenzó a mediados del siglo XVI en relación con la estimación de poblaciones y el desarrollo de los precursores de los seguros de vida . (Referencia: Wolfram, Stephen (2002). A New Kind of Science. Wolfram Media, Inc. p. 1082. ISBN 1-57955-008-8).

Para utilizar una muestra como guía de una población entera, es importante que represente realmente a la población total. El muestreo representativo garantiza que las inferencias y conclusiones puedan extenderse con seguridad desde la muestra al conjunto de la población. Un problema importante consiste en determinar hasta qué punto la muestra elegida es realmente representativa. La estadística ofrece métodos para estimar y corregir cualquier sesgo en la muestra y en los procedimientos de recogida de datos. También existen métodos de diseño experimental para los experimentos que pueden atenuar estos problemas al inicio de un estudio, reforzando su capacidad para discernir verdades sobre la población.

La teoría del muestreo forma parte de la disciplina matemática de la teoría de la probabilidad. La probabilidad se utiliza en la estadística matemática para estudiar las distribuciones muestrales de las estadísticas de las muestras y, en general, las propiedades de los procedimientos estadísticos. El uso de cualquier método estadístico es válido cuando el sistema o la población considerada satisface los supuestos del método. La diferencia de punto de vista entre la teoría clásica de la probabilidad y la teoría del muestreo es, a grandes rasgos, que la teoría de la probabilidad parte de los parámetros dados de una población total para deducir las probabilidades que corresponden a las muestras. La inferencia estadística, sin embargo, se mueve en la dirección opuesta, es decir, infiere inductivamente a partir de las muestras los parámetros de una población mayor o total .

De "Wolfram, Stephen (2002). A New Kind of Science. Wolfram Media, Inc. p. 1082":

" Análisis estadístico

- La historia. En la antigüedad ya se realizaban algunos cálculos de probabilidades para los juegos de azar. A partir de los años 1200 resultados cada vez más elaborados basados en la enumeración combinatoria de probabilidades fueron obtenidos por místicos y matemáticos, con métodos sistemáticamente correctos que se desarrollaron a mediados del siglo XVI y principios del XVII . La idea de hacer inferencias a partir de datos muestreados surgió a mediados del siglo XVI en relación con la estimación de poblaciones y el desarrollo de los precursores de los seguros de vida. El método de promediación para corregir lo que se suponía eran errores aleatorios de observación comenzó a utilizarse, principalmente en astronomía, a mediados del siglo XVII, mientras que el ajuste por mínimos cuadrados y la noción de las distribuciones de probabilidad se establecieron en torno a 1800. Los modelos probabilísticos basados en las variaciones aleatorias entre individuos empezaron a utilizarse en biología a mediados del siglo XIX, y muchos de los métodos clásicos utilizados actualmente para el análisis estadístico se desarrollaron a finales del siglo XIX y principios del XX en el contexto de la investigación agrícola. En física, los modelos probabilísticos fueron fundamentales para la introducción de la mecánica estadística a finales del siglo XIX y la mecánica cuántica a principios del siglo XX. Los fundamentos del análisis estadístico han sido objeto de un intenso debate desde el año 1700, con una sucesión de argumentos bastante una sucesión de enfoques bastante específicos como los únicos capaces de sacar conclusiones imparciales de los datos".

Otras fuentes:

"Este informe, en términos principalmente no matemáticos, define el valor p, resume los orígenes históricos del enfoque del valor p para las pruebas de hipótesis, describe varias aplicaciones de p≤0,05 en el contexto de la investigación clínica, y discute la aparición de p≤5×10-8 y otros valores como umbrales para los análisis estadísticos genómicos."

La sección "Orígenes históricos" dice:

"Los trabajos publicados sobre el uso de conceptos de probabilidad para comparar datos con una hipótesis científica se remontan a siglos atrás. A principios del siglo XVIII, por ejemplo, el médico John Arbuthnot analizó los datos sobre los bautizos en Londres durante los años 1629-1710 y observó que el número de nacimientos masculinos superaba al de los femeninos en cada uno de los años estudiados. Informó de que $^{[1]}$ que si se asume que el equilibrio de nacimientos de hombres y mujeres se basa en el azar, entonces la probabilidad de observar un exceso de hombres durante 82 años consecutivos es de 0,582=2×10-25, o sea, menos de una posibilidad entre un septillón (es decir, una entre un trillón).

[1]. Arbuthnott J. An argument for divine Providence, taken from the constant regularity observ'd in the births of both sexes. Phil Trans 1710;27:186-90. doi:10.1098/rstl.1710.0011 publicado el 1 de enero de 1710

"Los valores P llevan mucho tiempo ligados a la medicina y la estadística. John Arbuthnot y Daniel Bernoulli eran médicos, además de matemáticos, y sus análisis de la proporción de sexos al nacer (Arbuthnot) y de la inclinación de las órbitas de los planetas (Bernoulli) proporcionan los dos primeros ejemplos más famosos de pruebas de significación $^{1–4}$ . Si su omnipresencia en las revistas médicas es la norma por la que se les juzga, los valores P también son extremadamente populares entre la profesión médica. Por otro lado, son objeto de críticas periódicas por parte de los estadísticos $^{5–7}$ y sólo a regañadientes defendió $^8$ . Por ejemplo, hace una docena de años, los prominentes bioestadísticos, el difunto Martin Gardner y Doug Altman $^9$ junto con otros colegas, montó una exitosa campaña para persuadir al British Medical Journal de que pusiera menos énfasis en los valores P y más en los intervalos de confianza. La revista Epidemiology los ha prohibido por completo. Recientemente, incluso han aparecido ataques en la prensa popular $^{10,11}$ . Así pues, los valores P parecen ser un tema apropiado para el Journal of Epidemiology and Biostatistics. Este ensayo representa una visión personal de lo que, si es que hay algo que se pueda decir para defenderlos.

Sólo ofreceré una defensa limitada de los valores P. ...".

Referencias

1 Hald A. A history of probability and statistics and their appli- cations before 1750. New York: Wiley, 1990.
2 Shoesmith E, Arbuthnot, J. In: Johnson, NL, Kotz, S, editors. Leading personalities in statistical sciences. New York: Wiley, 1997:7–10. 
3 Bernoulli, D. Sur le probleme propose pour la seconde fois par l’Acadamie Royale des Sciences de Paris. In: Speiser D,
editor. Die Werke von Daniel Bernoulli, Band 3, Basle:
Birkhauser Verlag, 1987:303–26. 
4 Arbuthnot J. An argument for divine providence taken from
the constant regularity observ’d in the births of both sexes. Phil Trans R Soc 1710;27:186–90. 
5 Freeman P. The role of P-values in analysing trial results. Statist Med 1993;12:1443 –52. 
6 Anscombe FJ. The summarizing of clinical experiments by
significance levels. Statist Med 1990;9:703 –8.
7 Royall R. The effect of sample size on the meaning of signifi- cance tests. Am Stat 1986;40:313 –5.
8 Senn SJ. Discussion of Freeman’s paper. Statist Med
1993;12:1453 –8.
9 Gardner M, Altman D. Statistics with confidence. Br Med J
1989.
10 Matthews R. The great health hoax. Sunday Telegraph 13
September, 1998. 
11 Matthews R. Flukes and flaws. Prospect 20–24, November 1998.

@Martijn Weterings : "¿Fue Pearson en 1900 el renacimiento o este concepto (frecuentista) apareció antes? ¿Cómo pensaba Jacob Bernoulli sobre su "teorema de oro" en un sentido frecuentista o en un sentido bayesiano (qué dice el Ars Conjectandi y hay más fuentes)?

La Asociación Americana de Estadística tiene una página web sobre la Historia de las estadísticas que, junto con esta información, tiene un cartel (reproducido en parte a continuación) titulado "Cronología de las estadísticas".

  • 2 d.C.: Se conservan pruebas de un censo realizado durante la dinastía Han.

  • 1500s: Girolamo Cardano calcula las probabilidades de diferentes tiradas de dados.

  • 1600s: Edmund Halley relaciona la tasa de mortalidad con la edad y elabora tablas de mortalidad.

  • 1700s: Thomas Jefferson dirige el primer censo de Estados Unidos.

  • 1839: Se crea la American Statistical Association.

  • 1894: Karl Pearson introduce el término "desviación estándar".

  • 1935: R.A. Fisher publica el Diseño de Experimentos.

Partial Timeline of Statistics

En la sección "Historia" de la página web de Wikipedia " Ley de los grandes números ", explica:

"El matemático italiano Gerolamo Cardano (1501-1576) se afirma sin pruebas que las precisiones de las estadísticas empíricas tienden a mejorar con el número de ensayos. Esto se formalizó como una ley de los grandes números. Una forma especial de la LLN (para una variable aleatoria binaria) fue demostrada por primera vez por Jacob Bernoulli. Tardó más de 20 años en desarrollar una prueba matemática suficientemente rigurosa que se publicó en su Ars Conjectandi (El arte de conjeturar) en 1713. Lo denominó "Teorema de Oro", pero pasó a ser conocido como "Teorema de Bernoulli". No hay que confundirlo con el principio de Bernoulli, llamado así por el sobrino de Jacob Bernoulli, Daniel Bernoulli. En 1837, S.D. Poisson lo describió con el nombre de "la loi des grands nombres" ("La ley de los grandes números"). A partir de entonces, se conoció con ambos nombres, pero la "Ley de los grandes números" es la más utilizada.

Después de que Bernoulli y Poisson publicaran sus esfuerzos, otros matemáticos también contribuyeron a perfeccionar la ley, como Chebyshev, Markov, Borel, Cantelli y Kolmogorov y Khinchin".


Pregunta: "¿Fue Pearson la primera persona que concibió los valores p?"

No, probablemente no.

En " Declaración de la ASA sobre los valores p: Contexto, proceso y propósito " (09 Jun 2016) de Wasserstein y Lazar, doi: 10.1080/00031305.2016.1154108 hay un oficial declaración sobre la definición del valor p (que, sin duda, no es acordada por todas las disciplinas que utilizan, o rechazan, los valores p) que dice

" . ¿Qué es un valor p?

Informalmente, un valor p es la probabilidad, bajo un modelo estadístico específico, de que un resumen estadístico de los datos (por ejemplo, la diferencia de la media muestral entre dos grupos comparados) sea igual o más extremo que su valor observado.

3. Principios

...

6. Por sí mismo, un valor p no proporciona una buena medida de evidencia respecto a un modelo o hipótesis.

Los investigadores deben reconocer que un valor p sin contexto u otras pruebas proporciona una información limitada. Por ejemplo, un valor p cercano a 0,05 tomado por sí mismo sólo ofrece una débil evidencia contra la hipótesis nula. Del mismo modo, un valor p relativamente grande no implica una prueba a favor de la hipótesis nula; muchas otras hipótesis pueden ser igual o más coherentes con los datos observados. Por estas razones, el análisis de los datos no debe terminar con el cálculo de un valor p cuando otros enfoques son apropiados y factibles".

Rechazo de la hipótesis nula probablemente ocurrió mucho antes de Pearson.

La página de Wikipedia sobre primeros ejemplos de pruebas de hipótesis nulas estados:

Primeras elecciones de la hipótesis nula

Paul Meehl ha argumentado que la importancia epistemológica de la elección de la hipótesis nula ha pasado desapercibida. Cuando la hipótesis nula es predicha por la teoría, un experimento más preciso será una prueba más severa de la teoría subyacente. Cuando la hipótesis nula es "ninguna diferencia" o "ningún efecto", un experimento más preciso es una prueba menos severa de la teoría que motivó la realización del experimento. Por lo tanto, puede ser útil un examen de los orígenes de esta última práctica:

1778: Pierre Laplace compara las tasas de natalidad de niños y niñas en varias ciudades europeas. Afirma: "es natural concluir que estas posibilidades están casi en la misma proporción". Por lo tanto, la hipótesis nula de Laplace es que las tasas de natalidad de niños y niñas deberían ser iguales dada la "sabiduría convencional".

1900: Karl Pearson desarrolla la prueba de chi-cuadrado para determinar "si una forma dada de curva de frecuencias describirá efectivamente las muestras extraídas de una población dada." Así, la hipótesis nula es que una población es descrita por alguna distribución predicha por la teoría. Utiliza como ejemplo los números de cinco y seis en los datos de lanzamiento de dados de Weldon.

1904: Karl Pearson desarrolla el concepto de "contingencia" para determinar si los resultados son independientes de un determinado factor categórico. Aquí la hipótesis nula es por defecto que dos cosas no están relacionadas (por ejemplo, la formación de cicatrices y las tasas de mortalidad por viruela). En este caso, la hipótesis nula ya no está predicha por la teoría o la sabiduría convencional, sino que es el principio de indiferencia que llevó a Fisher y a otros a descartar el uso de las "probabilidades inversas".

A pesar de que a una persona se le atribuye el rechazo de una hipótesis nula, no creo que sea razonable etiquetarla como el " descubra del escepticismo basado en una débil posición matemática".

0 votos

He estado buscando la obra de Daniel Bernouilli (la segunda edición es de 1808, pero la obra en sí es de 1734) "RECHERCHES PHYSYQUES ET ASTRONOMIQUES, sur le problème proposé pour la seconde fois par l'Académie Royale des Sciences de Paris : Cuál es la causa física de la inclinación de los planos de las Órbitas de los Planetas con respecto al plano del Ecuador de la revolución del Sol alrededor de su eje; y de dónde proviene que las inclinaciones de estas Órbitas sean diferentes entre sí. e-rara.ch/zut/wihibe/content/titleinfo/13426461

0 votos

Menciona algo así como la probabilidad de que la inclinación de los seis planetas se produzca en el mismo de los 17 sectores, que es $1:17^5$ . Se trata del cálculo de una probabilidad, pero no tanto de un valor p.

i-Ciencias.com

I-Ciencias es una comunidad de estudiantes y amantes de la ciencia en la que puedes resolver tus problemas y dudas.
Puedes consultar las preguntas de otros usuarios, hacer tus propias preguntas o resolver las de los demás.

Powered by:

X