Tengo tres enlaces/argumentos de apoyo que respaldan la fecha ~1600-1650 para las estadísticas formalmente desarrolladas y mucho antes para simplemente la uso de probabilidades.
Si acepta pruebas de hipótesis como base, anterior a la probabilidad, entonces el Diccionario etimológico en línea ofrece esto:
" hipótesis (n.)
Década de 1590, "una afirmación particular"; Década de 1650, "una proposición, asumida y dada por sentada, utilizada como premisa", del francés medio hypothese y directamente del latín tardío hypothesis, del griego hypothesis "base, trabajo de base, fundamento", de ahí en uso extendido "base de un argumento, suposición", literalmente "una colocación debajo", de hypo- "debajo" (véase hypo-) + thesis "una colocación, proposición" (de la forma reduplicada de la raíz PIE *dhe- "poner, colocar"). Un término de la lógica; el sentido científico más restringido es de la década de 1640".
Wikcionario ofertas:
"Registrado desde 1596, del francés medio hypothese, del latín tardío hypothesis, del griego antiguo ὑπόθεσις (hupóthesis, "base, fundamento de un argumento, suposición"), literalmente "una colocación debajo", a su vez de ὑποτίθημι (hupotíthēmi, "pongo delante, sugiero"), de ὑπό (hupó, "debajo") + τίθημι (títhēmi, "pongo, coloco").
Hipótesis sustantiva (hipótesis en plural)
(ciencias) Utilizado de forma general, una conjetura provisional que explica una observación, un fenómeno o un problema científico que puede ponerse a prueba mediante más observaciones, investigaciones o experimentos. Como término científico, véase la cita adjunta. Compárese con la teoría y la cita que se da allí. citas ▲
-
2005, Ronald H. Pine, http://www.csicop.org/specialarticles/show/intelligent_design_or_no_model_creationism , 15 de octubre de 2005:
A demasiados de nosotros nos han enseñado en la escuela que un científico, al tratar de entender algo, primero se plantea una "hipótesis" (una conjetura o suposición, ni siquiera necesariamente una conjetura "educada"). ... [Pero la palabra "hipótesis" debería utilizarse, en ciencia, exclusivamente para una explicación razonada, sensata y basada en el conocimiento de por qué existe o se produce un fenómeno. Una hipótesis puede no haber sido probada todavía; puede haber sido probada ya; puede haber sido falsificada; puede no haber sido falsada todavía, aunque haya sido probada; o puede haber sido probada de infinidad de maneras innumerables sin ser falsada; y puede llegar a ser aceptada universalmente por la comunidad científica. Para entender la palabra "hipótesis", tal y como se utiliza en la ciencia, es necesario comprender los principios que subyacen a la Navaja de Occam y al pensamiento de Karl Popper en lo que respecta a la "falsabilidad", incluida la noción de que cualquier hipótesis científica respetable debe ser, en principio, "capaz de" ser falsa (si, de hecho, resulta ser falsa), pero nunca se puede demostrar que ninguna sea verdadera. Uno de los aspectos de una comprensión adecuada de la palabra "hipótesis", tal como se utiliza en la ciencia, es que sólo un porcentaje insignificante de hipótesis podría llegar a convertirse en una teoría".
En probabilidad y estadística Wikipedia ofertas:
" Recogida de datos
Muestreo
Cuando no pueden recogerse datos censales completos, los estadísticos recogen datos por muestreo elaborando diseños de experimentos específicos y muestras de encuestas. La propia estadística también proporciona herramientas de predicción y previsión mediante modelos estadísticos. La idea de hacer inferencias basadas en datos muestreados comenzó a mediados del siglo XVI en relación con la estimación de poblaciones y el desarrollo de los precursores de los seguros de vida . (Referencia: Wolfram, Stephen (2002). A New Kind of Science. Wolfram Media, Inc. p. 1082. ISBN 1-57955-008-8).
Para utilizar una muestra como guía de una población entera, es importante que represente realmente a la población total. El muestreo representativo garantiza que las inferencias y conclusiones puedan extenderse con seguridad desde la muestra al conjunto de la población. Un problema importante consiste en determinar hasta qué punto la muestra elegida es realmente representativa. La estadística ofrece métodos para estimar y corregir cualquier sesgo en la muestra y en los procedimientos de recogida de datos. También existen métodos de diseño experimental para los experimentos que pueden atenuar estos problemas al inicio de un estudio, reforzando su capacidad para discernir verdades sobre la población.
La teoría del muestreo forma parte de la disciplina matemática de la teoría de la probabilidad. La probabilidad se utiliza en la estadística matemática para estudiar las distribuciones muestrales de las estadísticas de las muestras y, en general, las propiedades de los procedimientos estadísticos. El uso de cualquier método estadístico es válido cuando el sistema o la población considerada satisface los supuestos del método. La diferencia de punto de vista entre la teoría clásica de la probabilidad y la teoría del muestreo es, a grandes rasgos, que la teoría de la probabilidad parte de los parámetros dados de una población total para deducir las probabilidades que corresponden a las muestras. La inferencia estadística, sin embargo, se mueve en la dirección opuesta, es decir, infiere inductivamente a partir de las muestras los parámetros de una población mayor o total .
De "Wolfram, Stephen (2002). A New Kind of Science. Wolfram Media, Inc. p. 1082":
" Análisis estadístico
- La historia. En la antigüedad ya se realizaban algunos cálculos de probabilidades para los juegos de azar. A partir de los años 1200 resultados cada vez más elaborados basados en la enumeración combinatoria de probabilidades fueron obtenidos por místicos y matemáticos, con métodos sistemáticamente correctos que se desarrollaron a mediados del siglo XVI y principios del XVII . La idea de hacer inferencias a partir de datos muestreados surgió a mediados del siglo XVI en relación con la estimación de poblaciones y el desarrollo de los precursores de los seguros de vida. El método de promediación para corregir lo que se suponía eran errores aleatorios de observación comenzó a utilizarse, principalmente en astronomía, a mediados del siglo XVII, mientras que el ajuste por mínimos cuadrados y la noción de las distribuciones de probabilidad se establecieron en torno a 1800. Los modelos probabilísticos basados en las variaciones aleatorias entre individuos empezaron a utilizarse en biología a mediados del siglo XIX, y muchos de los métodos clásicos utilizados actualmente para el análisis estadístico se desarrollaron a finales del siglo XIX y principios del XX en el contexto de la investigación agrícola. En física, los modelos probabilísticos fueron fundamentales para la introducción de la mecánica estadística a finales del siglo XIX y la mecánica cuántica a principios del siglo XX. Los fundamentos del análisis estadístico han sido objeto de un intenso debate desde el año 1700, con una sucesión de argumentos bastante una sucesión de enfoques bastante específicos como los únicos capaces de sacar conclusiones imparciales de los datos".
Otras fuentes:
"Este informe, en términos principalmente no matemáticos, define el valor p, resume los orígenes históricos del enfoque del valor p para las pruebas de hipótesis, describe varias aplicaciones de p≤0,05 en el contexto de la investigación clínica, y discute la aparición de p≤5×10-8 y otros valores como umbrales para los análisis estadísticos genómicos."
La sección "Orígenes históricos" dice:
"Los trabajos publicados sobre el uso de conceptos de probabilidad para comparar datos con una hipótesis científica se remontan a siglos atrás. A principios del siglo XVIII, por ejemplo, el médico John Arbuthnot analizó los datos sobre los bautizos en Londres durante los años 1629-1710 y observó que el número de nacimientos masculinos superaba al de los femeninos en cada uno de los años estudiados. Informó de que $^{[1]}$ que si se asume que el equilibrio de nacimientos de hombres y mujeres se basa en el azar, entonces la probabilidad de observar un exceso de hombres durante 82 años consecutivos es de 0,582=2×10-25, o sea, menos de una posibilidad entre un septillón (es decir, una entre un trillón).
[1]. Arbuthnott J. An argument for divine Providence, taken from the constant regularity observ'd in the births of both sexes. Phil Trans 1710;27:186-90. doi:10.1098/rstl.1710.0011 publicado el 1 de enero de 1710
"Los valores P llevan mucho tiempo ligados a la medicina y la estadística. John Arbuthnot y Daniel Bernoulli eran médicos, además de matemáticos, y sus análisis de la proporción de sexos al nacer (Arbuthnot) y de la inclinación de las órbitas de los planetas (Bernoulli) proporcionan los dos primeros ejemplos más famosos de pruebas de significación $^{1–4}$ . Si su omnipresencia en las revistas médicas es la norma por la que se les juzga, los valores P también son extremadamente populares entre la profesión médica. Por otro lado, son objeto de críticas periódicas por parte de los estadísticos $^{5–7}$ y sólo a regañadientes defendió $^8$ . Por ejemplo, hace una docena de años, los prominentes bioestadísticos, el difunto Martin Gardner y Doug Altman $^9$ junto con otros colegas, montó una exitosa campaña para persuadir al British Medical Journal de que pusiera menos énfasis en los valores P y más en los intervalos de confianza. La revista Epidemiology los ha prohibido por completo. Recientemente, incluso han aparecido ataques en la prensa popular $^{10,11}$ . Así pues, los valores P parecen ser un tema apropiado para el Journal of Epidemiology and Biostatistics. Este ensayo representa una visión personal de lo que, si es que hay algo que se pueda decir para defenderlos.
Sólo ofreceré una defensa limitada de los valores P. ...".
Referencias
1 Hald A. A history of probability and statistics and their appli- cations before 1750. New York: Wiley, 1990.
2 Shoesmith E, Arbuthnot, J. In: Johnson, NL, Kotz, S, editors. Leading personalities in statistical sciences. New York: Wiley, 1997:7–10.
3 Bernoulli, D. Sur le probleme propose pour la seconde fois par l’Acadamie Royale des Sciences de Paris. In: Speiser D,
editor. Die Werke von Daniel Bernoulli, Band 3, Basle:
Birkhauser Verlag, 1987:303–26.
4 Arbuthnot J. An argument for divine providence taken from
the constant regularity observ’d in the births of both sexes. Phil Trans R Soc 1710;27:186–90.
5 Freeman P. The role of P-values in analysing trial results. Statist Med 1993;12:1443 –52.
6 Anscombe FJ. The summarizing of clinical experiments by
significance levels. Statist Med 1990;9:703 –8.
7 Royall R. The effect of sample size on the meaning of signifi- cance tests. Am Stat 1986;40:313 –5.
8 Senn SJ. Discussion of Freeman’s paper. Statist Med
1993;12:1453 –8.
9 Gardner M, Altman D. Statistics with confidence. Br Med J
1989.
10 Matthews R. The great health hoax. Sunday Telegraph 13
September, 1998.
11 Matthews R. Flukes and flaws. Prospect 20–24, November 1998.
@Martijn Weterings : "¿Fue Pearson en 1900 el renacimiento o este concepto (frecuentista) apareció antes? ¿Cómo pensaba Jacob Bernoulli sobre su "teorema de oro" en un sentido frecuentista o en un sentido bayesiano (qué dice el Ars Conjectandi y hay más fuentes)?
La Asociación Americana de Estadística tiene una página web sobre la Historia de las estadísticas que, junto con esta información, tiene un cartel (reproducido en parte a continuación) titulado "Cronología de las estadísticas".
-
2 d.C.: Se conservan pruebas de un censo realizado durante la dinastía Han.
-
1500s: Girolamo Cardano calcula las probabilidades de diferentes tiradas de dados.
-
1600s: Edmund Halley relaciona la tasa de mortalidad con la edad y elabora tablas de mortalidad.
-
1700s: Thomas Jefferson dirige el primer censo de Estados Unidos.
-
1839: Se crea la American Statistical Association.
-
1894: Karl Pearson introduce el término "desviación estándar".
-
1935: R.A. Fisher publica el Diseño de Experimentos.
En la sección "Historia" de la página web de Wikipedia " Ley de los grandes números ", explica:
"El matemático italiano Gerolamo Cardano (1501-1576) se afirma sin pruebas que las precisiones de las estadísticas empíricas tienden a mejorar con el número de ensayos. Esto se formalizó como una ley de los grandes números. Una forma especial de la LLN (para una variable aleatoria binaria) fue demostrada por primera vez por Jacob Bernoulli. Tardó más de 20 años en desarrollar una prueba matemática suficientemente rigurosa que se publicó en su Ars Conjectandi (El arte de conjeturar) en 1713. Lo denominó "Teorema de Oro", pero pasó a ser conocido como "Teorema de Bernoulli". No hay que confundirlo con el principio de Bernoulli, llamado así por el sobrino de Jacob Bernoulli, Daniel Bernoulli. En 1837, S.D. Poisson lo describió con el nombre de "la loi des grands nombres" ("La ley de los grandes números"). A partir de entonces, se conoció con ambos nombres, pero la "Ley de los grandes números" es la más utilizada.
Después de que Bernoulli y Poisson publicaran sus esfuerzos, otros matemáticos también contribuyeron a perfeccionar la ley, como Chebyshev, Markov, Borel, Cantelli y Kolmogorov y Khinchin".
Pregunta: "¿Fue Pearson la primera persona que concibió los valores p?"
No, probablemente no.
En " Declaración de la ASA sobre los valores p: Contexto, proceso y propósito " (09 Jun 2016) de Wasserstein y Lazar, doi: 10.1080/00031305.2016.1154108 hay un oficial declaración sobre la definición del valor p (que, sin duda, no es acordada por todas las disciplinas que utilizan, o rechazan, los valores p) que dice
" . ¿Qué es un valor p?
Informalmente, un valor p es la probabilidad, bajo un modelo estadístico específico, de que un resumen estadístico de los datos (por ejemplo, la diferencia de la media muestral entre dos grupos comparados) sea igual o más extremo que su valor observado.
3. Principios
...
6. Por sí mismo, un valor p no proporciona una buena medida de evidencia respecto a un modelo o hipótesis.
Los investigadores deben reconocer que un valor p sin contexto u otras pruebas proporciona una información limitada. Por ejemplo, un valor p cercano a 0,05 tomado por sí mismo sólo ofrece una débil evidencia contra la hipótesis nula. Del mismo modo, un valor p relativamente grande no implica una prueba a favor de la hipótesis nula; muchas otras hipótesis pueden ser igual o más coherentes con los datos observados. Por estas razones, el análisis de los datos no debe terminar con el cálculo de un valor p cuando otros enfoques son apropiados y factibles".
Rechazo de la hipótesis nula probablemente ocurrió mucho antes de Pearson.
La página de Wikipedia sobre primeros ejemplos de pruebas de hipótesis nulas estados:
Primeras elecciones de la hipótesis nula
Paul Meehl ha argumentado que la importancia epistemológica de la elección de la hipótesis nula ha pasado desapercibida. Cuando la hipótesis nula es predicha por la teoría, un experimento más preciso será una prueba más severa de la teoría subyacente. Cuando la hipótesis nula es "ninguna diferencia" o "ningún efecto", un experimento más preciso es una prueba menos severa de la teoría que motivó la realización del experimento. Por lo tanto, puede ser útil un examen de los orígenes de esta última práctica:
1778: Pierre Laplace compara las tasas de natalidad de niños y niñas en varias ciudades europeas. Afirma: "es natural concluir que estas posibilidades están casi en la misma proporción". Por lo tanto, la hipótesis nula de Laplace es que las tasas de natalidad de niños y niñas deberían ser iguales dada la "sabiduría convencional".
1900: Karl Pearson desarrolla la prueba de chi-cuadrado para determinar "si una forma dada de curva de frecuencias describirá efectivamente las muestras extraídas de una población dada." Así, la hipótesis nula es que una población es descrita por alguna distribución predicha por la teoría. Utiliza como ejemplo los números de cinco y seis en los datos de lanzamiento de dados de Weldon.
1904: Karl Pearson desarrolla el concepto de "contingencia" para determinar si los resultados son independientes de un determinado factor categórico. Aquí la hipótesis nula es por defecto que dos cosas no están relacionadas (por ejemplo, la formación de cicatrices y las tasas de mortalidad por viruela). En este caso, la hipótesis nula ya no está predicha por la teoría o la sabiduría convencional, sino que es el principio de indiferencia que llevó a Fisher y a otros a descartar el uso de las "probabilidades inversas".
A pesar de que a una persona se le atribuye el rechazo de una hipótesis nula, no creo que sea razonable etiquetarla como el " descubra del escepticismo basado en una débil posición matemática".
7 votos
Este artículo sugiere que fue utilizado por Laplace, lo que establecería un límite inferior: es.wikipedia.org/wiki/
10 votos
Se podría argumentar que Arbuthnot (1710) en Un argumento a favor de la Providencia Divina, tomado de la constante regularidad observada en los nacimientos de ambos sexos tal vez podría contar. Utiliza un modelo de moneda ("cruz y pila"), y primero calcula la probabilidad de obtener exactamente tantas caras como colas antes de señalar que las "probabilidades abarcarán algunos de los Términos próximos al medio, y se inclinarán hacia un lado u otro. Pero es muy improbable (si gobernara el mero azar) que nunca llegaran hasta los extremos"; podemos ver que se acerca a la noción de valor p.
4 votos
Curiosamente David en su lista jstor.org/stable/2685564?seq=1#page_scan_tab_contents sugiere que el término valor P fue utilizado por primera vez en 1943 por Deming en su libro "Statistical adjustment of data". Sé que usted busca el concepto, no el término, pero me ha parecido interesante ver cuándo apareció finalmente el término.
3 votos
Quién inventó podría ser difícil de averiguar. Pero el culpable del uso actual de los valores p es sin duda Fisher.
1 votos
Definimos el valor p como "la probabilidad de obtener un resultado dentro de un cierto rango (a menudo algún valor o más extremo para una estadística calculada como la utilizada por Pearson en 1900) dado que una determinada hipótesis es correcta"
0 votos
@MartijnWeterings sí, más que el concepto de probabilidad en sí.
0 votos
Pero se trata más bien de la definición "la probabilidad de que una medición se aleje de lo esperado". No tanto sobre 'es utilice en pruebas de hipótesis específicas"?
0 votos
@subhashc.davar mi comentario fue un poco confuso (pero sólo tengo 5 minutos para corregirlo) mezclando cosas. lo que quería decir era 'a menudo el valor observado o más extremo para alguna estadística calculada'. El sentido de mi pregunta era si hablamos de inventar el 'cálculo del valor p' o de inventar 'el valor p como herramienta en el contraste de hipótesis'.
0 votos
@CarlosCinelli La historia es complicada, pero difamar a Fisher sin calificativos es injusto. Fue firme al instar a que $P$ -los valores ofrecen orientación al investigador, no reglas tajantes para la toma de decisiones.
0 votos
@mdewey Fui yo quien le contó a H.A. David (que lamentablemente ya no está entre nosotros) el uso literal que Deming hacía de " $P$ -valor", como tuvo a bien señalar en algún momento. Pero $P$ se remonta muy, muy atrás, como David y yo nos esforzamos en subrayar.