Lo que parece que te falta es la historia temprana. Puede consultar el documento de Fienberg (2006) ¿Cuándo se convirtió la inferencia bayesiana en "bayesiana"? . En primer lugar, observa que Thomas Bayes fue el primero que sugirió el uso de una prioridad uniforme:
En el lenguaje estadístico actual, el documento de Bayes introduce un distribución a priori sobre el parámetro binomial, $\theta$ , razonando por por analogía con una "mesa de billar" y recurriendo a la forma de la distribución marginal de la variable aleatoria binomial, y no en el principio de la "razón insuficiente", como han afirmado muchos otros.
Pierre Simon Laplace fue el siguiente en discutirlo:
Laplace también articuló, más claramente que Bayes, su argumento para la elección de una distribución a priori uniforme, argumentando que la distribución posterior del parámetro $\theta$ debe ser proporcional a lo que llamamos ahora la probabilidad de los datos, es decir
$$ f(\theta\mid x_1,x_2,\dots,x_n) \propto f(x_1,x_2,\dots,x_n\mid\theta) $$
Ahora entendemos que esto implica que la distribución a priori para $\theta$ es uniforme, aunque en general, por supuesto, el previo puede no existir.
Además, Carl Friedrich Gauss también se refirió al uso de un previo no informativo, como señalan David y Edwards (2001) en su libro Lecturas comentadas de la historia de la estadística :
Gauss utiliza un argumento ad hoc de tipo bayesiano para demostrar que la posterior densidad de $h$ es proporcional a la probabilidad (en moderno terminología moderna):
$$ f(h|x) \propto f(x|h) $$
donde ha asumido $h$ para que se distribuya uniformemente sobre $[0, \infty)$ . Gauss no menciona ni a Bayes ni a Laplace, aunque este último este último había popularizado este enfoque desde Laplace (1774).
y como observa Fienberg (2006), la "probabilidad inversa" (y lo que sigue, utilizando priores uniformes) era popular a finales del siglo XIX
[...] Por lo tanto, en retrospectiva, no debería ser sorprendente ver la inversión probabilidad inversa como el método elegido por los grandes estadísticos ingleses del cambio de siglo, como Edgeworth y Pearson. En ejemplo, Edgeworth (49) dio una de las primeras derivaciones de lo que lo que hoy conocemos como la $t$ -la distribución posterior de la media $\mu$ de una distribución normal dada a priori uniforme en el caso de las distribuciones $\mu$ y $h =\sigma^{-1}$ [...]
La historia temprana del enfoque bayesiano también es revisada por Stigler (1986) en su libro La historia de la estadística: La medición de la incertidumbre antes de 1900 .
En su breve reseña tampoco parece mencionar a Ronald Aylmer Fisher (de nuevo citado tras Fienberg, 2006):
Fisher se alejó de los métodos inversos y se acercó a su propia enfoque de la inferencia que denominó "probabilidad", un concepto que, según él, era era distinto de la probabilidad. Pero la progresión de Fisher en este sentido fue lenta. Stigler (164) ha señalado que, en un manuscrito inédito manuscrito que data de 1916, Fisher no distinguía entre probabilidad y probabilidad inversa con un prior plano, aunque cuando cuando más tarde hizo la distinción, afirmó haberla entendido en ese momento. momento.
Jaynes (1986) proporcionó su propio documento de revisión breve Métodos bayesianos: Antecedentes generales. Un tutorial introductorio que podría comprobar, pero no se centra en los antecedentes no informativos. Además, como señala AdamO definitivamente debería leer La historia épica de la máxima probabilidad de Stigler (2007).
También cabe mencionar que hay no hay tal cosa como un "previo no informativo" Así que muchos autores prefieren hablar de "vagos antecedentes" o "Previsiones informativas semanales" .
Kass y Wasserman (1996) ofrecen una revisión teórica en La selección de distribuciones a priori mediante reglas formales que profundizan en la elección de las variables a priori, con una amplia discusión sobre el uso de las variables a priori no informativas.