Se menciona en Una forma invariante para la probabilidad a priori en problemas de estimación (Jeffreys) .
Respuesta
¿Demasiados anuncios?No sabe exactamente lo que quiere saber sobre $d\sigma/\sigma$ .
matemáticamente, es como la medida de lebesgue $dx$ en $\mathbb{R}$ - en el siguiente sentido:
$dx$ no cambia bajo un simple cambio aditivo [o desplazamiento] de una variable: $y= x+a$ , donde $a$ es una constante, es decir, $dy=dx$ .
de manera similar, $d\sigma/\sigma$ no cambia bajo un cambio multiplicativo [o reescalado] de una variable: $y=c\sigma$ , donde $c>0$ . es decir, $dy/y=d\sigma/\sigma$ .
ambos $dx$ en $\mathbb{R}$ y $d\sigma/\sigma$ en $\mathbb{R}^+$ son ejemplos de medidas haar [ es decir medidas invariantes] en $\mathbb{R}$ y $\mathbb{R}^+$ , respectivamente, considerados como grupos que actúan sobre sí mismos, como se indica.
en cuanto a jeffries: muchos bayesianos [no ortodoxos] consideran $dx$ para ser como una distribución [a priori] uniforme en $\mathbb{R}$ . [es el límite -en cierto sentido- de la distribución uniforme en [-A, A], ya que A $\to\infty$ .] se considera una "prioridad objetiva", en el sentido de que todo el mundo [supuestamente] está de acuerdo en que es LA distribución uniforme en $\mathbb{R}$ .
que $dx$ es impropia - no es realmente una distribución de probabilidad sobre $\mathbb{R}$ - no parece preocupar a esta gente; siempre y cuando uno llegue a una distribución posterior adecuada al utilizarla [como es a menudo el caso], puede ser tomada como una "previa". un ejemplo es la inferencia sobre la media desconocida $\mu$ de una distribución normal con $\sigma = 1$ . si $X$ es una observación de esta distribución, la pdf condicional de $X|\mu$ es
$$f_{X|\mu}(x|\mu) = \frac{1}{\sqrt{2\pi}}e^{\frac{1}{2}(x-\mu)^2},\quad -\infty < x < \infty.$$
multiplicando por el "pdf" previo "uniforme" de $\mu$ , el pdf conjunto [impropio] de $(X,\mu)$ es
$$f_{X,\mu}(x,\mu) = f_{X|\mu}(x|\mu){\mathbb{1}}_{(-\infty.\infty)}(\mu) = \frac{1}{\sqrt{2\pi}}e^{\frac{1}{2}(x-\mu)^2},\quad -\infty < x, \mu <\infty.$$
nota que el [impropio] anterior 'pdf' para $\mu$ es $f_\mu(\mu)={\mathbb{1}}_{(-\infty,\infty)}(\mu)$ En este sentido
$$\mathrm{'prob'}(a< \mu< b) = \int_a^b f_\mu(\mu) d\mu = \int_a^b d\mu = b-a.$$
entonces, integrando el $\mu$ en el pdf conjunto, se obtiene que el 'pdf' marginal de $X$ es
$$f_X(x) = \int_{-\infty}^{\infty} f_{X|\mu}(x|\mu)d\mu = \int_{-\infty}^{\infty} \frac{1}{\sqrt{2\pi}}e^{\frac{1}{2}(x-\mu)^2}d\mu = {\mathbb{1}}_{(-\infty.\infty)}(x),$$
para que $X$ marginalmente también tiene una distribución inadecuada. finalmente, la pdf posterior para $\mu$ es
$$f_{\mu|X}(\mu|x)= f_{X,\mu}(x,\mu)/f_{X}(x) = \frac{1}{\sqrt{2\pi}}e^{\frac{1}{2}(x-\mu)^2},\quad -\infty < \mu < \infty,$$
para que $\mu|X$ es normal con media $X$ y SD = 1.
con este ejemplo en mente, tal vez pueda persuadirse de que $d\sigma/\sigma$ es una especie de análogo de una distribución uniforme en $\mathbb{{R}^+}$ . [si se considera el parámetro $\nu=\log\sigma $ se convierte en la distribución uniforme [de Lebesgue] para $\nu$ ya que [como señala @hardmath], $d\nu=d(\log\sigma)=d\sigma/\sigma$ .
El hecho de que te lo creas o no depende, supongo, de tu propensión a ser un "verdadero creyente".