Entiendo que la Jeffreys antes es invariante bajo reparametrización. Sin embargo, lo que yo no entiendo es por qué esta propiedad deseada.
¿Por qué no querrías antes de la modificación en virtud de un cambio de variables?
Entiendo que la Jeffreys antes es invariante bajo reparametrización. Sin embargo, lo que yo no entiendo es por qué esta propiedad deseada.
¿Por qué no querrías antes de la modificación en virtud de un cambio de variables?
Supongamos que usted y un amigo están analizando el mismo conjunto de datos utilizando un modelo normal. Adoptar la costumbre de la parametrización del modelo normal, utilizando la media y la varianza como parámetros, pero su amigo prefiere para parametrizar el modelo normal con el coeficiente de variación y la precisión de los parámetros (que es perfectamente "legal"). Si ambos de ustedes usan Jeffreys' priores, su distribución posterior será su amigo de la distribución posterior adecuadamente transformado de su parametrización de la suya. Es en este sentido que la Jeffreys previo es "invariante"
(Por cierto, "invariantes" es un horrible palabra; lo que realmente queremos decir es que es "colectivo" en el mismo sentido del tensor de cálculo/geometría diferencial, pero, por supuesto, este término ya tiene bien establecida la probabilístico significado, por lo que no podemos utilizar.)
¿Por qué es esta coherencia propiedad deseada? Porque, si Jeffreys' antes tiene alguna posibilidad de representar a la ignorancia sobre el valor de los parámetros en un sentido absoluto (en realidad, no, pero por otras razones no relacionadas con la "invariancia"), y no de la ignorancia relativamente a un particular la parametrización del modelo, éste debe ser el caso de que, no importa que parametrizaciones podemos elegir arbitrariamente para empezar, nuestro posteriores debe "corresponder" después de la transformación.
Jeffreys mismo violado esta "invariancia" propiedad de forma rutinaria en la construcción de sus prioridades.
Este papel tiene algunas discusiones interesantes sobre este y otros temas relacionados.
Permítanme completo del Zen respuesta. No me parece mucho a la noción de "representación de la ignorancia". Lo importante no es el Jeffreys antes pero la Jeffreys posterior. Este posteriores se pretende reflejar de la mejor manera posible, la información acerca de los parámetros traído por los datos. La invariancia de la propiedad es, naturalmente, para los dos siguientes puntos. Considere, por ejemplo, el modelo binomial en que se desconoce la proporción parámetro $\theta$ y probabilidades parámetro $\psi=\frac{\theta}{1-\theta}$.
El Jeffreys posterior en $\theta$ refleja de la mejor manera posible la información sobre $\theta$ traído por los datos. Hay una correspondencia uno a uno entre $\theta$ y $\psi$. Entonces, la transformación de la Jeffreys posterior en $\theta$ en un posterior en $\psi$ (a través de los habituales cambios de las variables de la fórmula) debe producir una distribución de reflejar de la mejor forma posible la información sobre $\psi$. Por lo tanto, esta distribución debe ser el Jeffreys posterior sobre $\psi$. Esta es la invariancia de la propiedad.
Un punto importante a la hora de sacar conclusiones de un análisis estadístico es la comunicación científica. Imagina que dar la Jeffreys posterior en $\theta$ a un colega científico. Pero él/ella está interesada en $\psi$ en vez de $\theta$. Entonces esto no es un problema con la invariancia de la propiedad: él/ella sólo tiene que aplicar el cambio de las variables de la fórmula.
Para añadir algunas citas Zen de la gran respuesta: Según Jaynes, el Jeffreys anterior es un ejemplo del principio de la transformación de los grupos, lo que resulta desde el principio de la indiferencia:
La esencia del principio es justo: (1) debemos reconocer que una la probabilidad de asignación es un medio de describir un cierto estado de me conocimiento. (2) Si la evidencia disponible no nos da ninguna razón para considerar la proposición de $A_1$ más o menos probable de $A_2$, entonces la única honesta manera podemos describir el estado de los conocimientos se asignar la igualdad de probabilidades: $p_1=p_2$. Cualquier otro procedimiento de ser coherentes en el sentido de que, por un mero intercambio de la etiquetas $(1, 2)$ entonces podríamos generar un nuevo problema en el que nuestro estado de conocimiento es el mismo, pero en el que estamos asignando diferentes las probabilidades...
Ahora, para responder a su pregunta: "¿por Qué no querrías antes de la modificación en virtud de un cambio de variables?"
Según Jaynes, la parametrización es otro tipo de etiqueta arbitraria, y no se debe ser capaz de "por un mero intercambio de etiquetas de generar un nuevo problema en el que nuestro estado de conocimiento es el mismo, pero en el que estamos asignar diferentes probabilidades."
I-Ciencias es una comunidad de estudiantes y amantes de la ciencia en la que puedes resolver tus problemas y dudas.
Puedes consultar las preguntas de otros usuarios, hacer tus propias preguntas o resolver las de los demás.