35 votos

Qué hay en un nombre: Precisión (inversa de la varianza)

Intuitivamente, la media es sólo el promedio de las observaciones. La varianza es la diferencia entre estas observaciones y la media.

Me gustaría saber por qué la inversa de la varianza se conoce como la precisión. ¿Qué intuición podemos sacar de esto? ¿Y por qué la matriz de precisión es tan útil como la matriz de covarianza en la distribución multivariante (normal)?

¿Preguntas, por favor?

40voto

Dipstick Puntos 4869

Precisión se utiliza a menudo en el software bayesiano por convención. Ganó popularidad porque la distribución gamma puede ser usada como previo conjugado para la precisión .

Algunos dicen que la precisión es más "intuitiva" que la varianza porque dice cómo se concentra son los valores alrededor de la media en lugar de cómo se extiende son. Se dice que nos interesa más lo precisa que es una medida que lo imprecisa que es (pero honestamente no veo cómo sería más intuitivo).

Cuanto más dispersos estén los valores en torno a la media (alta varianza), menos precisos serán (poca precisión). Cuanto menor sea la varianza, mayor será la precisión. La precisión es sólo una varianza invertida $\tau = 1/\sigma^2$ . Realmente no hay nada más que esto.

18voto

andynormancx Puntos 234

Precisión es uno de los dos parámetros naturales de la distribución normal. Eso significa que si se quieren combinar dos distribuciones predictivas independientes (como en un Modelo Lineal Generalizado), se suman las precisiones. La varianza no tiene esta propiedad.

Por otro lado, cuando se acumulan observaciones, se promedian los parámetros de expectativa. El segundo momento es un parámetro de expectativa.

Al tomar la convolución de dos distribuciones normales independientes, la desviaciones añadir.

En relación con esto, si se tiene un proceso de Wiener (un proceso estocástico cuyos incrementos son gaussianos) se puede argumentar utilizando la divisibilidad infinita que esperar la mitad del tiempo, significa saltar con la mitad de desviación .

Por último, al escalar una distribución gaussiana, el desviación estándar está escalado.

Por lo tanto, muchas parametrizaciones son útiles dependiendo de lo que estés haciendo. Si estás combinando predicciones en un MLG, la precisión es la más "intuitiva".

2voto

Justin Puntos 1

Este es mi intento de explicación:

A) Se puede intuir la precisión en el contexto del error de medición. Supongamos que se mide una cantidad de interés con un instrumento de medición (por ejemplo, medir una distancia con una cinta métrica). Si se realizan varias mediciones de la cantidad de interés con el mismo instrumento de medición, es probable que se produzca una variación en los resultados, es decir, un error de medición. Estos errores suelen estar bien aproximados por una distribución normal. El parámetro de precisión de una distribución normal le indica lo "precisas" que son sus mediciones en el sentido de tener errores mayores o menores. Cuanto mayor sea la precisión, más precisa será la medición y, por tanto, menores serán los errores (y viceversa).

B) La razón por la que a veces se prefieren las matrices de precisión a las matrices de covarianza se debe a la comodidad analítica y computacional: son más sencillas de trabajar. Por eso las distribuciones normales se parametrizaban clásicamente mediante el parámetro de precisión en el contexto bayesiano antes de la revolución informática, cuando los cálculos se hacían a mano. La parametrización sigue siendo relevante hoy en día cuando se trabaja con varianzas muy pequeñas, ya que ayuda a abordar el desbordamiento en los cálculos numéricos.

La simplicidad de la alternativa también puede ilustrarse comparando las densidades de ambas parametrizaciones. Obsérvese a continuación cómo el uso de $\tau = \frac{1}{\sigma^2}$ elimina la necesidad de dividir por un parámetro. En un contexto bayesiano (cuando los parámetros se tratan como variables aleatorias) la división por un parámetro puede hacer que el cálculo de las distribuciones posteriores sea doloroso.

$$p_Y(y; \mu, \sigma) = \frac{1}{\sigma\sqrt{2\pi}}e^{-\frac{1}{2}(\frac{y-\mu}{\sigma})^2}$$

$$p_Y(y; \mu, \tau) = \sqrt{\frac{\tau}{2\pi}}e^{-\frac{1}{2}\tau(y - \mu)^2}$$

i-Ciencias.com

I-Ciencias es una comunidad de estudiantes y amantes de la ciencia en la que puedes resolver tus problemas y dudas.
Puedes consultar las preguntas de otros usuarios, hacer tus propias preguntas o resolver las de los demás.

Powered by:

X