6 votos

¿Cómo elegir la matriz de escalamiento en ABC (sin hacer trampa!)?

Estoy haciendo un experimento numérico que implican la comparación Aproximada Bayesiano de la Computación (ABC) con otros métodos.

Yo soy la simulación de los datos de $\boldsymbol{y}$ a partir de un modelo y estoy usando ABC para obtener una muestra de la parte posterior de los parámetros $\boldsymbol{\theta}$. El resumen de las estadísticas de $S(\boldsymbol{y})$ están en escalas muy distintas, con la covarianza depende fuertemente de los parámetros $\boldsymbol{\Sigma}_{\boldsymbol{\theta}}$. Para tomar esto en cuenta, en el paso de la aceptación puedo usar la forma cuadrática: $$ (\boldsymbol{s_i}-\boldsymbol{s}_0)\hat{\boldsymbol{\Sigma}}_{\boldsymbol{\theta}}^{-1}(\boldsymbol{s_i}-\boldsymbol{s}_0) < \epsilon $$ donde $\boldsymbol{s_i}$ es una simulación de vector de estadísticas, $\boldsymbol{s_0}$ a la observada estadísticas e $\epsilon$ la tolerancia.

Hasta ahora he "engañado" y lo he utilizado $\hat{\boldsymbol{\Sigma}}_{\boldsymbol{\theta}_0}$ donde $\boldsymbol{\theta}_0$ son los verdaderos parámetros. Pensé que la elección de la escala de la matriz de la era secundaria (de poca importancia como $\epsilon \rightarrow$ 0), pero resulta que en mi caso si no me estimación$\hat{\boldsymbol{\Sigma}}_{\boldsymbol{\theta}}$, muy cercana a $\boldsymbol{\theta}_0$ el algoritmo es simplemente pegado (extremadamente baja tasa de aceptación y unas estadísticas que domina todo).

¿Alguien sabe algún método práctico que se puede utilizar para elegir la ponderación de la matriz cuando el real se desconocen los parámetros? Gracias

3voto

Serhii Puntos 138

Una solución a su problema, que puede o puede que no consideremos como "hacer trampa", es el uso de reducción de dimensiones antes de ejecutar tu sampler (ver reseña). El más sencillo planteamiento que viene a la mente (y también se discute en la citada revisión) es de regresión de mínimos cuadrados parciales (PLS). El primer uso de PLS en ABC (al menos que yo sepa) fue por Wegmann et al.

En este enfoque, se introduce una "calibración" paso antes de ejecutar cualquier algoritmo ABC (rechazo de muestreo, MCMC, SMC, etc.) en donde un gran número de estadísticas de resumen se simulado basado en los sorteos de la previa y PLS se utiliza para calcular una transformación de las estadísticas de resumen que explica la mayoría de la varianza en el espacio de parámetros. La observó las estadísticas de resumen son transformadas y en los subsiguientes ABC rechazo pasos la distancia entre transformado simulados y observados de las estadísticas de resumen se utiliza en lugar de la original de las estadísticas de resumen. De esta manera, evitará tener que calcular (o invertir) $\Sigma_\theta$.

El paso de calibración pueden ser esquematizadas de la siguiente manera-

  1. Ejemplo de $B$ sorteos de $\theta' \sim P(\theta)$
  2. Conducta $B$ simulaciones de $S \sim P(S|\theta')$
  3. Estimación PLS transformación de de $S$ $S'$

PLS está disponible para R y python y C++.

i-Ciencias.com

I-Ciencias es una comunidad de estudiantes y amantes de la ciencia en la que puedes resolver tus problemas y dudas.
Puedes consultar las preguntas de otros usuarios, hacer tus propias preguntas o resolver las de los demás.

Powered by:

X