2 votos

¿Puedo utilizar el tamaño de muestra efectivo multivariante (mESS) para estimar el tiempo de autocorrelación?

Básicamente, el título de la pregunta. Me pregunto si es razonable utilizar el mESS (definido aquí ) para estimar el tiempo de autocorrelación $\tau$ como:

$$\tau = \frac{N}{mESS}$$

donde $N$ es el tamaño de mi cadena MCMC. Lo pregunto porque no he visto que se utilice/recomiende esto en ningún sitio y quiero estar seguro de que no lo estoy utilizando mal.

2voto

Helper Puntos 1

Esto requeriría definir una interpretación multivariada del tiempo de autocorrelación integrado.

Dejemos que $Y_1, Y_2, \dots, Y_n$ ser un $p-$ cadena de Markov dimensional con distribución invariante $\pi$ ; $Y_1 = (Y_{11}, Y_{12}, \dots, Y_{1p})^T$ . Supongamos que interesa el tamaño efectivo de la muestra y el tiempo de autocorrelación de la media, siendo ésta: $$\bar{Y} = \dfrac{1}{n} \sum_{t=1}^{n} Y_{t}\,. $$

Describamos primero el tiempo de autocorrelación univariante, $\tau_1$ sólo para la primera componente. Supongamos que la varianza asintótica de $\bar{Y}_{1} is \sigma^2_{1}$ entonces \begin{align*} \sigma^2_1 & = \text{Var}_{\pi}(Y_{11}) + 2 \sum_{k=1}^{\infty} \text{Cov}\left(Y_{11}, Y_{1(1+k)}\right) \\ \Rightarrow \dfrac{\sigma^2_1}{\text{Var}_{\pi}(Y_{11})} & = 1 + 2 \Rightarrow\sum_{k=1}^{\infty} \text{Corr}\left(Y_{11}, Y_{1(1+k)}\right) \\ \dfrac{N}{ESS_1} &= \tau_1\,, \end{align*} donde $ESS_1$ es el tamaño de la muestra efectiva univariante para el primer componente. Se realiza una construcción similar para cada componente. Sin embargo, estas construcciones univariantes ignoran las covarianzas cruzadas en la cadena de Markov, y la estructura de covarianzas cruzadas en $\pi$ .

Veamos ahora cómo es el caso multivariante. Supongamos que $\Sigma$ es la matriz de varianza-covarianza asintótica de $\bar{Y}$ entonces $\Sigma$ tiene diagonales $\sigma^2_1, \sigma^2_2, \dots, \sigma^2_p$ y los elementos fuera de la diagonal son covarianzas cruzadas de la cadena de Markov. Es decir, $$\Sigma = \underbrace{\text{Var}(Y_1)}_{\text{a matrix}} + \sum_{k=1}^{\infty} \left[\text{Cov}(Y_1, Y_{1+k}) + \text{Cov}(Y_1, Y_{1+k})^T \right]\,, $$ donde se observa que la matriz de covarianza cruzada $\text{Cov}(Y_1, Y_{1+k})$ no tiene por qué ser simétrica. Sea $\text{Var}(Y_1) = \Lambda$ \begin{align*} \Sigma &= \text{Var}(Y_1) + \sum_{k=1}^{\infty} \left[\text{Cov}(Y_1, Y_{1+k}) + \text{Cov}(Y_1, Y_{1+k})^T \right] \\ \Rightarrow \Lambda^{-1/2} \Sigma \Lambda^{-1/2} & = I_p + \sum_{k=1}^{\infty} \Lambda^{-1/2}\left[\text{Cov}(Y_1, Y_{1+k}) + \text{Cov}(Y_1, Y_{1+k})^T \right]\Lambda^{-1/2}\\ \Rightarrow \det(\Lambda^{-1/2} \Sigma \Lambda^{-1/2})^{1/p} &= \det\left( I_p + \sum_{k=1}^{\infty} \Lambda^{-1/2}\left[\text{Cov}(Y_1, Y_{1+k}) + \text{Cov}(Y_1, Y_{1+k})^T \right]\Lambda^{-1/2} \right)^{(1/p)}\\ \Rightarrow \dfrac{n}{mESS}& = \det\left( I_p + \sum_{k=1}^{\infty} \Lambda^{-1/2}\left[\text{Cov}(Y_1, Y_{1+k}) + \text{Cov}(Y_1, Y_{1+k})^T \right]\Lambda^{-1/2} \right)^{(1/p)}\,. \end{align*}

Por lo tanto, la calidad $n/mESS$ corresponde a ese determinante particular de la derecha. La razón por la que esto no es una generalización directa del tiempo de autocorrelación integrado es porque $\Lambda^{-1/2}\left[\text{Cov}(Y_1, Y_{1+k}) + \text{Cov}(Y_1, Y_{1+k})^T \right]\Lambda^{-1/2}$ no es la matriz de correlación cruzada (al menos no creo que lo sea). Sería la matriz de correlaciones cruzadas si la $\Lambda$ se sustituyó por las diagonales de la matriz.

Sin embargo, sospecho que $n/mESS$ da una interpretación multivariada del tiempo de autocorrelación integrado; sólo que ahora mismo no tengo muy claro en qué se diferencia de la interpretación univaariada. Sin embargo, en el caso anterior, si $p =1$ se obtiene la cantidad univariante.

i-Ciencias.com

I-Ciencias es una comunidad de estudiantes y amantes de la ciencia en la que puedes resolver tus problemas y dudas.
Puedes consultar las preguntas de otros usuarios, hacer tus propias preguntas o resolver las de los demás.

Powered by:

X