Esto requeriría definir una interpretación multivariada del tiempo de autocorrelación integrado.
Dejemos que $Y_1, Y_2, \dots, Y_n$ ser un $p-$ cadena de Markov dimensional con distribución invariante $\pi$ ; $Y_1 = (Y_{11}, Y_{12}, \dots, Y_{1p})^T$ . Supongamos que interesa el tamaño efectivo de la muestra y el tiempo de autocorrelación de la media, siendo ésta: $$\bar{Y} = \dfrac{1}{n} \sum_{t=1}^{n} Y_{t}\,. $$
Describamos primero el tiempo de autocorrelación univariante, $\tau_1$ sólo para la primera componente. Supongamos que la varianza asintótica de $\bar{Y}_{1} is \sigma^2_{1}$ entonces \begin{align*} \sigma^2_1 & = \text{Var}_{\pi}(Y_{11}) + 2 \sum_{k=1}^{\infty} \text{Cov}\left(Y_{11}, Y_{1(1+k)}\right) \\ \Rightarrow \dfrac{\sigma^2_1}{\text{Var}_{\pi}(Y_{11})} & = 1 + 2 \Rightarrow\sum_{k=1}^{\infty} \text{Corr}\left(Y_{11}, Y_{1(1+k)}\right) \\ \dfrac{N}{ESS_1} &= \tau_1\,, \end{align*} donde $ESS_1$ es el tamaño de la muestra efectiva univariante para el primer componente. Se realiza una construcción similar para cada componente. Sin embargo, estas construcciones univariantes ignoran las covarianzas cruzadas en la cadena de Markov, y la estructura de covarianzas cruzadas en $\pi$ .
Veamos ahora cómo es el caso multivariante. Supongamos que $\Sigma$ es la matriz de varianza-covarianza asintótica de $\bar{Y}$ entonces $\Sigma$ tiene diagonales $\sigma^2_1, \sigma^2_2, \dots, \sigma^2_p$ y los elementos fuera de la diagonal son covarianzas cruzadas de la cadena de Markov. Es decir, $$\Sigma = \underbrace{\text{Var}(Y_1)}_{\text{a matrix}} + \sum_{k=1}^{\infty} \left[\text{Cov}(Y_1, Y_{1+k}) + \text{Cov}(Y_1, Y_{1+k})^T \right]\,, $$ donde se observa que la matriz de covarianza cruzada $\text{Cov}(Y_1, Y_{1+k})$ no tiene por qué ser simétrica. Sea $\text{Var}(Y_1) = \Lambda$ \begin{align*} \Sigma &= \text{Var}(Y_1) + \sum_{k=1}^{\infty} \left[\text{Cov}(Y_1, Y_{1+k}) + \text{Cov}(Y_1, Y_{1+k})^T \right] \\ \Rightarrow \Lambda^{-1/2} \Sigma \Lambda^{-1/2} & = I_p + \sum_{k=1}^{\infty} \Lambda^{-1/2}\left[\text{Cov}(Y_1, Y_{1+k}) + \text{Cov}(Y_1, Y_{1+k})^T \right]\Lambda^{-1/2}\\ \Rightarrow \det(\Lambda^{-1/2} \Sigma \Lambda^{-1/2})^{1/p} &= \det\left( I_p + \sum_{k=1}^{\infty} \Lambda^{-1/2}\left[\text{Cov}(Y_1, Y_{1+k}) + \text{Cov}(Y_1, Y_{1+k})^T \right]\Lambda^{-1/2} \right)^{(1/p)}\\ \Rightarrow \dfrac{n}{mESS}& = \det\left( I_p + \sum_{k=1}^{\infty} \Lambda^{-1/2}\left[\text{Cov}(Y_1, Y_{1+k}) + \text{Cov}(Y_1, Y_{1+k})^T \right]\Lambda^{-1/2} \right)^{(1/p)}\,. \end{align*}
Por lo tanto, la calidad $n/mESS$ corresponde a ese determinante particular de la derecha. La razón por la que esto no es una generalización directa del tiempo de autocorrelación integrado es porque $\Lambda^{-1/2}\left[\text{Cov}(Y_1, Y_{1+k}) + \text{Cov}(Y_1, Y_{1+k})^T \right]\Lambda^{-1/2}$ no es la matriz de correlación cruzada (al menos no creo que lo sea). Sería la matriz de correlaciones cruzadas si la $\Lambda$ se sustituyó por las diagonales de la matriz.
Sin embargo, sospecho que $n/mESS$ da una interpretación multivariada del tiempo de autocorrelación integrado; sólo que ahora mismo no tengo muy claro en qué se diferencia de la interpretación univaariada. Sin embargo, en el caso anterior, si $p =1$ se obtiene la cantidad univariante.