No creo que haya una interpretación física directa y natural (por supuesto, siempre se puede inventar algo ). ex post facto ). Sin embargo, existen estrechas relaciones con otros temas. Aquí intentaré explicar algunas relaciones estrechas con las cadenas de Markov.
Me ceñiré al caso del modelo unidimensional de Ising, para mantener las cosas concreto, pero a partir de lo que sigue debería quedar claro que esto es válido mucho más general.
Sea $T$ sea la matriz de transferencia del modelo unidimensional de Ising, a saber $$ T = \begin{pmatrix} e^{\beta + h} & e^{-\beta}\\ e^{-\beta} & e^{\beta-h} \end{pmatrix} = \bigl(T_{\sigma,\sigma'} \bigr)_{\sigma,\sigma'=\pm 1}\,, $$ con $T_{\sigma,\sigma'} = e^{\beta\sigma\sigma' + h(\sigma+\sigma')/2}$ . (Utilizo la convención matemática de no multiplicar $h$ por $\beta$ pero esto es, por supuesto, irrelevante).
Entonces se tiene, por ejemplo, para la partición en un sistema de longitud $N$ con condición límite $\sigma$ (en el lado izquierdo) y $\sigma'$ (en el derecha): $$ \mathbf{Z}_N^{\sigma,\sigma'} = \bigl( T^N \bigr)_{\sigma,\sigma'}\,. $$ Denotemos por $\lambda_1>\lambda_2>0$ los dos valores propios de $T$ y $\varphi^1,\varphi^2$ los vectores propios correspondientes, normalizados de modo que $\|\varphi^1\|_2=\|\varphi^2\|_2=1$ . Todas estas cantidades pueden calcularse fácilmente de forma explícita, pero las expresiones resultantes son irrelevantes para lo que quiero decir.
A continuación, podemos definir una nueva matriz $\Pi=(\pi(\sigma,\sigma'))_{\sigma,\sigma'=\pm 1}$ con elementos de matriz $$ \pi(\sigma,\sigma') = \tfrac{\varphi^1_{\sigma'}}{\lambda_1\varphi^1_\sigma} T_{\sigma,\sigma'}\,. $$ (Obsérvese que, por el teorema de Perron-Frobenius, todas las componentes de $\varphi^1$ son positivos). Es fácil comprobar que $\Pi$ es la matriz de transición de un irreducible, aperiódica: para $\sigma=\pm 1$ , $$ \sum_{\sigma'=\pm 1} \pi(\sigma,\sigma') = \tfrac{1}{\lambda_1\varphi^1_\sigma} \sum_{\sigma'=\pm 1} T_{\sigma,\sigma'} \varphi^1_{\sigma'} = \tfrac{1}{\lambda_1\varphi^1_\sigma} \bigl( T\varphi^1 \bigr)_{\sigma} = 1\,, $$ ya que, por definición, $T\varphi^1=\lambda_1\varphi^1$ . Ser irreductible, $\Pi$ posee una única medida de probabilidad invariante $\mu$ : para $\sigma=\pm 1$ , $$ \mu(\sigma) = (\varphi^1_\sigma)^2\,. $$ En efecto, $\mu(1)+\mu(-1) = \|\varphi^1\|_2^2=1$ y $$ \bigl( \mu\Pi \bigr)(\sigma') = \sum_{\sigma=\pm 1} \mu(\sigma)\,\pi(\sigma,\sigma') = \frac{1}{\lambda_1} \varphi^1_{\sigma'} \sum_{\sigma=\pm 1} \varphi^1_\sigma\,T_{\sigma,\sigma'} = (\varphi^1_{\sigma'})^2 = \mu(\sigma')\,, $$ ya que la matriz $T$ es simétrica. La medida $\mu$ describe el espín único de la medida de Gibbs de volumen infinito. En efecto, denotando la medida de Gibbs en el intervalo $\{-N,\ldots,N\}$ con la condición límite $\sigma$ (un la izquierda) y $\sigma'$ (a la derecha) por $\nu_N^{\sigma,\sigma'}$ El probabilidad de que el espín en $0$ toma el valor $\sigma_0$ viene dado por $$ \nu_N^{\sigma,\sigma'}(\sigma_0) = \frac{\mathbf{Z}_N^{\sigma,\sigma_0}\mathbf{Z}_N^{\sigma_0,\sigma'}}{\mathbf{Z} _{2N}^{\sigma,\sigma'}} = \frac{\bigl(T^{N}\bigr)_{\sigma,\sigma_0} \bigl(T^{N}\bigr)_{\sigma_0,\sigma'}}{\bigl(T^{2N}\bigr)_{\sigma,\sigma'}}\,. $$ Ahora, para cualquier $\sigma_1,\sigma_2=\pm 1$ , $$ \bigl( T^N \bigr)_{\sigma_1,\sigma_2} = \lambda_1^N \frac{\varphi^1_{\sigma_1}}{\varphi^1_{\sigma_2}} \bigl( \Pi^N \bigr)_{\sigma_1,\sigma_2}\,, $$ lo que da, tras la sustitución en la expresión anterior, $$ \nu_N^{\sigma,\sigma'}(\sigma_0) = \frac{\bigl(\Pi^{N}\bigr)_{\sigma,\sigma_0} \bigl(\Pi^{N}\bigr)_{\sigma_0,\sigma'}}{\bigl(\Pi^{2N}\bigr)_{\sigma,\sigma'}} \,. $$ Ahora, como la cadena de Markov es irreducible y aperiódica, $\lim_{N\to\infty} (\Pi^N)_{\sigma_1,\sigma_2} = \mu(\sigma_2)$ y concluimos que $$ \lim_{N\to\infty} \nu_N^{\sigma,\sigma'}(\sigma_0) = \frac{\mu(\sigma_0)\mu(\sigma')}{\mu(\sigma')} = \mu(\sigma_0)\,. $$ Del mismo modo, la medida de Gibbs completa de volumen infinito viene dada por el invariante invariante de la cadena de Markov.
En situaciones más generales, la matriz de transferencia puede no ser simétrica. Esto problema, pero complica un poco las definiciones anteriores. Permítanme referirme a este documento para ver un ejemplo en el que estos métodos se utilizan de forma más complicada. No puedo proporcionar referencias generales, ya que no las conozco; esto es ciertamente parte del folklore ahora.