"Autocorrelación espacial" significa varias cosas para varias personas. Un concepto general, sin embargo, es que un fenómeno observado en lugares $\mathbf{z}$ puede depender de alguna manera definida de (a) las covariables, (b) la ubicación, y (c) sus valores en cerca de lugares. (Donde las definiciones técnicas varían es en el tipo de datos que se consideran, en lo que se postula como "vía definitiva" y en lo que significa "cercano": todo ello debe hacerse cuantitativo para poder proceder).
Para ver lo que puede ocurrir, consideremos un ejemplo sencillo de este modelo espacial para describir la topografía de una región. Sea la elevación medida en un punto $\mathbf{z}$ sea $y(\mathbf{z})$ . Un posible modelo es que $y$ depende de alguna manera matemática definida de las coordenadas de $\mathbf{z}$ que escribiré $(z_1,z_2)$ en esta situación bidimensional. Dejando $\varepsilon$ representan desviaciones (hipotéticamente independientes) entre las observaciones y el modelo (que, como es habitual, se supone que tienen una expectativa nula), podemos escribir
$$y(\mathbf{z}) = \beta_0 + \beta_1 z_1 + \beta_2 z_2 + \varepsilon(\mathbf{z})$$
para un modelo de tendencia lineal . La tendencia lineal (representada por el $\beta_1$ y $\beta_2$ coeficientes) es una forma de captar la idea de que los valores cercanos $y(\mathbf{z})$ y $y(\mathbf{z}')$ , para $\mathbf{z}$ cerca de $\mathbf{z}'$ deberían tender a estar cerca unos de otros. Incluso podemos calcular esto considerando el valor esperado del tamaño de la diferencia entre $y(\mathbf{z})$ y $y(\mathbf{z}')$ , $E[|y(\mathbf{z}) - y(\mathbf{z}')|]$ . Resulta que las matemáticas son mucho más sencillo si utilizamos una medida de la diferencia ligeramente diferente: en su lugar, calculamos el al cuadrado diferencia:
$$\eqalign{ E[\left(y(\mathbf{z}) - y(\mathbf{z}')\right)^2] &= E[\left(\beta_0 + \beta_1 z_1 + \beta_2 z_2 + \varepsilon(\mathbf{z}) - \left(\beta_0 + \beta_1 z_1' + \beta_2 z_2' + \varepsilon(\mathbf{z}')\right)\right)^2] \\ &=E[\left(\beta_1 (z_1-z_1') + \beta_2 (z_2-z_2)' + \varepsilon(\mathbf{z}) - \varepsilon(\mathbf{z}')\right)^2] \\ &=E[\left(\beta_1 (z_1-z_1') + \beta_2 (z_2-z_2)'\right)^2 \\ &\quad+ 2\left(\beta_1 (z_1-z_1') + \beta_2 (z_2-z_2)'\right)\left(\varepsilon(\mathbf{z}) - \varepsilon(\mathbf{z}')\right)\\ &\quad+ \left(\varepsilon(\mathbf{z}) - \varepsilon(\mathbf{z}')\right)^2] \\ &=\left(\beta_1 (z_1-z_1') + \beta_2 (z_2-z_2)'\right)^2 + E[\left(\varepsilon(\mathbf{z}) - \varepsilon(\mathbf{z}')\right)^2] }$$
Este modelo está libre de cualquier autocorrelación espacial explícita, porque no hay ningún término en él que relacione directamente $y(\mathbf{z})$ a valores cercanos $y(\mathbf{z}')$ .
Un modelo alternativo, diferente, ignora la tendencia lineal y supone sólo que hay autocorrelación. Una forma de hacerlo es a través de la estructura de las desviaciones $\varepsilon(\mathbf{z})$ . Podríamos plantear que
$$y(\mathbf{z}) = \beta_0 + \varepsilon(\mathbf{z})$$
y, para dar cuenta de nuestra previsión de correlación, supondremos algún tipo de "estructura de covarianza" para el $\varepsilon$ . Para que esto tenga sentido desde el punto de vista espacial, supondremos que la covarianza entre $\varepsilon(\mathbf{z})$ y $\varepsilon(\mathbf{z}')$ , igual a $E[\varepsilon(\mathbf{z})\varepsilon(\mathbf{z}')]$ porque el $\varepsilon$ tienen media cero, tiende a disminuir a medida que $\mathbf{z}$ y $\mathbf{z}'$ se alejan cada vez más. Como los detalles no importan, vamos a llamar a esta covarianza $C(\mathbf{z}, \mathbf{z}')$ . Esto es autocorrelación espacial. De hecho, la correlación (habitual de Pearson) entre $y(\mathbf{z})$ y $y(\mathbf{z}')$ es
$$\rho(y(\mathbf{z}), y(\mathbf{z}')) = \frac{C(\mathbf{z}, \mathbf{z}')}{\sqrt{C(\mathbf{z}, \mathbf{z})C(\mathbf{z}', \mathbf{z}')}}.$$
En esta notación, la diferencia cuadrática esperada anterior de $y$ para el primer modelo es
$$\eqalign{ E[\left(y(\mathbf{z}) - y(\mathbf{z}')\right)^2] &= \left(\beta_1 (z_1-z_1') + \beta_2 (z_2-z_2)'\right)^2 + E[\left(\varepsilon(\mathbf{z}) - \varepsilon(\mathbf{z}')\right)^2] \\ &=\left(\beta_1 (z_1-z_1') + \beta_2 (z_2-z_2)'\right)^2 + C_1(\mathbf{z}, \mathbf{z}) + C_1(\mathbf{z}', \mathbf{z}') }$$
(suponiendo que $\mathbf{z} \ne \mathbf{z}'$ ) porque el $\varepsilon$ en diferentes lugares se han supuesto independientes. He escrito $C_1$ en lugar de $C$ para indicar que es la función de covarianza del primer modelo.
Cuando las covarianzas de los $\varepsilon$ no varían drásticamente de un lugar a otro (de hecho, se suele suponer que son constantes), esta ecuación muestra que la diferencia esperada al cuadrado en $y$ aumenta cuadráticamente con la separación entre $\mathbf{z}$ y $\mathbf{z}'$ . La cantidad real de aumento está determinada por los coeficientes de tendencia $\beta_0$ y $\beta_1$ .
Veamos cuáles son las diferencias esperadas al cuadrado en el $y$ 's es para el nuevo modelo, el modelo 2:
$$\eqalign{ E[\left(y(\mathbf{z}) - y(\mathbf{z}')\right)^2] &= E[\left(\beta_0 + \varepsilon(\mathbf{z}) - \left(\beta_0 + \varepsilon(\mathbf{z}')\right)\right)^2] \\ &=E[\left(\varepsilon(\mathbf{z}) - \varepsilon(\mathbf{z}')\right)^2] \\ &=E[\varepsilon(\mathbf{z})^2 - 2 \varepsilon(\mathbf{z})\varepsilon(\mathbf{z}') + \varepsilon(\mathbf{z}')^2] \\ &=C_2(\mathbf{z}, \mathbf{z}) - 2C_2(\mathbf{z}, \mathbf{z}') + C_2(\mathbf{z}', \mathbf{z}'). }$$
De nuevo, esto se comporta de forma correcta: porque nos imaginamos $C_2(\mathbf{z}, \mathbf{z}')$ debe disminuir como $\mathbf{z}$ y $\mathbf{z}'$ se separan más, la diferencia esperada al cuadrado en $y$ 's de hecho va arriba con el aumento de la separación de los lugares.
Comparando las dos expresiones para $E[\left(y(\mathbf{z}) - y(\mathbf{z}')\right)^2]$ en los dos modelos nos muestra que $\left(\beta_1 (z_1-z_1') + \beta_2 (z_2-z_2)'\right)^2$ en el primer modelo desempeña un papel matemáticamente idéntico al de $-2C_2(\mathbf{z}, \mathbf{z}')$ en el segundo modelo. (Hay una constante aditiva al acecho, enterrada en los diferentes significados del $C_i(\mathbf{z}, \mathbf{z})$ pero no importa en este análisis). Ergo según el modelo, La correlación espacial suele representarse como una combinación de una tendencia y una estructura de correlación estipulada sobre errores aleatorios.
Ahora tenemos, espero, una respuesta clara a la pregunta: se puede representar la idea detrás de Ley de Geografía de Tobler ("todo está relacionado con todo lo demás, pero las cosas más cercanas están más relacionadas") de diferentes maneras. En algunos modelos, la Ley de Tobler se representa adecuadamente incluyendo tendencias (o términos de "deriva") que son funciones de coordenadas espaciales como la longitud y la latitud. En otros, la Ley de Tobler se capta mediante una estructura de covarianza no trivial entre términos aleatorios aditivos (el $\varepsilon$ ). En la práctica, los modelos incorporan ambos métodos. El que se elija depende de lo que se quiera conseguir con el modelo y de la opinión que se tenga sobre cómo surge la autocorrelación espacial: si está implícita en las tendencias subyacentes o si refleja variaciones que se quieren considerar aleatorias. Ninguna de las dos opciones es siempre correcta y, en un problema determinado, a menudo es posible utilizar ambos tipos de modelos para analizar los datos, comprender el fenómeno y predecir sus valores en otros lugares (interpolación).