10 votos

¿Cómo funciona la interpolación de Kriging?

Estoy trabajando en un problema en el que tengo que usar el Kriging para predecir el valor de algunas variables de acuerdo con algunos de los alrededores de las variables. Quiero implementar su código por mí mismo. Así que, he ido también a través de muchos documentos, para entender cómo funciona, pero yo estaba tan confundido mucho. En general, entiendo que se trata de una media ponderada, pero yo no podía entender completamente el proceso de calcular el peso de predecir el valor de una variable.

Puede alguien por favor me explique en términos sencillos aspectos matemáticos de esta interpolación de métodos y cómo funciona?

18voto

jldugger Puntos 7490

Esta respuesta consta de una sección de introducción que escribí recientemente un artículo describiendo una (modesta) espacio-temporal de la extensión de "Universal Kriging" (reino unido), que en sí es un modesto generalización de "Kriging Ordinario." Tiene tres sub-secciones: Teoría da un modelo estadístico y suposiciones; la Estimación se examina brevemente el de mínimos cuadrados de la estimación de parámetros; y la Predicción se muestra cómo kriging encaja en el de mínimos Cuadrados Generalizados (GLS). He hecho un esfuerzo para adoptar la notación familiar para los estadísticos, especialmente los visitantes a este sitio, y el uso de conceptos que son bien explicados aquí.

Para resumir, el kriging es el Best Linear Unbiased Prediction (BLUP) de un campo aleatorio. Lo que esto significa es que el valor de la predicción no muestreados en cualquier ubicación se obtiene como una combinación lineal de los valores y las covariables observadas en los lugares muestreados. El (desconocido, al azar), valor que se ha asumido de correlación con los valores de la muestra (y los valores de la muestra están correlacionados entre sí). Esta correlación de la información es traducido fácilmente a la varianza de la predicción. Uno elige los coeficientes de la combinación lineal (la "kriging pesos") que hacen que esta variación tan pequeña como sea posible, a una condición de cero sesgo en la predicción. Siga los detalles.


La teoría de la

Reino unido se compone de dos procedimientos – uno de la estimación y el otro de la predicción ha llevado a cabo en el contexto de un GLS modelo para un área de estudio. El GLS modelo supone que los datos de la muestra $z_i,\ (i = 1, 2, ..., n)$ son el resultado de desviaciones aleatorias alrededor de una tendencia y que esas desviaciones están correlacionados. Una tendencia que se entiende en el sentido general de un valor que puede ser determinado por una combinación lineal de $p$ desconocido coeficientes (parámetros) $\beta=(\beta_1,\beta_2,\ldots,\beta_p)^\prime$.

En cualquier ubicación dentro de un área de estudio existe una tupla de atributos numéricos $\mathbf y = (y_1, y_2, \ldots, y_p)^\prime$ denomina "variables independientes" o "covariables." (Típicamente $y_1 = 1$ es un "término constante," $y_2$ $y_3$ puede ser de las coordenadas espaciales, y el adicional de $y_i$ puede representar la información espacial, así como otros auxiliares de la información que está disponible en todas las ubicaciones en el área de estudio, tales como la porosidad de un acuífero o de la distancia a una de bombeo). En cada ubicación de los datos de $i$, además de sus covariables $y_i = (y_{i1}, y_{i2}, \ldots, y_{ip})^\prime$, la asociada a la observación de la $z_i$ se considera una realización de una variable aleatoria $Z_i$. En contraste, el $y_i$ son considerados como los valores determinados por el o la caracterización de los puntos o pequeñas regiones representadas por las observaciones (los datos "compatible"). El $y_i$ no se consideran las realizaciones de variables aleatorias y están obligados a no estar relacionado con las propiedades de cualquiera de las $Z_i$.

La combinación lineal $$ {\bf{E}}\left[ {Z_i } \right] = {\bf{y'}}_i {\bf{\beta }} = y_{i1} \beta _1 + y_{i2} \beta _2 + \cdots + y_{ip} \beta _p $$ expresa el valor esperado de $Z_i$ en términos de los parámetros $\beta$, que es el valor de la tendencia en la ubicación de $i$. El proceso de estimación utiliza los datos para encontrar los valores de $\hat\beta_i$ que representan los parámetros desconocidos $\beta_i$, mientras que el proceso de predicción utiliza los datos en ubicaciones $i = 1, 2, \ldots, n$ a calcular un valor en un muestreado ubicación, que está aquí, que el índice $i = 0$. Los objetivos de la estimación son fijos (es decir, no al azar) parámetros considerando que el objetivo de la predicción es aleatorio, porque el valor de $z_0$ incluye una fluctuación aleatoria alrededor de su tendencia de $y_0^\prime\beta$. Normalmente, se realizan las predicciones para múltiples ubicaciones, utilizando los mismos datos mediante la variación de la ubicación de $0$. Por ejemplo, las predicciones se hacen a menudo para trazar el mapa de una superficie a lo largo de una malla regular de puntos adecuado para el contorno.

Estimación

Clásico de kriging asume las fluctuaciones aleatorias $Z_i$ tienen valores esperados de cero y sus covarianzas son conocidos. Escribir la covarianza entre el$Z_i$$Z_j$$c_{ij}$. El uso de este covarianza, la estimación se realiza utilizando GLS. Su solución es la siguiente: $$ \hat\beta=\bf{Hz},\ {\bf{H}} = \left( {{\bf{Y C}}^{{\bf{ - 1}}} {\bf{Y}}} \right)^{{\bf{ - 1}}} {\bf{Y C}}^{{\bf{ - 1}}} $$ donde ${\bf {z}} = (z_1, z_2, \ldots, z_n)$ $n$- vector de las observaciones, ${\bf Y} = (y_{ij})$ (el "diseño de la matriz") es el $n$ $p$ de la matriz cuyas filas son los vectores $y_i^\prime, 1 \le i \le n$, e $\mathbf C = (c_{ij})$ $n$a$n$ matriz de covarianza que se presume es invertible (Draper Y Smith (1981), la sección 2.11). El $p$ $n$ matriz $\mathbf H$, que los proyectos de los datos de $\mathbf z$ sobre las estimaciones de los parámetros de $\hat \beta$, es llamado el "sombrero de la matriz." La formulación de $\hat\beta$ como la aplicación de los sombrero de la matriz de los datos de manera explícita cómo se las estimaciones de los parámetros dependen linealmente de los datos. El covarianzas $\mathbf C = (c_{ij})$ son clásicamente se calcula utilizando un variograma que da la covarianza en términos de las ubicaciones de los datos, aunque es indiferente cómo la covarianza se calcula.

Predicción

Reino unido de manera similar predice $z_0$ por medio de una combinación lineal de los datos $$ \hat z_0 = \lambda _1 z_1 + \lambda _2 z_2 + \cdots + \lambda _n z_n = {\bf{\lambda 'z}}. $$ El $\lambda_i$ son llamados los "kriging pesos" para la predicción de la $z_0$. Reino unido lleva a cabo esta predicción de $z_0$ por el cumplimiento de dos criterios. En primer lugar, la predicción debe ser imparcial, lo cual se expresa mediante la exigencia de que la combinación lineal de las variables aleatorias $Z_i$ es igual a $Z_0$ en promedio: $$ 0 = {\bf{E}}\left[ {\hat Z_0 - Z_0 } \right] = {\bf{E}}\left[ {{\bf{\lambda 'Z}} - Z_0 } \right]. $$ Esta expectativa es tomado a través de la articulación de $n+1$-variable de distribución de $Z_0$$\mathbf Z = (Z_1, Z_2, \ldots, Z_n)$. La linealidad de espera junto con la tendencia de la asunción (1) implica: $$ \eqalign{ 0 &= {\bf{E}}\left[ {{\bf{\lambda 'Z}} - Z_0 } \right] = {\bf{\lambda 'E}}\left[ {\bf{Z}} \right] - {\bf{E}}\left[ {Z_0 } \right] = {\bf{\lambda '}}\left( {{\bf{Y\beta }}} \right) - {\bf{y'}}_0 {\bf{\beta }} = \left( {{\bf{\lambda 'Y}} - {\bf{y'}}_0 } \right){\bf{\beta }}\\ y= {\bf{\beta}}\left( {{\bf{Y'\lambda }} - {\bf{y}}_0 } \right) }$$

no importa lo $\beta$ puede ser. Este será el caso, siempre que

$$\hat{\mathbf Y}^\prime \lambda = \mathbf{y}_0.$$

De entre todas las posibles soluciones de este sistema subdeterminado de ecuaciones, reino unido elige $\lambda$ a minimizar la varianza del error de predicción de $\hat Z_0 - Z_0$. En este sentido, el reino unido es "mejor" entre todos imparcial lineal predictores. Debido a que esta última relación implica que el error de predicción es igual a cero, en promedio, la varianza es simplemente la expectativa de que el cuadrado del error de predicción: $$ {\rm{Var}}\left( {\hat Z_0 - Z_0 } \right) = {\bf{E}}\left[ {\left( {\hat Z_0 - Z_0 } \right)^2 } \right] = {\bf{E}}\left[ {\left( {{\bf{\lambda 'Z}} - Z_0 } \right)^2 } \right] = c_{00} - 2{\bf{\lambda 'c}}_0 + {\bf{\lambda 'C\lambda }}$$ donde $\mathbf c_0 = (c_{01}, c_{02}, \ldots, c_{0n})^\prime$ es el vector de covarianzas entre las $Z_0$ e las $Z_i,\ i \ge 1$, e $c_{00}$ es la variación de $Z_0$.

Para minimizar la varianza, se diferencian con respecto a $\lambda$ e introducir un vector de $p$ multiplicadores de Lagrange $\mu$ a incorporar en la restricción $\hat{\mathbf Y}^\prime \lambda = \mathbf{y}_0$. Esto produce un sistema de $n+p$ ecuaciones lineales, escritos en bloque-la forma de la matriz como $$ \left( {\begin{array}{*{20}c} {\bf{C}} & {\bf{Y}} \\ {{\bf{Y'}}} & {\bf{0}} \\ \end{array}} \right)\left( {\begin{array}{*{20}c} {\bf{\lambda }} \\ {\bf{\mu }} \\ \end{array}} \right) = \left( {\begin{array}{*{20}c} {{\bf{c}}_{\bf{0}} } \\ {{\bf{y}}_{\bf{0}} } \\ \end{array}} \right)$$ donde $\mathbf 0$ representa un $p$ $p$ matriz de ceros. Escrito $\mathbf 1$ $n$ $n$ matriz identidad, la única solución para $\lambda$ está dado por $$ {\bf{\lambda }} = {\bf{H, i}}_0 + {\bf{C}}^{ - 1} \left( {{\bf{1}} - {\bf{YH}}} \right){\bf{c}}_0. $$

(Los lectores familiarizados con la regresión múltiple puede encontrar que es ilustrativo comparar esta solución a la covarianza basado en la solución de mínimos cuadrados ordinarios Normal de ecuaciones, que se ve casi exactamente el mismo, pero no con un multiplicador de Lagrange términos.)

Esta relación se presenta el kriging pesos, $\lambda$, como la suma de un término que sólo depende de el sombrero de la matriz y de las covariables en la predicción de la ubicación de $[\mathbf H\prime\, \mathbf y_0]$ más un término que depende de las covarianzas entre los datos y la predictand, $Z_0$. Sustituyendo en el lado derecho de la ecuación de la varianza de los rendimientos de la kriging la varianza de la predicción, que puede ser utilizado para la construcción de la predicción de los límites de alrededor de $\hat z_0$.

i-Ciencias.com

I-Ciencias es una comunidad de estudiantes y amantes de la ciencia en la que puedes resolver tus problemas y dudas.
Puedes consultar las preguntas de otros usuarios, hacer tus propias preguntas o resolver las de los demás.

Powered by:

X