5 votos

Técnicas de regresión similares a la regresión del proceso Kriging/Gaussian

Estoy buscando técnicas de regresión que sean similares a la regresión de procesos Kriging/Gaussian, en el sentido de que no es necesario especificar un modelo explícito. (Descontando las funciones a priori) Tengo tres variables independientes y una variable dependiente a las que quiero aplicar dicho procedimiento. Las variables independientes especifican coordenadas (ubicaciones en 3D), mientras que la variable dependiente especifica la intensidad de la señal Wi-Fi en las coordenadas dadas. Dado que es difícil visualizar adecuadamente datos de tan alta dimensión, las técnicas sin dependencia explícita del modelo son de interés primordial. La única técnica similar que encontré fue la poco sofisticada Interpolación del vecino más cercano .

¿Son las técnicas mencionadas las únicas opciones para este problema?

4voto

Grevling Puntos 123

Yo añadiría una descripción más detallada del problema que intentas resolver, ya que tu pregunta es muy vaga. ¿Qué está tratando de atacar con la regresión de procesos Kriging/Gaussian? Cualquier pista sobre la naturaleza de tu problema podría ayudarte a obtener una mejor respuesta. De todos modos, básicamente podrías utilizar alguno de los muchos algoritmos de aprendizaje automático no paramétricos. Por ejemplo: CART, random forest, boosted regression trees, etc. Aunque no quieras especificar un modelo explícito, tienes un problema de la forma $Y:=X_{1}+X_{2}+X_{3}$ . Puedes ajustar cualquiera de estos modelos a tus datos, por ejemplo, ajustar el bosque aleatorio en R sería algo así:

fittedmodel <- randomForest(Y~X1+X2+X3,data=yourdata, ntree=1000)

fittedmodel <- randomForest(Y=yourdata[,1],X=yourdata[,2:4], ntree=1000)

La implementación del bosque aleatorio en R tiene más parámetros con los que jugar, pero en general es un modelo que requiere poco ajuste, por lo que usar los valores por defecto como estoy haciendo aquí puede dar resultados aceptables.

Si quieres interpolar un mapa, puedes utilizar este modelo entrenado en tus observaciones no etiquetadas, que simplemente deben tener valores para las variables independientes ( $X_{1}, X_{2}, X_{3}$ ):

interpolation <- predict(fittedmodel,unlabeleddata)

Además, si estás interpolando un mapa, introducir las coordenadas como variables independientes es a veces bastante útil.

2voto

JamesOff Puntos 309

Puede probar con la regresión lineal localmente ponderada (artículo de la wiki) . De hecho, existe una conexión entre ambas técnicas (regresión local y regresión GP), tal y como se describe en la página 26 del GPML libro.

i-Ciencias.com

I-Ciencias es una comunidad de estudiantes y amantes de la ciencia en la que puedes resolver tus problemas y dudas.
Puedes consultar las preguntas de otros usuarios, hacer tus propias preguntas o resolver las de los demás.

Powered by:

X