Tengo archivos shapefiles de 200 Mb de polilíneas descargados de OSM . He estado trabajando con QGIS 2.0 en Ubuntu 64 Bit 8 Gb RAM para hacer algunas tareas de geoprocesamiento y está tardando 2 días en procesarse.
Una vez que tengo mi shapefile final, tengo que hacer más cálculos/scripts para hacer un modelo, y no tengo ese tiempo.
Así que, para acelerar el proceso he pensado en:
- Exportar mis shapefiles a R
- Convertirlos a SQL y procesarlos por spatialite
- ¿Tal vez gdal en shell?
Pero no sé cuál es la opción más rápida/mejor, porque soy un principiante con big data y scripting, así que python todavía no es una opción para mí. Tengo algo de experiencia en R, pero no sé si es la mejor opción.
Tengo un base de datos para Brasil. Me interesan dos shapefiles: "landuse" y "roads". Tengo otro con el estado de São Paulo "sp". Por lo tanto, sólo necesito intersecar el landuse con sp = landuse_sp, roads con so = roads_sp, y posteriormente roads_sp con landuse_sp. Esto es para tener todas las carreteras del estado de São Paulo con el uso de la tierra. Luego interceptaré con los municipios y con otro conjunto de datos con el conteo de vehículos generaré un modelo para el conteo de vehículos.
Con este shapefile final, necesito realizar cálculos de casos añadiendo campos. Con la calculadora de campos, creando el campo "count" como ejemplo, sería algo así:
CASE WHEN roads IS 'primary' AND landuse IS 'residential' THEN exp(8 + 0.0033*2)
ELSE 0
END
Esto es sólo un ejemplo, pero es toda una idea