Estoy teniendo un problema de pérdida de memoria. Al investigar esto más, parece que el archivo de base de la geodatabase escribo en un bucle, es de crecimiento muy grande, y a medida que crece, se degrada significativamente el rendimiento de los scripts estoy corriendo.
Alguna idea de cómo optimizar la configuración de la fgdb? O cómo la velocidad de todo esto? Yo no soy 'de la escritura in_memory', estoy usando aggregatePoints para crear una temp featureclass (que voy a borrar), y me búfer de este FC, que me mantenga.
Sin embargo, parece más lento y más lento y más lento...
def createGeom1(geom, scratchDB):
filetime = (str(time.time())).split(".")
outfile = "fc" + filetime[0] + filetime[1]
outpath = scratchDB + "tmp1.gdb/Polygon/"
outFeatureAggClass = outpath+outfile + "_Agg"
arcpy.AggregatePoints_cartography(geom, outFeatureAggClass, "124000 meters")
geom es una colección de Puntos, cero cero área local (gdb estoy usando).
Sólo un bucle a través de una lista de archivos, puedo llamar a un procedimiento que crea alist de geoms (y no se degrade) y, a continuación, llamar a este. Haciendo esto, va a ver esta función, createGeom, degradar significativamente, y el anterior, no un poco.