Ok, así que supongo que este tipo de informales de consulta/encuesta acerca de cómo los conjuntos de datos que está utilizando en su ESRI mundos...
Yo soy la construcción y el mantenimiento de un conjunto de datos a nivel estatal, donde tengo que tramitar la baja a la casa individual, parcela de nivel, pero múltiples direcciones de envío por paquete para nuestros sistemas. En muchos lugares, estoy usando teórico direcciones calcula a partir de la calle de red o USPS AMS/datos AIS. Así que mi Lista de Direcciones es de aproximadamente 13.5 millones de direcciones y growning mensual o trimestral.
Hay alguien ahí fuera ahora mismo el mantenimiento de un sistema de dirección/correctamente búsqueda de información que es de gran tamaño en un continuo conjunto de datos?
Me encantaría colaborar o hablar más acerca de cómo los demás son el manejo de un gran conjunto de datos. Estoy viendo problemas donde el software de ESRI parece ser que sopla cuando intento realizar tareas tales como la cruza o espacial se une. ESRI dice que no ve este tipo de problemas, pero he tenido estos problemas, ya de regreso a 9.3.1 por lo que no puede ser la primera y única persona haciendo esto desde que me puede volver a crearla a través de múltiples máquinas.
Mi Plataforma es ahora ESRI ArcGIS 10 en el Escritorio, hablando de ArcSDE 9.3.1-sp1 en un SQL2008 motor usando la GEOMETRÍA de objetos espaciales. Así que yo no estoy haciendo nada realmente exótico; pero todavía me parece que en algunas áreas, tal vez me estoy empujando el sobre.
[Más]
Lo que me interesa saber es lo que otras personas están haciendo para optimizar existen procesos para el tratamiento de estos conjuntos de datos. Voy a estar agregando upwords de un millón de registros de un mes en adelante, y mientras Geocodificación etc no es un problema cuando se inicia la ejecución de otros procesos y la vinculación de los datos para su posterior análisis de empezar a tratar con combinaciones complejas. Así, los datos de salida de Cruza/Superposiciones/Identidades mediante Only_FID y se obtiene una fina media tabla para unirse demasiado; pero cuando se empieza a tratar de dividir y conquistar la creación de esa mesa empieza a golpear a cuestiones en las que es necesario dividir los datos de origen en las zonas de trabajo, pero entonces usted tiene la repetición de los IDENTIFICADORES que no se puede combinar; por lo que se quedan con los más pequeños bloques de datos que no se pueden fácilmente hacer todo de nuevo.
El pensamiento acerca de las opciones que se rompen los datos de Condado por Condado de escala, a continuación, utilizando espacial vistas a unirse de nuevo juntos, etc... Solo por curiosidad, si otros usuarios están buscando el mismo tipo de problemas en una escala tan grande, pero en pequeñas huellas.
Respuesta
¿Demasiados anuncios?Como es un (antiguo) pregunta abierta me voy a dar una abierta respuesta:
El uso de la base de datos correctamente puede ahorrar enormes cantidades de tiempo. La manera obvia de hacer algo no es necesariamente el más rápido, por ejemplo, cuando hace poco me quería eliminar una gran cantidad de filas de Oracle, resulta que sólo el envío: delete from TABLE1 where ID = 123
para cada característica fue muy lento y que hay algún capricho de Oracle cosas que puedo hacer para hacer órdenes de magnitud más rápido.
Así que, básicamente, si usted encuentra un problema en particular que es un cuello de botella, pregunte a una pregunta específica relativa a que el cuello de botella de los expertos. Así que para el ArcGIS lado que probablemente sería aquí (o de ESRI foros, o su ESRI support), pero para una base de datos del lado del problema (y las cosas suelen ser más rápido si se hacen allí) que usted quiere preguntar en http://www.stackoverflow.com