Quiero proceso automáticamente segmentación de imágenes de microscopía para detectar defectuoso imágenes y/o defectuosa de la segmentaciones, como parte de un alto rendimiento de imagen de tuberías. Hay una serie de parámetros que pueden ser calculadas para cada imagen raw y segmentación, y que se convierten en "extrema" cuando la imagen es defectuosa. Por ejemplo, una burbuja en la imagen el resultado de anomalías, tales como un tamaño enorme en una de las detectado "células", o un anómalamente bajo recuento de células por todo el campo. Estoy buscando una manera eficaz de detectar estos casos anómalos. Idealmente, yo preferiría un método que tiene las siguientes propiedades (aproximadamente en orden de preferencia):
no requiere predefinidos umbrales absolutos (aunque predefinidos porcentajes están OK);
no necesita tener todos los datos en la memoria, o incluso después de haber visto todos los datos; que sería bien por el método de adaptación y actualización de los criterios que considere más datos; (obviamente, con una pequeña probabilidad, anomalías pueden ocurrir antes de que el sistema se ha visto lo suficiente de datos, y será extrañado, etc.)
es parallelizable: por ejemplo, en una primera ronda, muchos de los nodos de trabajo en paralelo producir intermedio candidato anomalías, que luego se someten a una segunda ronda de selección después de la primera ronda.
Las anomalías estoy buscando no son sutiles. Ellos son el tipo que son claramente evidente si uno mira un histograma de los datos. Pero el volumen de datos en cuestión, y el objetivo final de la realización de este detección de anomalías en tiempo real a medida que las imágenes se generan, se opone a cualquier solución que requieren la inspección de los histogramas por un ser humano evaluador.
Gracias!