72 votos

¿Podría un ordenador desenfocar la imagen de un microscopio desenfocado?

Básicamente me pregunto cuál es la naturaleza de una imagen desenfocada. ¿Se trata de información aleatoria? ¿Podría deshacerse el desenfoque mediante algún algoritmo?

3 votos

Creo que esto probablemente debería estar en validación cruzada. Pero creo que la respuesta es 'no, pero si conoces las características del proceso de desenfoque (que es la parte física) puedes hacer algunos trucos inteligentes para que la imagen parezca menos mala'.

3 votos

Estoy menos interesado en la parte del algoritmo y más en la parte física, sólo utilicé el lenguaje informático porque no se me ocurrió una forma más física de expresar las cosas. La óptica siempre me ha confundido.

1 votos

Voto por cerrar esta pregunta como off-topic porque esto tiene todo que ver con el proceso de la imagen y la infografía.

84voto

christo16 Puntos 2546

El desenfoque no es aleatorio, es predecible. Véase ¿Puede alguien explicar qué ocurre a escala microscópica cuando una imagen se desenfoca en una pantalla desde la lente de un proyector? para una explicación básica.

Cada punto de la imagen enfocada se extiende en un patrón de difracción de anillos denominado función de dispersión de puntos (PSF), y estos patrones anulares se superponen para formar la imagen desenfocada. La imagen desenfocada es la convolución del objeto y la PSF.

La convolución es una transformación matemática que en algunas circunstancias puede invertirse (deconvolución), por ejemplo cuando la imagen se ha tomado con luz coherente (de un láser) y se conoce la PSF. Cuando las fotos se toman con luz incoherente ordinaria y se desconoce la PSF, el desenfoque no puede invertirse por completo, pero sí puede mejorarse significativamente, por ejemplo, utilizando la algoritmo de deconvolución ciega . Se pueden utilizar ejemplos de objetos e imágenes resultantes para reconstruir aproximadamente la PSF, o se puede utilizar una función gaussiana.

También se puede corregir el desenfoque debido al movimiento (de la cámara o del objeto). Para ambos casos, las técnicas y los problemas se tratan en Restauración de imágenes desenfocadas y borrosas y ejemplos de lo que se puede conseguir.

Los programas informáticos están disponibles en línea para arreglar imágenes borrosas .

0 votos

¿La borrosidad debida a un enfoque incorrecto es en realidad una PSF planar? Esperaba que fuera más complicado.

1 votos

@R a mi entender, sí lo es. En realidad es un conjunto de PSF paralelas para explicar todo el campo 3D. Puedes desenfocar un plano específico suponiendo que tienes una tabla de las trayectorias de rayos predecibles para ese plano .

0 votos

Gran enlace. No sabía que se podía usar un filtro Weiner para desenfocar una imagen. Yo lo uso para suavizar el valor de posición de los sensores de movimiento. Supongo que las dos aplicaciones son similares: para averiguar el valor "real" de una entrada ruidosa.

38voto

Manuel Puntos 11

Sí, se llama deconvolución . He aquí algunos ejemplos de imágenes deconvolved de microscopios:

enter image description here enter image description here enter image description here

Las encontré buscando en Google "ejemplo de imagen deconvolvida de un microscopio".

Es posible disparando láseres a través de la lente y generando un mapa de datos de rayos que puede utilizarse en el algoritmo de deconvolución. También he visto hacer esto con un en primer plano imagen y deconvolución para enfocar un plano completamente distinto.

11 votos

¡Por fin un compañero cefalópodo! ¡Saludos!

33voto

GLG Puntos 320

Sí, se puede deshacer (parcialmente), porque el proceso no es aleatorio y sólo se pierde parte de la información.

Física

Comentas que te interesa el aspecto físico de la pregunta, así que vamos a aclararlo primero: una imagen es centrado cuando cada punto del objeto corresponde a un punto de la imagen: todos los rayos que emanan de un punto determinado del objeto y que pasan, por ejemplo, a través del objetivo, convergen en un único punto (del sensor, ya sean tus ojos, un CCD o una película). Una imagen es fuera de foco cuando eso no ocurre: cuando esos rayos se dispersan y cada punto de la imagen recibe luz de distintos puntos del objeto. Si sabes exactamente el desenfoque que se ha producido, puedes intentar invertirlo.

Eso se explica mejor en esta respuesta a la pregunta ¿Por qué la imagen se ve borrosa o desenfocada con lentes convexas? .

Algoritmos

Los algoritmos para la eliminación del desenfoque deben trabajar con hipótesis sobre cómo se produjo exactamente el desenfoque, es decir, qué función lo describe mejor, o el modelo del proceso de desenfoque. Se pueden encontrar algoritmos de restauración en muchas aplicaciones de tratamiento de imágenes, pero sigue siendo un área activa de investigación. Puede leer sobre ello aquí y aquí entre muchos otros fuentes . Sin embargo, hay que señalar que la restauración es sólo parcial y que los artefactos parecen estar siempre presentes en las imágenes restauradas.

Oscurecimiento intencionado

Sin embargo, si se aplica la pixelación, la imagen sufre un granulado grueso, por lo que la información se pierde irreversiblemente, y lo mismo ocurre con otras formas de desenfoque, como el promediado y la adición de ruido a la imagen: entonces, en general un algoritmo no puede recuperar información de la imagen, porque la información ya no está ahí.

Pero un algoritmo puede adivinar. Se puede entrenar un red neuronal artificial para reconocer lo que esperas o quieres encontrar en la imagen, y dejar que complete los detalles, como se explica aquí y aquí .

5 votos

Sólo señalar que algunas de esas suposiciones pueden ser terriblemente erróneas (busque en Google imágenes de deepmind para ver cambios intencionados como éste) o sorprendentemente precisas. O ambas cosas. A veces es difícil saberlo.

3 votos

Una de las formas más interesantes de "adivinar" es utilizar detección por compresión . Cuando se cumplen los supuestos, es decir, que la entrada original es dispersa en el dominio pertinente, los resultados suelen ser increíbles. El sitio primer éxito Conseguí googlear "compresive sensing deblur" ilustra esto en un caso no ciego. También existen enfoques de deconvolución ciega como este con una imagen familiar.

0 votos

Esta respuesta contiene algunos puntos especialmente importantes. La naturaleza física del proceso de desenfoque a menudo puede hacer que la información sea (esencialmente) imposible de recuperar. El ruido y la pixelación son dos ejemplos, como lo sería la pérdida de los bordes de iluminación de las imágenes, lo que haría imposible la deconvolución.

17voto

derjur Puntos 101

El objetivo de un sistema de lentes de cámara (ya sea un microscopio o no) es enviar luz desde un punto del objeto a un punto del sensor. Sin embargo, esto no se puede conseguir perfectamente por varias razones.

  1. La luz se difractará en la apetura, cuanto más pequeña sea la apetura mayor será la difracción.
  2. El sistema sólo estará perfectamente enfocado para un plano infinitamente delgado. Cuanto mayor sea la apetura, más rápido caerá el enfoque con la distancia desde ese plano.
  3. Las propias lentes serán imperfectas.

Todos estos efectos atenúan los componentes de alta frecuencia (espaciales) de la imagen. A esto lo llamamos desenfoque.

Para invertir el desenfoque, primero debemos caracterizarlo. Para caracterizar el desenfoque hay que hacer algunas suposiciones sobre lo que hay en la imagen y/o las características de los elementos ópticos que causan el desenfoque.

Una vez que tenemos una función matemática que describe el proceso de desenfoque, podemos calcular la inversa de esa función y aplicarla a la imagen.

Sin embargo, hay límites para mitigar el impacto del desenfoque. En primer lugar, porque nuestro modelo matemático del desenfoque es sólo una aproximación y, en segundo lugar, porque el proceso de inversión amplifica inevitablemente el ruido de la imagen.

17voto

Niall Puntos 2074

He trabajado exactamente en este problema y la respuesta es muy controvertida.

En el centro de la controversia está la desconexión entre los enfoques de la tomografía (imágenes en 3D) y los mapas de superficie (2,5D, "todos vivimos en un holograma") para la formación de imágenes. El enfoque "todos vivimos en un holograma" ha tenido recientemente un gran éxito comercial y experimental, para disgusto de los veteranos de la tomografía.

Los distintos sistemas ópticos tienen capacidades drásticamente diferentes para reenfocar la imagen. Además, cada sistema se basa en supuestos físicos diferentes. Veamos algunos:

Sistemas de campo luminoso como el Lytro puede producir un enfoque selectivo para objetos macroscópicos, por otro lado, se pueden conseguir efectos similares con filtros digitales.

A baja AN (>0,3), la iluminación coherente (láser) se ajusta bien a la aproximación de sistemas lineales a la propagación de ondas en un semiespacio dada por el propagador de Fresnel. Se puede aplicar el propagador de Fresnel y enfocar y desenfocar el sistema, aunque se necesita algún tipo de medida del campo complejo. Algunos enfoques populares son Sensores de frente de onda tipo Hartmann-Shack (similar a Lytro), interferometría tradicional y transporte de intensidad (TIE). Las imágenes de estos sistemas tienen un aspecto bastante terrible porque la basura en algún lugar de la trayectoria del haz (quizá a unos pocos centímetros de distancia) contribuye a la formación de la imagen.

Ahora las cosas empiezan a volverse locas cuando se introducen efectos de coherencia. Por otra parte, la imagen se ve mejor bajo iluminación incoherente. El primer problema es que, incluso en los sistemas que son lineales con el potencial de dispersión del objeto (¡no muchos!), la coherencia introduce un límite de banda espacial. Es decir, los objetos fuera de la coherencia espacio-temporal (en realidad no se pueden dividir) se desvanecen. Por tanto, ahora el sistema sólo es sensible a un estrecho rango de tamaños de objetos, y se empieza a producir un seccionamiento óptico. Esta técnica se conoce como "coherence gating" y fue utilizada por OCT . En la práctica, no se puede propagar el campo más allá de lo que permite la coherencia. En la mayoría de los sistemas de banda ancha esto significa que no se puede, digitalmente, mover el campo hacia arriba y hacia abajo más de unas pocas micras. (y empeora a altas AN)

Por otro lado, puedes simplemente mover la muestra (o ajustar el enfoque). Al hacer esto se introduce un nuevo grado de libertad, que es el origen de la imagen tomográfica (tomografía de difracción). Para las personas que utilizan este tipo de sistemas, su mundo está hecho de cortes tridimensionales. Te dirían que no se puede simplemente reenfocar la luz indefinidamente.

Otro problema es que muchos sistemas no son realmente lineales con el objeto, por ejemplo, el infame halo de la microscopía de contraste de fases. En estos casos, no es posible enfocar o reenfocar la muestra de forma digital porque el sistema no suele medir el campo debido a la muestra.

Desde el punto de vista teórico, existe un gran debate sobre si los campos son aleatorios, pero las posturas adoptadas por los distintos grupos de investigación están estrechamente ligadas a sus montajes experimentales.

3 votos

¿Podría añadir algunas referencias?

0 votos

Creo que esta respuesta introduce demasiados tecnicismos y no es apropiada aquí. Debería reescribirse para que sea accesible a un público general.

i-Ciencias.com

I-Ciencias es una comunidad de estudiantes y amantes de la ciencia en la que puedes resolver tus problemas y dudas.
Puedes consultar las preguntas de otros usuarios, hacer tus propias preguntas o resolver las de los demás.

Powered by:

X