He trabajado exactamente en este problema y la respuesta es muy controvertida.
En el centro de la controversia está la desconexión entre los enfoques de la tomografía (imágenes en 3D) y los mapas de superficie (2,5D, "todos vivimos en un holograma") para la formación de imágenes. El enfoque "todos vivimos en un holograma" ha tenido recientemente un gran éxito comercial y experimental, para disgusto de los veteranos de la tomografía.
Los distintos sistemas ópticos tienen capacidades drásticamente diferentes para reenfocar la imagen. Además, cada sistema se basa en supuestos físicos diferentes. Veamos algunos:
Sistemas de campo luminoso como el Lytro puede producir un enfoque selectivo para objetos macroscópicos, por otro lado, se pueden conseguir efectos similares con filtros digitales.
A baja AN (>0,3), la iluminación coherente (láser) se ajusta bien a la aproximación de sistemas lineales a la propagación de ondas en un semiespacio dada por el propagador de Fresnel. Se puede aplicar el propagador de Fresnel y enfocar y desenfocar el sistema, aunque se necesita algún tipo de medida del campo complejo. Algunos enfoques populares son Sensores de frente de onda tipo Hartmann-Shack (similar a Lytro), interferometría tradicional y transporte de intensidad (TIE). Las imágenes de estos sistemas tienen un aspecto bastante terrible porque la basura en algún lugar de la trayectoria del haz (quizá a unos pocos centímetros de distancia) contribuye a la formación de la imagen.
Ahora las cosas empiezan a volverse locas cuando se introducen efectos de coherencia. Por otra parte, la imagen se ve mejor bajo iluminación incoherente. El primer problema es que, incluso en los sistemas que son lineales con el potencial de dispersión del objeto (¡no muchos!), la coherencia introduce un límite de banda espacial. Es decir, los objetos fuera de la coherencia espacio-temporal (en realidad no se pueden dividir) se desvanecen. Por tanto, ahora el sistema sólo es sensible a un estrecho rango de tamaños de objetos, y se empieza a producir un seccionamiento óptico. Esta técnica se conoce como "coherence gating" y fue utilizada por OCT . En la práctica, no se puede propagar el campo más allá de lo que permite la coherencia. En la mayoría de los sistemas de banda ancha esto significa que no se puede, digitalmente, mover el campo hacia arriba y hacia abajo más de unas pocas micras. (y empeora a altas AN)
Por otro lado, puedes simplemente mover la muestra (o ajustar el enfoque). Al hacer esto se introduce un nuevo grado de libertad, que es el origen de la imagen tomográfica (tomografía de difracción). Para las personas que utilizan este tipo de sistemas, su mundo está hecho de cortes tridimensionales. Te dirían que no se puede simplemente reenfocar la luz indefinidamente.
Otro problema es que muchos sistemas no son realmente lineales con el objeto, por ejemplo, el infame halo de la microscopía de contraste de fases. En estos casos, no es posible enfocar o reenfocar la muestra de forma digital porque el sistema no suele medir el campo debido a la muestra.
Desde el punto de vista teórico, existe un gran debate sobre si los campos son aleatorios, pero las posturas adoptadas por los distintos grupos de investigación están estrechamente ligadas a sus montajes experimentales.
3 votos
Creo que esto probablemente debería estar en validación cruzada. Pero creo que la respuesta es 'no, pero si conoces las características del proceso de desenfoque (que es la parte física) puedes hacer algunos trucos inteligentes para que la imagen parezca menos mala'.
3 votos
Estoy menos interesado en la parte del algoritmo y más en la parte física, sólo utilicé el lenguaje informático porque no se me ocurrió una forma más física de expresar las cosas. La óptica siempre me ha confundido.
1 votos
Voto por cerrar esta pregunta como off-topic porque esto tiene todo que ver con el proceso de la imagen y la infografía.
0 votos
Quizá el procesamiento de señales o math.stackexchange puedan ayudarte si quieres detalles más técnicos de cómo hacerlo.
2 votos
Cuando se lanzó por primera vez el telescopio Hubble y descubrieron que el espejo estaba defectuoso, hicieron exactamente lo mismo durante uno o dos años hasta que se pudieron instalar ópticas correctoras.
0 votos
Si esto fuera posible, ¿sería también posible que un miope corrigiera mentalmente la imagen desenfocada sin llevar gafas?
3 votos
Considere que una imagen borrosa debido a un simple enfoque deficiente es como una señal electrónica enviada a través de un filtro de "paso bajo". Es posible invertirlo (hasta cierto punto) haciendo pasar la señal por el correspondiente filtro de "paso alto". Esto, por supuesto, siempre será imperfecto, y tiene el desagradable efecto de amplificar cualquier ruido en la señal.
0 votos
@HotLicks Hay algoritmos "mejores", pero creo que siempre tienen incorporado algún criterio de "bondad" que están optimizando, lo que da lugar a artefactos.
1 votos
@HotLicks en realidad no es un filtro de paso alto que desea, pero un estante alto que puede considerarse "señal sin filtrar más un poco de realce de paso alto". Al fin y al cabo, los componentes de baja frecuencia no se ven afectados por el desenfoque/filtrado de paso bajo.
0 votos
Me sorprende que la gente sugiera Stats.SE o Math.SE... es claramente una cuestión clásica de procesamiento de señales. Debería estar en DSP.
20 votos
El hecho de que una pregunta sea on-topic en otro sitio no la convierte en off-topic aquí. Ni siquiera si lo fuera mejor en algún otro sitio. La cuestión puede plantearse en términos físicos preguntando por las contribuciones de la luz en lugares distintos del plano focal. También hay una buena conexión con el análisis experimental de los datos cerca de los límites de aceptación limitada cuando se tienen efectos de redistribución que son conservadores sólo en todo el espacio de fase (algo que surgió explícitamente en mi trabajo de tesis, por ejemplo).