11 votos

¿Qué causa la borrosidad en un sistema óptico?

La forma en que entiendo el propósito de un sistema óptico típico es que crea un mapeo uno a uno entre cada posible rayo incidente y un punto en un plano sensor. Esto es como una función matemática. Si no hubiera mapeo, y cada rayo fuera libre de incidir en cualquier punto de un sensor, no se formaría ninguna imagen en él y sería sólo luz media borrosa. Esto sería como tener un sensor de cámara sin lente.

Ahora hay un concepto muy simple que crea este mapeo uno a uno, cámara estenopeica. En una cámara pin-hole no hay desenfoque posible, siempre que el agujero sea lo suficientemente pequeño, cada punto opuesto al agujero se mapea en un rayo específico. Esto significa que este tipo de cámara nunca puede tener una imagen borrosa, sin importar dónde esté el punto focal. Esto se puede demostrar, geométricamente.

Sin embargo, en un sistema óptico que utiliza lentes para crear este mapeo, las cosas no siempre son ideales, ya que se producen desenfoques. Lo que indica que el mapeo no es uno a uno, y que algunos puntos del sensor comparten rayos entre sí creando promedios locales, es decir, desenfoque. A menudo se afirma que esto ocurre porque el punto focal no está en el "lugar correcto". Si considera el modelo de agujero de alfiler como el ideal, comprenderá que esto no es cierto. Cambiar el punto focal sólo hará que la imagen parezca más pequeña o más grande. Desde la óptica geométrica por sí sola no veo lo que podría causar el reparto de los rayos. Me parece que hay algo más y que no soy el único confundido.

Entonces, ¿qué es lo que realmente crea la borrosidad? ¿Existe algún tipo de imperfección en las lentes que hace que envíen múltiples rayos al mismo punto en un sensor y que de alguna manera se hace más visible a ciertas distancias focales? Esta es la única explicación que tengo.

0 votos

Creo que tienes una buena pregunta, pero deberías editarla para utilizar más espacios en blanco y posiblemente reducir su longitud a algo más fácil de digerir.

4voto

Para añadir algunos detalles a Respuesta de Eoin .

Su descripción de la imagen como cartografía es buena para empezar y le llevará muy lejos. Sin embargo, incluso en la óptica de rayos (véase mi respuesta aquí para más información), es decir cuando la propagación de la luz puede ser aproximada por la ecuación de Eikonal (ver aquí para más información ), el mapeo de puntos uno a uno entre el objeto y el plano de la imagen, como describes, sólo puede ocurrir en condiciones muy especiales. En general, un haz de rayos divergentes desde un punto no convergerá a un punto después de pasar por un sistema de imagen hecho de lentes refractantes y espejos. Hay que diseñar el sistema de forma que la convergencia se aproxime bien a la convergencia a un punto. Como ha dicho Eoin, esta no convergencia es la descripción de la aberración en la teoría de los rayos: esférica, comática, astigmática, trébol, tetráfilo, pentáfilo, etc., son palabras que se utilizan para describir la aberración con simetrías particulares (la aberración esférica tiene simetría de rotación con respecto al rayo principal, la coma cambia de signo en un $180^o$ rotación sobre el rayo principal, el trébol voltea el signo en un $120^o$ rotación, etc.). También existe la aberración cromática, en la que la posición del punto de la imagen depende de la longitud de onda, de modo que las fuentes puntuales con dispersión espectral tienen imágenes borrosas. Por último, la superficie de la imagen, que comprende los puntos de "menor confusión" (es decir, los que mejor se aproximan a los puntos de convergencia de los rayos), siempre está curvada en cierta medida -a menudo se aproxima bien a un elipsoide- y, por tanto, aunque la convergencia a los puntos sea perfecta, la superficie focal no se alineará con un conjunto CCD plano. Esto se conoce como falta de la planicidad del campo Objetivos de microscopio con superficies de imagen especialmente planas: llevan la palabra "Plan" (por lo que tiene "Plan Achromat", "Plan Apochromat", etc.).

Sólo sistemas muy especiales permiten la convergencia de todos los haces de rayos que divergen de puntos de la superficie del objeto a puntos precisos de la superficie de la imagen. Dos ejemplos famosos son el Lente ojo de pez Maxwell y la Esfera Aplanática: ambas se describen en la sección denominada "Sistemas de imágenes perfectas" en Born y Wolf, "Principios de óptica". También son perfectos sólo en una longitud de onda.

Una condición equivalente para la convergencia a un punto es que el recorrido óptico total -el Lgagrangiano óptico es la misma para todos los rayos que pasan entre los puntos.

Por lo general, los sistemas de lentes están diseñados para que la imagen perfecta que describes se produzca en el eje óptico. La convergencia de los rayos en todos los demás puntos es sólo aproximada, aunque puede hacerse lo suficientemente buena como para que los efectos de difracción superen la no convergencia.

Y, por supuesto, si todo lo demás es perfecto, existe la limitación de difracción descrita por Eoin. El límite de difracción surge simplemente porque las ondas planas convergentes con número de onda $k$ no puede codificar ninguna variación del objeto que varíe a una frecuencia espacial mayor que $k$ radianes por segundo. Esta es, si se quiere, la componente de Fourier de máxima frecuencia espacial con la que se puede construir una imagen. No se pueden formar imágenes más onduladas que esta componente de Fourier de máxima ondulación. Una onda esférica de amplitud uniforme y sin aberraciones converge a una Disco ventilado lo que a menudo se toma como la definición de la "distancia mínima de difracción resoluble". Sin embargo, esta distancia mínima es un poco más complicada que eso. En última instancia, también está definida por la relación señal/ruido, por lo que una señal óptica extremadamente limpia puede ver características un poco más pequeñas que el llamado límite de difracción, pero la mayoría de los sistemas, incluso si su óptica está limitada por la difracción, están limitados además por el ruido a algo menos que el "límite de difracción".

0 votos

Son pistas interesantes para explorar.

2voto

blowdart Puntos 28735

Un sistema óptico perfecto tiene que aceptar un rayo que entra en cualquier ángulo y doblarlo exactamente en el punto correcto del plano de la imagen. Por desgracia, no es posible fabricar una lente que pueda hacer esto para todos los rayos posibles, porque la forma tendría que ser diferente para los rayos de diferentes ángulos que inciden en la misma parte de la lente (o espejo).

Un agujero de alfiler lo hace limitando los rayos a un rango muy pequeño de ángulos de rayos y teniendo un plano de imagen curvo. Los sistemas de lentes se aproximan al comportamiento ideal añadiendo más y más superficies ópticas de diferentes tipos de curvatura, cada una para corregir una gama específica de problemas. Pero (al menos con un número finito de componentes) se puede complacer a todos los rayos.

Además, hay otras diferencias técnicas, como la aberración cromática (diferentes longitudes de onda se curvan de forma diferente en el mismo cristal)

0 votos

Has hecho un punto muy bueno, que la misma lente y más importante un punto en una lente tiene que aceptar rayos de diferentes ángulos y actuar perfectamente. Esta podría ser una de esas diferencias clave entre los sistemas de agujeros de alfiler y de lentes que estaba buscando.

0 votos

@sarella - correcto. Es posible con lentes holográficas hasta cierto punto pero con otras restricciones

2voto

Tome Puntos 1

No estoy seguro de que los mensajes anteriores respondan a su pregunta final. Quiero darte una imagen intuitiva de la situación. Siempre que el detalle señalado por @WetSavannaAnimal que el "verdadero" mapeo es

{punto del plano del objeto} a {punto del plano de la imagen}

cuando se habla de sistemas ópticos convencionales, y no de rayo a punto, ya que siempre muchos rayos que pasan por su lente terminan en el mismo punto (se puede pensar entonces en

{cada rayo que sale del mismo punto del objeto} a {punto del plano de la imagen} ),

puedes entender las causas del desenfoque con un diagrama de rayos. También voy a descuidar la difracción, que reduce la nitidez en su cámara estenopeica.

Si su sistema es de una sola lente, puede pensar en la luz como un cono :

enter image description here

Si tu imagen se está formando en B y pones ahí una pantalla, una película, un sensor... obtienes tu mapeo de puntos. Si lo pones en A o C obtienes un mapeo punto-disco, dando discos superpuestos cuando tu objeto tiene más de un punto... Estos discos suelen ser gaussianos o tipo Airy, debido a la difracción. Como apuntas con el límite del estenopeico, la apertura finita (no recogiendo el $2\pi \text{ srad}$ de luz, sino un cono ) es la clave. Si ahora reducimos la apertura con un diafragma:

enter image description here

como hacemos en fotografía para ampliar la profundidad de campo, es decir, conseguir que todos los planos estén "enfocados", o conseguir una imagen enfocada allí donde esté la placa, como en la cámara estenopeica. En este límite, también se puede entender cómo la lente no importa en absoluto, ya que es localmente plana en su centro. Normalmente trabajamos en términos de funciones de transferencia de cajas negras para conectar los planos del objeto y de la pantalla.

Así que si necesitas gafas, puedes hacer unas baratas con un poco de papel de aluminio y un alfiler. Ese arreglo permite un amplio conjunto de observación de fenómenos interesantes... (como ver flotadores , el suyo propio fondo de ojo (por ejemplo, comprobar si hay polvo en los objetivos o sensores de la cámara, etc.)

0 votos

Parece que me olvidé de disminuir el tamaño del círculo A de confusión [ [es.wikipedia.org/wiki/Circle_of_confusion]](https://en.wikipedia.org/wiki/Circle_of_confusion]) en la segunda foto :(

1voto

Eoin Puntos 1070

Un límite fundamental en la resolución de la imagen será el límite de difracción. En este caso, la aproximación de los rayos se rompe y, en pocas palabras, el tamaño finito de los elementos ópticos hace que las ondas se "extiendan", de modo que ya no hay un mapeo uno a uno.

Sin embargo, supongo que otras cosas, como la aberración esférica y cromática, afectarán a la calidad de la imagen más que el límite de difracción en la mayoría de los casos del mundo real.

0 votos

Sí, pensé que era algo así. Entonces los oculistas de todo el mundo tendrán que estudiar algo más avanzado que la óptica geométrica, porque su explicación de la miopía nunca tuvo sentido para mí.. :) Voy a esperar un poco, a ver si alguien más quiere responder.

1voto

No existe ningún sistema óptico que pueda formar (en la aproximación de la óptica de rayos) una imagen REAL nítida y geométricamente no distorsionada de un objeto tridimensional REAL. Por "aproximación de la óptica de rayos", me refiero a ignorar la difracción; NO se limita a las situaciones "paraxiales".

Es bien sabido que un sistema óptico de imagen que forma una imagen con un aumento LATERAL de (m), también tiene un aumento LONGITUDINAL o AXIAL que es m^2. Por lo tanto, si (m) no es igual a uno (1), el objeto de tres dimensiones debe estar distorsionado.

Un objeto que se extiende a lo largo del eje desde una distancia 2f hasta el infinito, produce una imagen comprimida entre f y 2f en el lado de la imagen. Como el aumento lateral varía a lo largo del eje, un objeto de tres d debe dar una imagen distorsionada.

¿Y qué pasa con los objetos e imágenes planas? Ningún sistema óptico puede formar una imagen nítida y sin distorsiones de un objeto plano para dos relaciones conjugadas objeto/imagen diferentes (no simplemente inversiones objeto-imagen). Cualquier sistema óptico que pudiera hacer eso para dos relaciones conjugadas diferentes, también podría hacerlo, en todas las conjugadas posibles; pero no es posible. Para conseguirlo sería necesario que sin(A) / sin(B) = Tan(A) / Tan(B) para ángulos de rayos no paraxiales A y B. La relación Tan afecta a la distorsión geométrica, mientras que la relación sin afecta a la nitidez de la imagen (Aplanicidad). Por tanto, se pueden tener imágenes nítidas o imágenes geométricamente no distorsionadas (planas), pero no se pueden tener ambas.

Sólo existe un caso en el que se pueda formar una imagen de tres d de un objeto de tres d, que sea a la vez nítida en el caso geométrico, y también una geometría correcta sin distorsión a un aumento distinto de 1:1.

¡PERO! La imagen y el objeto no pueden ser ambos reales; uno debe ser virtual; y además, sólo para un objeto y una imagen 3d específicos. Son porciones de esferas concéntricas con la superficie refractante aplanada de radio R. Una tiene un radio R/N y la otra tiene un radio NR, por lo que el aumento es N^2. Por supuesto, las esferas deben tener un grosor de cáscara nulo. El radio R puede ser convexo (lo más común) o cóncavo (lo más inusual, de hecho, generalmente desconocido).

Pues bien, todo esto se puede encontrar en los textos estándar, y se conoce desde hace más de 100 años (excepto el caso de la aplanación cóncava, que es bastante nuevo).

i-Ciencias.com

I-Ciencias es una comunidad de estudiantes y amantes de la ciencia en la que puedes resolver tus problemas y dudas.
Puedes consultar las preguntas de otros usuarios, hacer tus propias preguntas o resolver las de los demás.

Powered by:

X