35 votos

¿Por qué el ojo humano no puede enfocar para hacer fotos/vídeos borrosos?

El ojo humano enfoca flexionando el cristalino, cambiando su distancia focal. Cuando pasamos de mirar un objeto cercano a un objeto lejano, nuestra lente se flexiona, moviendo la distancia focal de manera que el objeto cercano está desenfocado y el objeto lejano está enfocado. ¿Por qué no podemos hacer lo mismo ante una foto o un vídeo borrosos?

0 votos

Aquí hay otra pregunta relacionada que proporciona algunas respuestas: stackoverflow.com/questions/2563471/

8voto

MW99 Puntos 1

Me encanta esta pregunta. Allí es una sutil contradicción con la que se tropieza aquí y que es importante resolver.

Tanto una cámara como el ojo funcionan aproximadamente de la misma manera, y trataré de utilizar algunas palabras específicas para borrar la diferencia entre ellos. Estas son: luz de algún escena (una playa que estás mirando, o una manzana que estás fotografiando) se dirige a través de un pequeño agujero (la pupila de su ojo, la apertura de la cámara) para formar una imagen en un pantalla de sensores (las células de los bastones y los conos del ojo, la rejilla del CCD de una cámara moderna, los cristales de haluro de plata de las antiguas películas fotográficas). En el proceso, un lente también se utiliza para curvar la luz en su entrada; no es esencial para la función de la cámara, pero la hace más útil. También puede haber alguna noción de filtrado Esto no es esencial: la fotografía en blanco y negro sigue existiendo, pero el ojo tiene diferentes células con diferente capacidad de respuesta a los distintos colores de la luz y la fotografía a menudo trata de reflejar esto creando componentes con una capacidad de respuesta igualmente diferente a través de filtros de color, pero podemos imaginar que estamos hablando de la fotografía en blanco y negro y luego añadir este detalle de cómo el ojo ve el color al final.

Sólo para que pienses en los agujeros

Ahora bien, el orificio no recibe casi ningún amor en comparación con el objetivo y los sensores, quizá porque no es algo en lo que uno se gaste dinero mientras que sí se gastan cientos de dólares en buenos objetivos de cámara. Pero es una de las cosas más esenciales que hacen que la fotografía funcione. Así que si eres un ser humano, sentado en una playa, ¿qué hace que este onda por aquí diferente de que onda allí, es que tienes que buscar en diferentes direcciones para verlos. La cámara tiene que tomar esta direccional información y convertirla en posicional información, "¿qué sensor en qué posición está captando esta onda, qué otra posición está captando esa onda?". Y el agujero es lo que permite que se produzca esa conexión. Si no se introduce el agujero, entonces cada parte de la pantalla ve cada onda y no existe la noción de imagen En este caso, sólo tienes un sensor general de "¿cuánta luz hay hoy en el exterior?", pero no tienes la capacidad de distinguir la luminosidad en diferentes direcciones. Es que se puede dibujar una línea recta desde el sensor hasta el agujero, y luego continuar esa línea hacia el exterior de la escena. Un agujero, en otras palabras, se encuentra entre dos conos de direcciones que lo atraviesan, cada dirección que entra hacia el sensor se corresponde perfectamente con alguna dirección que sale hacia la escena. Y la correspondencia es la razón por la que la imagen es siempre invertido en 180 grados al pasar por el orificio, pero podemos girar nuestra película una vez que tomamos la fotografía y, por lo tanto, esto no es un gran problema.

Fuentes de desenfoque, incluyendo el tamaño del agujero

Ahora el borrón, viene de un par de lugares diferentes.

  1. Los sensores tienen un tamaño finito, por lo que deben agregar un montón de direcciones diferentes, promediando la luz que ven. Esto se denomina resolución de los sensores, y significa que si tomo una foto de algo que está muy lejos sin algún tipo de aumento óptico, y luego trato de ampliar los detalles de esa foto, algunos de esos detalles se pierden porque no tenía suficiente resolución.

  2. Como detalle práctico, cualquier cámara tiene un tiempo de respuesta característico . Para mi cámara, la ajusto manualmente, se llama "velocidad de obturación". Los bastones y los conos de tu ojo también la tienen. Si la escena es cambiando Si el tiempo de respuesta es más rápido que este, entonces estamos promediando las diferentes versiones modificadas. Esto conduce sobre todo al "desenfoque de movimiento" si intento capturar una pelota en vuelo o algo así, pero cuanto más alta sea mi velocidad de obturación, más se notará el temblor de mis manos mientras sostengo la cámara como una especie de desenfoque de movimiento aleatorio en todo lo que aparece en la fotografía. Por eso verás muchos trípodes, y por eso los fotógrafos profesionales suelen tener los brazos muy cerca de los costados, etc. Así que cuando intentes "ampliar" esa foto, puede que veas que el desenfoque de movimiento de mi movimiento aleatorio es más pronunciado.

  3. Es posible que hayas notado que las fotos nocturnas tienen más ruido o estática que las diurnas. Esto tiene que ver con una especie de ruido intrínseco en los sensores; están construidos para esperar una determinada cantidad de luz y, si no la reciben, quedan "subexpuestos" o "sobreexpuestos" y no pueden utilizar toda su gama de grises para representar las diminutas diferencias de luz que ven. Las distintas películas tienen diferentes "índices ISO", lo que podríamos llamar de forma más genérica los "sensores". sensibilidad . El ojo tiene que afinar su sensibilidad, por eso tarda en obtener la "visión nocturna" después de apagar las luces; esa incapacidad para distinguir los detalles es una especie de "borrón" y, una vez que los ojos se han ajustado, a menudo se sorprende al pensar que le costaba caminar por la habitación cuando ahora puede ver todo con bastante claridad. También se puede cometer este error de subexposición/sobreexposición en la fotografía diurna, pero hay que hacer concesiones más incómodas cuando no se tiene tanta luz para trabajar: a la luz del día se puede ajustar la velocidad de obturación muy baja y hacer la apertura muy estrecha y seguir teniendo una imagen muy brillante en relación con el ruido de la película; por la noche hay que elegir o bien una película más ruidosa o bien velocidades de obturación más largas o aperturas más grandes.

  4. Si el agujero es también ¡pequeño, de hecho puede ser más pequeño que la luz! La luz tiene un tamaño característico llamado longitud de onda y cuando pasa por agujeros más pequeños que éste, no se comporta de la misma manera. Para la luz visible, sin embargo, hay que hacer el agujero más pequeño que un cabello humano; nuestras pupilas son milímetros de ancho, por lo que esto es sobre todo una consideración para las pequeñas cámaras estenopeicas; permítanme describirlo en una nota a pie de página [1] .

  5. Por supuesto, podría haber manchas en las lentes y similares, que desvían o absorben y reemiten la luz de modo que la luz de las "direcciones equivocadas" llega a un determinado sensor. Por último:

  6. El agujero es de tamaño no nulo.

Esto último provoca el tipo de desenfoque al que te refieres en tu pregunta. Si el agujero fuera infinitamente pequeño, en realidad nunca habría ninguna razón intrínseca para el desenfoque, excepto quizás por (4). Y usted sabe que algo tiene que ocurrir aquí porque no tener un agujero es lo mismo que tener un agujero arbitrariamente grande, por lo que la amplitud del agujero necesita de alguna manera decae continuamente nuestra capacidad de hacer fotografía desde el "sí" a un agujero de tamaño cercano a cero hasta el "no" a un agujero de, por ejemplo, el tamaño de mi guitarra.

La cuestión es sencilla: ¿recuerdas que para un solo punto teníamos un cono de direcciones que producía esas imágenes en la pantalla de los sensores? Si el orificio por el que pasa la luz tiene un tamaño distinto de cero, se puede pensar que hay muchos (digamos un millón) de estos conos de dirección dispersos por la superficie virtual del orificio, cada uno de los cuales proyecta su propia imagen en la retina. Los sensores de la pantalla promedian todas estas imágenes diferentes. Así, cada imagen tiene líneas nítidas, y cuando todas las imágenes coinciden en proyectar una línea en la pantalla, también se ven líneas nítidas: pero cuando esas imágenes difieren, se ve un desenfoque ya que algunas de las imágenes tienen esa línea un poco a la izquierda o a la derecha.

Si no tienes un objetivo y la escena está muy lejos, las imágenes no son muy diferentes, por lo que no se nota tanto este desenfoque. Las cosas que están más cerca de la cámara se ven cada vez más borrosas, ya que al mirar el objeto desde un punto del agujero, se ve ligeramente diferente de cómo se ve desde otro punto situado un milímetro al lado en el agujero. Decimos que la cámara estenopeica está enfocada "al infinito" sin una lente delante, y que el tamaño del agujero determina algo que se llama "profundidad de campo", cuanto más pequeño es el agujero, mayor es la profundidad de campo que puede enfocar. [2]

También se puede pensar en esto con esa analogía de la "guitarra". Si miro mi guitarra, puedo ver gran parte de la madera de la caja de resonancia a través del agujero de sonido. Imagínese que ese espacio está todo cubierto de sensores, entonces desde esta distancia puedo ver un lote de esos sensores. Si pongo el ojo justo al lado de las cuerdas puedo ver completamente el interior de la guitarra, todo el tablero. Si me alejo más, veo cada vez menos hasta que sólo puedo ver un trozo del mismo tamaño que la boca de la guitarra. Lo que veo son los sensores que pueden verme. Cuantos menos sensores puedan verme, más nítida será mi imagen en la placa base. Por eso las aperturas más pequeñas hacen imágenes más nítidas, si prefieres esa explicación, y por eso por defecto tienes el enfoque "al infinito" y por lo tanto hay cierta distancia característica para una cámara estenopeica donde las cosas que están "demasiado cerca" se vuelven borrosas.

¿Cómo puede un objetivo reducir el desenfoque?

Así que, como he dicho, la lente sólo afecta a este último tipo de desenfoque, debido a que las imágenes emitidas por diferentes puntos del agujero son imágenes ligeramente diferentes, que los sensores deben promediar. ¿Cómo lo hace? Deformando ligeramente las diferentes imágenes de los distintos puntos.

Verás, cuando aún estás en la pupila, aún no has hecho la media. Todavía tienes toda la información: dos dimensiones de posición combinadas con dos dimensiones de dirección significa que tienes cuatro dimensiones de información disponibles aquí para describir la luz de una escena tridimensional. Sólo cuando el sensor promedia todo, se pierde toda esta información.

Lanzar un rayo desde algún sensor $S$ a dos puntos diferentes del agujero, $H _1$ y $H_2$ . Con una cámara estenopeica estos van por otros derroteros, $\overline{SH_1}$ y $\overline{SH_2}$ y sabes que se cruzan en $S$ para que nunca se crucen de nuevo. Pero si pones una lente delante de esa pupila, puedes volver a cambiar esas direcciones. Puede que ahora vuelvan a converger en algún punto $X$ en el mundo. O si lo miramos desde el lado contrario, yo-mirando-mi-guitarra, es como si un sensor concreto de mi guitarra se hubiera ampliado de forma que pareciera ocupar toda la boca. Toda la luz de esta zona de la escena, pasando por esa pupila, termina en el mismo sensor. Y eso es muy parecido a la idea del agujero de alfiler infinitamente pequeño: se obtiene una apariencia nítida para las cosas a esta distancia fija $L$ de la cámara, porque todas las imágenes han sido ligeramente distorsionadas por el objetivo.

Pero es sólo es posible porque la información aún no se ha destruido, sigue estando en este paquete de 4 coordenadas de posición en la pupila, y 2 coordenadas de dirección desde ese punto hasta la superficie de la imagen. Una vez que promediamos estas imágenes, no podemos especificar de forma única qué números nos llevaron a ellas, de la misma forma que si yo te dijera "tengo tres números cuyo promedio es 5" podría decirte "son 4, 5 y 6" frente a "son 2, 6 y 7" frente a "son 4,9, 5,0 y 5,1". Las entradas se pierden ahora, y cualquier elección que haga va a hacer varias suposiciones sobre la distribución y la aproximación. Por eso los científicos se ríen cuando un programa de televisión de CSI dice "¡mejoren! mejoren" a una fotografía y ésta se desenfoca, ya que sabemos que cuanto más se mejore, más se enfrentará a las suposiciones de su método de mejora y empezará a ver basura que nunca aparece en la foto "mejorada" (ya que el equipo de televisión empezó con una imagen nítida y la desenfocó -no se necesitan suposiciones en este caso- y ahora reproduce este proceso a la inversa para conseguir un efecto dramático).

La introducción de una lente junto al agujero (en el lado de la escena en una cámara, en el lado de la imagen en su ojo) crea una distancia preferente $L$ para que las cosas estén en la escena. Al controlar [3] ambos $L$ y la profundidad de campo, puedes crear fotografías de una mujer sentada en un banco del parque, con todo detalle, con cosas más cercanas y más lejanas todas desenfocadas, y puede crear una gran intensidad de atención en esa mujer y ese banco. Ese tipo de efectos. Y es por eso que nuestros objetivos son compuestos, podemos ajustar la distancia focal efectiva $L$ ajustando la distancia entre dos lentes normales. También utilizamos lentes para distorsión general Por ejemplo, incluir un ángulo más amplio en la toma que el que ven normalmente los sensores; esto se ve en las fotografías de apartamentos todo el tiempo, donde las "líneas rectas", cuidadosamente vistas, se curvan un poco. Esto da la sensación de que el apartamento es más grande de lo que realmente es y también permite al fotógrafo hacer menos tomas, ya que cada una de ellas capta más de la disposición de las paredes y las luces y los armarios de lo que haría de otro modo. Por lo general, este tipo de distorsiones se pueden corregir, al menos de forma aproximada. Pero el promediado que se ha producido a nivel del sensor, que se manifiesta en el desenfoque de la imagen, es intrínseco, por lo que estás recibiendo muchas respuestas diciendo que la información se "perdió".

Lo importante es entender que la lente es capaz de actuar antes de La pérdida de información se produce cuando todavía hay un millón de imágenes individuales nítidas en la superficie imaginaria del agujero, que pueden distorsionarse antes de que los sensores las promedien. Si se tomara la fotografía borrosa y lo pones delante de la cámara, ya no tienes un millón de imágenes individuales nítidas en cada uno de estos puntos del agujero, tienes un millón de imágenes individuales borrosas en cada uno de estos puntos del agujero, imágenes de la fotografía que tomaste.

Pero aquí hay una última idea divertida y emocionante. ¿Y si tomas un millón de fotografías borrosas diferentes de la misma escena desde diferentes posiciones? Ahora se trata de algunas ideas interesantes que se pueden ver, por ejemplo, en la astronomía o en la tomografía: el proceso de tratar de utilizar un montón de imágenes de luz o rayos X o lo que sea que pase a través de un cuerpo, para reconstruir lo que está sucediendo dentro del cuerpo. Y se pueden hacer varias suposiciones sobre un modelo para decir "oye, la luz que incide en este sensor en esta foto es una suma de la luz emitida por estos puntos, la luz que incide en ese sensor en esa foto son casi los mismos puntos excepto aquí en los bordes, así que si sustraigo una foto de la otra en realidad obtengo una especie de visión más precisa de la luz emitida alrededor de los bordes aquí, y tal vez pueda construir una vista 2D o 3D que sea menos borrosa que cualquiera de mis imágenes particulares, razonando hacia atrás sobre cómo tuvo que ser la escena original para hacer todas estas diferentes fotos borrosas al mismo tiempo. " Así que ese tipo de reconstrucción es es posible, y se pueden combinar fotografías borrosas para tratar de desdibujarlas, si se sabe que fueron tomadas por cámaras idénticas en momentos casi idénticos y se sabe algo sobre cómo estaban colocadas una respecto a la otra.

Notas

  1. Así, la luz tiene una milésima parte de la anchura de un cabello, y los átomos tienen una milésima parte de la longitud de onda de la luz. La cuestión es la siguiente: la mayor parte de lo que se sabe sobre la luz que viaja en línea recta no es lo que la luz "quiere" hacer de forma natural. La luz en cualquier punto quiere ir en todas las direcciones, por lo que la luz que va por un pasillo en realidad quiere doblar alrededor de las esquinas en ese pasillo. Es se detuvo de hacer esto por un fenómeno llamado interferencia destructiva En este caso, los rayos de luz que no toman el camino más corto están cerca de otros rayos de luz que tampoco toman el camino más corto, pero todos recogen fases muy diferentes cuando llegan al objetivo y por eso todos tienden a interferir destructivamente, y sólo la luz más cercana al camino más corto (¡o al camino más largo!) tiende a tener más o menos la misma fase y por lo tanto se "apila" constructivamente en una cantidad sustancial. Esta descripción de los "rayos de luz" es en realidad un fenómeno de interferencia, y si se intenta hacer el agujero demasiado pequeño, la luz empieza a hacer lo que quiere, ir en todas las direcciones, de nuevo.

  2. Es una historia curiosa, en realidad descubrí esto cuando era niño. Cuando era un niño, hubo una época en la que no era consciente de que necesitaba gafas; la miopía fue creciendo poco a poco en mí y no me di cuenta de que no era capaz de ver lo que otros podían ver, que para otros los árboles lejanos no eran en realidad manchas verdes, sino que aún podían distinguir hojas individuales. Pero aún recuerdo que en mis clases ponía el pulgar y el índice de un dedo sobre el pulgar de otro y miraba a través de ese pequeño agujero. Mis profesores debían pensar que estaba haciendo el tonto todo el tiempo, pero no era así: En realidad, ¡podía leer mejor a través del pequeño agujero que formaba!

  3. Así que una cámara tiene en realidad varios objetivos y controla la distancia entre ellos para tener una distancia focal ajustable. Es cierto que una podría ajustar la distancia de la pantalla para ajustar también la distancia focal, pero en la práctica esto es no cómo el ojo enfoca las cosas. En cambio, el cristalino del globo ocular está conectado a unos músculos, llamados músculo ciliar, que lo rodean y que permiten que el globo ocular ajuste la curvatura del cristalino estirándolo. La idea básica es que tienes un montón de cuerdas en los bordes del cristalino que lo mantienen tenso y plano para ver a larga distancia, y cuando necesitas "acomodarte" para ver algo de cerca, estos músculos ciliares contraen la envoltura -la cosa que no es el cristalino- a la que está conectada por estas cuerdas. Al hacerlo, se libera la tensión de los hilos y permite que el cristalino vuelva a un estado más redondo, por eso parece que se relaja al mirar cosas lejanas y se tensa al mirar cosas de cerca. Así que tu cuerpo no ajusta la retina, tiene un mecanismo para aplicar la tensión para liberar el cristalino. Supongo que es "al revés" de esta manera porque convertir las cuerdas en fibras musculares requeriría que tuvieran un suministro de sangre activo, lo que haría realmente difícil mantener el espacio transparente, pero también podría ser simplemente un accidente histórico, como los puntos ciegos que no conoces porque toda visión es en realidad una alucinación .

3voto

KR136 Puntos 46

Una parte de esta cuestión debería aclararse en la SE de biología. Según mis conocimientos, el ojo no flexiona la retina para obtener una imagen.

Lo que queda por saber es por qué un objetivo no puede hacer una imagen nítida de una foto borrosa. Debe ser obvio que los objetivos no pueden ver con nitidez a través de la niebla. No puede deshacer la dispersión de mil millones de pequeñas gotas de agua colocadas al azar. Un objetivo puede deshacer una imagen borrosa debido al desenfoque. Esto se debe a que la luz contiene mucha más información que la imagen. Una foto tomada con desenfoque ya no contiene esta información.

1voto

Wes Sayeed Puntos 101

Porque es una imagen bidimensional.

Los seres humanos utilizan el paralaje binocular (la ligera diferencia en la imagen procedente de ambos ojos) para percibir la distancia en 3 dimensiones. Las partes de la imagen que son convergentes (es decir, la misma en ambos ojos) están enfocadas, y las partes divergentes (es decir, diferentes en cada ojo) están desenfocadas. Cambiamos el enfoque ajustando la distancia pupilar para ajustar la convergencia, es decir, que cruzar ligeramente la mirada para enfocar los objetos cercanos, y relajarlos para enfocar los objetos lejanos.

Como la totalidad de la escena en una foto o un vídeo está a la misma distancia física de tus ojos, el paralaje no existe, y este ajuste fino no es posible.

En caso de que estés pensando en imágenes "3D", tampoco es posible con ellas, por la misma razón: sigue siendo una imagen bidimensional que está "fingiendo" el paralaje para engañar a tu cerebro.


Para que sepas, tu comprensión de cómo enfocan los ojos no es correcta. La retina no tiene ningún tejido muscular que pueda flexionarla. Los únicos músculos de su ojo son los músculos extraoculares (7 músculos que sirven para mover el globo ocular), y los músculos dilatadores del iris (2 músculos) para ajustar la apertura de la luz.

También está el mácula que es una zona de la retina responsable de las imágenes detalladas y de alta resolución, y el escotoma (el llamado "punto ciego") donde no se ve nada. Incluso si enfocas con un solo ojo, estás todavía moviendo ligeramente todo el globo ocular para que la imagen que intenta ver esté centrada en la mácula.

1voto

Imagina que haces una foto de una escena muy oscura, tan oscura que toda la foto es simplemente negra. ¿Podría un animal con ojos muy grandes mirar la foto y ver la escena original con todo detalle?

Bueno, tal vez no podamos preguntarle al animal, pero seguro que podemos intentarlo con photoshop, y no, acabas con una imagen totalmente gris en lugar de negra, con mucho ruido.

¿Por qué? Porque el la información que intentas sacar nunca estuvo en la imagen . Fue en el luz (si tuvieras unos ojos lo suficientemente grandes o una lente lo suficientemente grande), pero una vez tomada la imagen, esos datos faltan en la imagen hecha con esa luz.

La misma idea con el enfoque. Una imagen desenfocada simplemente no tiene el detalle necesario para resolver la escena original con todo detalle. La luz borrosa que entró en la cámara tenía esa información, pero se perdió en cuanto se tomó la foto. Sin embargo, si hubieras tenido acceso a la escena original y un objetivo lo suficientemente potente, seguro que podrías, pero eso es lo que hacen los ojos :)

0voto

Alexey Birukov Puntos 101

¡Para algunas "fotos borrosas" el ojo puede enfocar realmente! Los llamados "hologramas", conservan la fase de la onda luminosa, en comparación con las fotos habituales, que sólo almacenan la amplitud. La luz que viaja es una cosa compleja

i-Ciencias.com

I-Ciencias es una comunidad de estudiantes y amantes de la ciencia en la que puedes resolver tus problemas y dudas.
Puedes consultar las preguntas de otros usuarios, hacer tus propias preguntas o resolver las de los demás.

Powered by:

X