¿Cuántos megapixels tiene nuestro ojo? (4º parte)

By | 6 diciembre, 2005

Más de un mes después de la tercera parte acabo por fin la serie esta de 4 artículos. Lo he estado retrasando porque he estado buscando imágenes para lo que iba a explicar, pero no las encuentro. La verdad es que apenas tengo tiempo libre, las fotos que he escaneado de los libros se ven fatal y no puedo empezar a navegar por internet para buscarlas. Tendrá que ser casi sin imágenes, entonces.
La verdad es que todo el pastel se descubrió en el último artículo, ya no hay más secretos, sólo aplicar lo que hemos dicho antes.
Recuerdo que nuestra visión nítida la realizamos gracias a la mácula, concretamente el centro de la mácula, una depresión llamada fóvea. En esta fóvea los receptores de luz (conos) están muy juntos, y permiten una gran nitidez
¿Y cómo medimos esa nitidez?. Ya hemos dicho que las medidas de resolución de monitores y cámaras son claramente inexactas: miden el número de pixels, cuando lo importante es la densidad. Así, la nitidez la medimos con un parámetro denominado “agudeza visual”. La agudeza visual queda determinada por el tamaño del detalle mínimo que nuestro ojo es capaz de visualizar. Algo que sea más pequeño que este umbral se nos escapa de nuestra visión.
Ahora bien, hay un parámetro fundamental: la distancia. Todo el mundo sabe que cuanto más alejamos un objeto menos detalles vemos de éste. Dicho de otra forma, cuanto más de cerca vemos algo, más resolución (hasta un límite, cuando el objeto es demasiado cercano no lo podemos enfocar).
Si el ojo fuera un sistema de proyección, la retina sería la pantalla donde proyecta la imagen. 2 puntos al azar de esta imagen entran al ojo y se proyectan en la retina. Aunque estos puntos se encuentren bastante juntos, mientras caigan sobre receptores diferentes, los interpretaremos como detalles diferentes. En la fóvea, la distancia mínima de los receptores es de 4 micras (una micra es la milésima parte de un milímetro). Ese es el umbral; dos puntos que al proyectarse en la retina quedan a 3 micras, por ejemplo, no se pueden ver como separados.
Pero quedémonos con el valor umbral, 2 puntos situados exactamente a 4 micras. Esos puntos de la imagen proyectada llegan a la retina a partir del sistema de enfoque. Este sistema de enfoque produce una imagen más pequeña e invertida (es decir, lo que está arriba se proyecta abajo y lo que está a la izquierda se proyecta a la derecha). Por tanto, si en la vida real el punto A está un poco más alto que B, en la retina B queda un poco más alto que A.
Emetropía

En el dibujo vemos los rayos proyectados. Vienen del exterior, se cruzan dentro del ojo y se proyectan en la retina. 2 rayos cualesquiera forman un ángulo. Cuanto más próximos entre sí están los objetos en el exterior, más pequeño es el ángulo, y más cerca se proyectan en la retina. Por otra parte, un objeto de un mismo tamaño, conforme lo alejamos del ojo, proyecta un ángulo más pequeño y los puntos en la retina están mas cerca (objeto lejano, peor resolución)
Con lo cual, para medir la calidad visual lo que se mantiene constante es el ángulo, no el tamaño del objeto. Como la distancia mínima entre 2 conos es de 4 micras, y conocemos las medidas y la potencia de la lente del ojo, hemos averiguado este ángulo, que es de 1 minuto (la circunferencia tiene 360 grados, y cada grado tiene 60 minutos)
Los rayos que entren con un ángulo menor de 1 minuto no los veremos como diferenciados, con lo que es precisamente este ángulo el que define la agudeza visual.
Es decir: ángulo mínimo = 1 minuto significa agudeza visual del 100%
Este ángulo abarca más distancia cuanto más lejos estemos del ojo. Es decir, el detalle más pequeño que podemos percibir tiene que ser más grande cuanto más lejos se encuentre.
En función de esto se han hecho las escalas de optotipos, esas figuras o letras que se proyectan para tomar la agudeza visual y graduar.
Como todo, la agudeza visual tal como la definimos tiene más factores que no hemos considerado, como el color, el contraste fondo-forma, etc. Por eso, cuando examinamos la agudeza visual procuramos estandarizar las demás variables: optotipos negros sobre fondo blanco, para maximizar el contraste.

Por supuesto, estoy hablando de estadística, no todo el mundo tiene exactamente 4 micras de separación entre los conos de la fóvea y por tanto un ángulo mínimo de exactamente 1 minuto. De hecho, es relativamente frecuente encontrar personas con un 110% o un 120% de visión. Yo soy capaz de ver un 150% con mi ojo bueno, y he conocido a un par de personas que son capaces de ver el 200% (me quedé impresionado, la verdad)

Por tanto, si queremos saber la longitud del detalle mínimo sólo tenemos que hacer lo mismo que hacen los proyectores de optotipos; resolver un simple problema matemático: un triángulo rectángulo que sabemos su cateto mayor (distancia objeto-ojo), su ángulo más pequeño (1 minuto) y tenemos que averiguar su cateto menor.

¿Y si nos acercamos mucho mucho a un objeto, cuál es el tamaño mínimo?. La solución, para los que quieren números concretos, sería 100 micras. Es decir, en el menor de los casos y con todas las condiciones favorables, podemos ver a un objeto de 0.1 milímetros. Que por cierto es el tamaño de la célula más grande del cuerpo humano, el mal llamado óvulo. Este último dato lo explico por un comentario que me hizo en su día un lector, eleremita. Quería saber la resolución máxima que haría falta para una hipotética realidar virtual que engañara al ojo humano. Bien, si los “pixeles” de esa realidad virtual fueran, por ejemplo, de medio milímetro (500 micras) sería insuficiente.
Por supuesto, para hacer una realidad virtual que nos engañara no sólo hace falta la resolución de imagen, eso sea posiblemente lo más fácil. Quedan detalles como profundidad de color. No se trata de cantidad de colores; el ojo humano apenas puede diferenciar 10 mil colores cuando un monitor de 32 bits ofrece muchos más; se trata de utilizar el color de forma “natural”, sin que quede artificiosamente. La iluminación y el juego de luces y sombras, por ejemplo también es difícil.
Más complicado es el movimiento, y la visión tridimensional. Y tampoco se puede hacer demasiado exacto. Lo mismo que en música un ritmo que hace una máquina se puede llegar a diferenciar del que hace un humano porque aquél es demasiado “perfecto”, lo mismo pasa con la imagen. Recibimos un caos de información por los ojos, mucha de ella borrosa y movida por el movimiento involuntario de los ojos y por pequeños cambios de acomodación. Estas imperfeccionas son inconscientes pero nos hacen enfocar y fijar la imagen continuamente. Si la imagen siempre estuviera enfocada y nítida, notaríamos que “algo” no va bien.
Pero bueno, esto es desviarse del tema. Ya desvariaré en la sección de comentarios  :)

El tema de este artículo sigue aquí.

(Visitado 3.150 veces, 1 visitas hoy)

18 thoughts on “¿Cuántos megapixels tiene nuestro ojo? (4º parte)

  1. howl

    Jooooder, estás desvariando mogollón, no digo que sea verdadero o falso lo que dices por que se escapa de mis conocimientos bastante. Lo que si tengo son conceptos, sobretodo de los que explicas en partes anteriores supongo que más que nada debido a la practica y a que conozco las características técnicas de los sistemas de visualización, ya sean pantallas, proyectores, etc.. Con esto último me refiero a cosas como el hecho de que lo importante es la densidad de píxeles. De este hecho sale algo muy curioso para los dos tipos principales de resoluciones de hoy día, comercialmente HDready y FullHD, que es el siguiente, pantallas de 37′ e inferiores da igual que sean Full o Ready porque a nada que te alejes de la pantalla la sensación es la misma no se pueden diferenciar, los píxeles extra que ofrece la Full se “mezclan” visualmente con los píxeles de alrededor, y esa distancia a la que uno ya no distingue ,es menor a la que uno tiende a ponerse para ver de forma cómoda una TV. Para pantallas ya superiores a 37′ si que se nota diferencia, lógicamente cuantas más pulgadas más diferencia de que sea uno u otro tipo.

    Y una última cosa sobre la que se me ha ocurrido un método practico-curioso para realizarlo mientras escribía, es una forma de como saber si una pantalla nos viene bien en cuanto a resolución de imagen. Para contraste, etc esto no sirve. Supongamos que hacemos una imagen que tiene la mitad, un entramado de puntos blancos y negros entrelazados, si un píxel es blanco, los de sus diagonales son también blancos pero el resto de al lado, negros, y la otra mitad entera un color gris que sea la media del blanco y el negro. Ahora nos vamos alejando de la pantalla y la distancia en la que veamos ese color gris por toda la pantalla de forma homogénea, es la distancia mínima a la cual necesitaremos estar para que esa pantalla nos ofrezca la mejor calidad en cuanto a resolución. Ya solo sería sopesar si esa pantalla la vamos a visualizar de más cerca, en cuyo caso buscaremos otra con más resolución, o de menor tamaño en pulgadas.

    Ese método de crear un gris es el mítico que los que hemos pasados por colores de 8, 16, 24, 32 bits hemos conocido xD.

    Realmente este método que se me acaba de ocurrir no se hasta que punto sea cierto, en la teoría lo es y mucho, por que no lo he hecho todavía aunque no creo que tarde xD. Lo que luego yo al menos hago en realidad es que simplemente pongo un vídeo que tenga como mínimo la resolución nativa de la pantalla y a “ojo” xD se ve.

    Reply
  2. Pedro

    Anda, yo tenía la idea de que eso de la agudeza visual dependía sobre todo de la refracción, y que si tenías poca debía ser por problemas como mioía, hipermetropía etc, pero ahora entiendo que dependerá también bastante de la retina. ¿Existe algún tipo de condición congénita en la que la agudeza visual sea más baja que lo normal por tener pocos fotorreceptores?

    Reply
  3. Ocularis

    La refracción supone un problema óptico, un problema de “desenfoque”. Si corregimos la refracción (con gafas, lentillas o cirugía), la visión tiene que ser correcta. De no ser así, tiene que haber algo más; un a miopía, hipermetropía o astigmatismo sin más, no pueden hacer perder agudeza visual corregida.

    En cuanto a condiciones congénitas con pérdida de fotorreceptores y mala agudeza visual, hay muchas: toxoplasmosis congénita, coloboma de mácula, etc.

    Reply
    1. Ocularis

      La conclusión es que la pregunta es errónea. Utilizamos los megapixeles como medida de la calidad de una imagen, de su resolución, cómo de nítida es. Y no es así, Nuestro ojo puede tener resoluciones equiparables a 1-2 megapixeles, o 10-15 megapixeles (por poner dos ejemplos) en función de lo cercana o lejana que tenga esos “pixeles”, del tamaño de los pixeles, del contraste de colores, etc.

      Reply
  4. Victoria

    Me encanta este blog! Se lo he pasado a todos mis conocidos. GRACIAS por darnos algo tan educativo, útil y sobretodo divertido. La ciencia es divertida, sólo hacen falta profesionales como tú.

    Reply
  5. alovedo

    en el caso de que se recibieran 2 rayos al azar con detalles diferentes de un objeto por debajo de las 4 micras de distancia entre los 2 fotoreceptores solo se vería 1 de los rayos.
    ¿cual de los 2? ¿como decidir cuál de los 2?
    en los monitores las imagenes mostradas, además de la resolución, existe el antialiasing, para no ver líneas rectas ligeramente fuera de la horizontal o vertical como “escalerilla” ¿como lo resuelve el ojo?
    si los objetos rebotan la luz de acuerdo a cada átomo radialmente (en todas direcciones) y si un objeto se compone de trillones de éstos, que pasa con todos los rayos que no son percibidos por fotoreceptores pero que si entran al ojo simultaneamente? nuestro ojo se iluminaria totalmente en el interior, sin embargo esto no es así ¿porqué?
    al ojo entra la luz en su modalidad de partícula o de onda? o ambos? que hacen los fotoreceptores con las ondas de luz?
    como se guarda una imagen con la que después pudieramos reproducirla con la imaginación y/o con la ensoñación?
    y por último, la pregunta del millón ¿que es en si una imágen?
    por favor no contestar demasiado rápido, sobre todo ésta última…
    gracias

    Reply
    1. Ocularis

      “en el caso de que se recibieran 2 rayos al azar con detalles diferentes de un objeto por debajo de las 4 micras de distancia entre los 2 fotoreceptores solo se vería 1 de los rayos.
      ¿cual de los 2? ¿como decidir cuál de los 2?”
      Hablar de rayos de luz aislados es útil por lo didáctico, pero no deja de ser una simplificación. Un para que un sólo fotón reaccione químicamente con una opsina (pigmento visual) hace falta que un buen número de fotones atraviese el fotorreceptor. Por otra parte, suele hacer falta que varias opsinas sean estimuladas por la luz para desencadenar la respuesta del fotorreceptor. Por otra parte, la única información “biológicamente útil” que lleva un fotón es su longitud de onda. La intensidad de la luz dependerá del número de fotones por unidad de superficie que llegue a un área concreta de la retina. Cada fotorreceptor tiene un espectro concreto de sensibilidad cromática. No es que lleguen dos rayos diferentes en una distancia pequeña y haya que decidir. Constantemente están llegando innumerables fotones a los fotorreceptores. Cada fotorreceptor es más sensible a un rango de colores. Según la longitud de onda de cada fotón y la cantidad de fotones que llegan simultáneamente a un fotorreceptor, este se despolarizará o no. Posteriormente, las redes neuronales de la retina y el cerebro integrarán esa información “creando” los colores y las intensidades de luz.
      En cuanto a lo del antialiasing, es fácil de entender si somos capaces de quitarnos los conceptos erróneos. Entendemos el ojo como una cámara que tiene una malla de pixeles, y manda esa matriz de pixeles al cerebro. Y no es así. La información de los fotorreceptores todavía es un caos sin interpretar, no puede llamarse imagen. En la retina comienzan las primeros procesamientos, se refuerza el contraste y las siluetas, y se crean las líneas. El concepto de línea no surge en el cerebro como una unión de puntos, ya sale de la retina. Y por otra parte, no podríamos ver “escaleritas” en líneas rectas inclinadas si las “escaleritas” son tan pequeñas que están al límite de nuestra resolución. Dicho de otro modo, el “antialiasing” es útil en un monitor si nosotros al acercarnos podemos ver las “escaleritas”, si la resolución de nuestro ojo es mejor que la del monitor para ver los saltos de pixel. Pero si los pixeles fueran mucho más pequeños, el efecto desaparece.
      En cuanto a la tercera pregunta: cada elemento visible elemental refleja la luz en todas las direcciones. Los rayos que no entran al ojo no van a afectar a la visión, pero habrá un abanico (teóricamente infinito) de rayos divergentes que entran en el ojo, y que llevan la misma información. Si nuestro ojo no fuera un sistema óptico, los rayos de luz provenientes de un solo punto iluminarían toda la retina, y así con todos los objetos que tendríamos delante. La imagen no se podría formar, ya que cada zona de la retina recibe luz de todos los elementos visuales que hay delante del ojo. Para esto está el sistema óptico: los rayos divergentes que vienen de un solo punto, al atravesar las lentes, se transforman en convergentes, de forma que se cruzan en un solo punto espacial, correnpondiente a la retina. Así, a cada punto de la retina (idealmente) sólo le llegan los infinitos rayos de luz de un solo punto del exterior.
      La luz no entra en modalidad de partícula o de onda. La luz siempre es la luz, es onda-corpúsculo, a la vez. No deja de ser una cosa para convertirse en otra. Para algunos fenómenos físicos utilizamos una de sus naturaleza, y para otros la otra. Pero es ambas cosas a la vez.
      La imagen se guarda en la memoria, un proceso neurológico complejo del que todavía sabemos poco.
      Una imagen, en el sentido biológico-humano de la palabra, es una recreación que realiza nuestro cerebro en base a la información visual integrada e interpretada y a la memoria.

      Reply
  6. Gonza

    Hola! muy buenas todas las explicaciones y muy claras.. yo quería preguntar sobre las opsinas. Leí por ahí que tenemos 3 tipos de opsinas, unas que reaccionan para una long. de onda de 530nm (verde) otra para los 560(rojo) y otra para los 430 (azul) aproximadamente. Sin embargo ¿Cómo alguien puede estar seguro de que en distintas personas el cerebro asocie la misma reacción al mismo color?
    Es decir, a todo lo que tiene una long. de onda de 560nm le decimos rojo y todos estamos de acuerdo, pero si los distintos cerebros reaccionan distinto para la misma estimulación puede suceder que el color rojo que yo veo sea diferente al color rojo que ve otra persona! !
    ¿Se entiende lo que quiero decir? ¿alguien pensó esto antes y lo estudio? No se si es un tema filosófico, de óptica o de neurología, pero quería compartir mi inquietud con alguien que este en el tema..
    Muchas gracias!! saludos!

    Reply
    1. Ocularis

      Realmente es una simplificación, porque hay un proceso en la propia retina y en el cerebro en la gestión de color, de manera que una misma longitud de onda puede “virar” de color dependiendo de los colores que hay a su alrededor.
      Por otra parte, toda percepción sensorial es subjetiva, de la misma manera que no podemos afirmar de forma objetiva que un sonido grave o un dolor lo percibimos todos igual. Las pruebas objetivas de discriminación demuestran que los sujetos sanos jerarquizan e identifican por igual los colores. También podemos inferir que ciertas connotaciones subjetivas del color son comunes a los humanos entre sí.
      Un saludo.

      Reply
  7. Ioz Lezama

    Buen día a todos, quiero hacer un grán reconocimiento a esta Web, especialmente a su autor.
    Me es grato mencionar que toda la información proporcionada en este blog es de útil interés para los jóvenes que tienen la capacidad de virar su entorno hacia un campo de estudio.

    Quiero destacar que la Cienca es divertida, entre comentarios que leí de otras personas, sentí un ambiente agradable y cómodo.

    Espero que no haya ningún problema el que yo comparta esta información en otros sitios, por lo tanto solicito autorización para hacerlo, ya que esta información me pareció completa y curiosa.
    Siempre me hice esa pregunta “¿De cuántos megapixeles es nuestro ojo?”

    Enhorabuena, espero que continúen compartiendo información útil y completa.
    Un cordial saludo
    Ioz Lezama.

    Reply
    1. Ocularis

      Gracias por tu valoración. No hay ningún problema en utilizar el contenido de los artículos siempre que enlaces la fuente.
      Un saludo.

      Reply
  8. Gustavo Quirazco

    Wow.. y mil veces wow.. esto siempre fue tema de conversacion con mis amigos, claro qeu a nuestra cultura general no llegaba a mucho, tal vez un simple, “ssaaabe”, o un yano y parco “no lo sé”, pero después de haberme leído uno que otro documento medico sobre el ojo quedaba yo con dudas y contradicciones, aunque en este documento, muchos de mis supuestos, y conjeturas, quedaron totalmetne bien enlazadas y comprendidas, soy de los qeu gozan de 120% y 150% en cada ojo :P y me siento privilegiado aunqeu en mi familia todos usasn lentes para poder ver con claridad. :), y siendo aficionado a las cuestiones visuales generadas por equipos de computo, llegue solo a esa INCOGNITA que es tema de este articulo.. MIL GRACIAS MIS FELICITACIONES AL CHEF, perdon AL AUTOR.!! Un excelente y muy completo articulo.. MIL GRACIAS.. :) saludos desde Orizaba, Veracruz. México.

    Reply
  9. Luis

    La verdad no soy estudiante de medicina , se muy poco acerca de esto, solo tenia la curiosidad de una pregunta que me hice al ver una publicidad, me parecio muy interesante el tema… Saludes … Bendiciones

    Reply
  10. Danielle Beulá

    Hola, soy estudiante de optometria en Brasil, pero no hay muchas explicacciones excelentes como en tu blog por acá! gracias e saludos brasileños!!!

    Reply

Deja un comentario

Tu dirección de correo electrónico no será publicada. Los campos necesarios están marcados *