CAPITULO 3: El Asunto de los Megapíxeles

El asunto de los megapixeles

50 MegapixelesRazonando desde el capítulo anterior de este cursillo de fotografía digital:

¿ Si al tener más pixeles, un sensor de imagen va a capturar la fotografía con más detalles, entonces un parámetro importante a la hora de analizar la compra de una cámara digital es su cantidad de pixeles ?

A un millón de píxeles se le dice “Megapixeles”.

Las cámaras digitales se catalogan en MEGAPIXELES: Una cámara de 8 megapixeles quiere decir que tiene un sensor que registra los rayos de luz con ocho millones de pixeles.

Cuantos más megapixeles empaquetes en un mismo tamaño de sensor de imagen, debido a un fenómeno eléctrico comenzará a ocurrir una interferencia o ruido electrónico entre sus pixeles adyacentes. Esta degradación de calidad de imagen general se incrementará en relación directa a cuan “apretados” están entre ellos, los pixeles que ostenta el sensor.

El problema -siempre hay un “pero”- es que al agrandar el area del sensor de imagen para que los píxeles “entren holgados”, se incrementa su costo en forma exponencial.

¿ Cuantos más megapixeles mejor ?

Megapixeles calidad imagenSi el tamaño del sensor de imagen permite acomodar todos esos megapixeles, manteniendo una relación favorable de calidad con respecto al ruido electrónico, sin dudas que es favorable.

Pero como ya observamos, la conveniencia de tener gran cantidad de megapixeles debería ir de la mano con el costo, tecnología y calidad del sensor de imagen y construcción de la cámara digital en general. En estas ecuaciones, generalmente “no hay magia”, los precios usualmente “hablan por si mismos”.

Por regla general, una cámara de fotos digital de bolsillo cuenta en su interior con un sensor de imagen pequeño, e incluso lentes de plástico: Para lograr un precio competitivo al público, se prioriza el bajo costo de manufacturación. Para peor, debido a la creencia popular de los megapixeles, estas cámaras digitales se obligan a empacar en esos pequeños sensores de imagen cada vez más megapixeles, por ser una variable decisiva a la hora de comprar.

¿ Cuantos megapixeles necesito ?

MegapixelesPara imprimir una foto a 10cm x 15cm (típica foto de álbum) una cámara de 3.1 megapixeles ya se basta -lo digo por experiencia- para que a simple vista, analizando la impresión, no podamos distinguir puntos, y la fotografía quede perfecta. Logicamente, hablamos de un servicio de impresión fotográfico (no una impresora doméstica).

Para un fotógrafo profesional, que diseña catálogos impresos, y gigantografías, puede ser necesario usar cámaras de una o más decenas de megapixeles, con lentes profesionales. Los sensores de estas cámaras (que se denominan DSLR) son (mucho) más grandes que cualquier cámara de bolsillo.

sacar-fotos

En conclusión, no es mejor comprar una cámara solamente porque tiene más megapixeles, sobre todo en el segmento de bajo costo. Probablemente una elección así irá en detrimento de otros parámetros, como por ejemplo el tipo de lente, zoom y tecnología de estabilización.  Veremos todo esto más adelante…

CAPITULO 2: Sensor y Captura de imagen

Sensor de ImagenViniendo del primer capítulo en este cursillo de fotografía digital, recordemos que las cámaras digitales tienen en su interior una matriz de receptores de rayos de luz. Estos receptores registran la intensidad de los rayos de luz que les impactan, provenientes del lente de la cámara.

Esta matriz es muy pequeña (por ej: de 1cm x 1 cm) y consta de miles y millones de receptores independientes. A la matríz le llamaremos “sensor de imagen“. Veremos con detalle esto y los distintos tipos de sensores de imagen que se utilizan hoy en día, a continuación.

Cada receptor de imagen que captura y registra la luz se convertirá más tarde en un punto de nuestra fotografía. A cada punto se le denomina PIXEL.

Sensor de imagen

Dependiendo de la cantidad de receptores independientes que tenga el sensor de imagen, será, la calidad y detalles con la que va a capturar la imagen cuando fotografiamos.

Esto es fácil de visualizar con el siguiente ejemplo: Imagínate que queremos sacar fotos de una pelota y tenemos un sensor compuesto por una matriz de receptores de luz de 6 x 6 celdas.

Ejemplo de la Pelota

La pelota se encuentra alejada, de tal forma que solamente 4 celdas “ven” los rayos de luz que rebotan de la pelota. La “imagen capturada” (o sea lo que distingue el sensor de imagen) es un cuadrado.

Si acercamos nuestro sensor de imagen de 6×6 celdas a la pelota, la luz reflejada en ella se registrará en una mayor cantidad de celdas y la forma (definición) de la pelota se aproximará a una forma redonda.

Como conclusión podemos decir que cuanto mas cerca está el objeto que queremos fotografiar de nuestra cámara y/o cuanto mas capacidad de registro tenga el sensor de imagen, mas detalle puede capturar.

Sin embargo la capacidad de diseñar sensores de imagen con gran densidad de píxeles en poco espacio no ha podido resolver un problema -sumamente técnico- de interferencia eléctrica entre ellos mismos.

Este ruido electrónico redunda en falsas lecturas, lo que a su vez degrada (a veces notoriamente) la calidad de la fotografía. Por contrapartida, si el sensor fuera más grande, se necesitaría delante de él un lente más grande también para cubrir toda su área, mayor consumo de energía, y por cierto es más caro de producir.

Del blanco y negro al color

El sensor de imagen captura solamente la luminosidad de cada pixel, por lo que estrictamente hablando, la imagen que captura es en blanco y negro (esto puede ser una sorprendente revelación, pero es cierto).

Tomando en cuenta que a partir de los 3 colores básicos (verde, azul y rojo) se puede formar cualquier color, entonces las cámaras digitales se aprovechan de esto y ponen por encima de su sensor de imagen un filtro de color básico puesto encima.

Filtro Bayer de colores

Filtro BayerEste filtro fue inventado por Bryce Bayer y se le denomina Filtro Bayer. Funciona así:

El sensor de imagen que ve en blanco y negro se representa con la superficie gris.

El filtro Bayer, situado por encima, deja pasar a los rayos de luz en forma intercalada a cada pixel del sensor el rojo, azul y verde (el doble de verde, dado que el ojo es particularmente sensible al verde).

De esta forma se termina con una representación de la imagen original, siempre en degradé de blanco y negro, pero filtrada por los tres colores primarios, en ese patrón de tablero de ajedrez multicolor.

La cámara, con una serie de algoritmos complejos, procesa estas tres vistas monocromáticas, sabiendo que píxel representa cada color primario, y sumando así los tres colores primarios por cada grupo de 4 pixeles y recomponiendo de esa sumatoria  la información cromática original.

foto cruda en filtro BayerNota por favor que si bien la imagen original, en cuanto a la luminancia (en blanco y negro) fue capturada por todos los pixeles del sensor de imagen de tu cámara digital, luego al computar el color real para pintar esos píxeles, la historia es bien distinta.

Reiteramos: La computadora interna de tu cámara de fotos tuvo que procesar los degradés en verde, azul y rojo de 4 píxeles (recuerda que el verde utiliza dos pixeles, por cada pixel de rojo y azul) para generar el color “general” de esa área de 4 píxeles.

Dicho de otra forma, gran parte de los colores que muestra tu cámara digital, fue extrapolado de la -relativamente- escasa información cromática disponible: La información real cromática es solamente 1/4 de la información del total de los píxeles de la cámara.

 Alternativa 1: Tres sensores de imagen

3 sensores de imagenComo alternativa  de calidad superior al mecanismo de los filtros BAYER que vimos aquí arriba,  las mejores cámaras de video (nunca vi en fotografía, pero es bastante común en video, en las cámaras profesionales, y algo básico para las cámaras para televisión) usan 3 sensores de imagen al mismo tiempo. Cada sensor de imagen registrará la imagen completa, filtrada por un color primario distinto.

Para “repartir” la imagen que entra por el lente de la cámara entre los tres sensores, se coloca un prisma de cristal cortado de tal manera que reparte los rayos de luz en tres direcciones distintas. De esta manera la imagen se captura con mejor resolución de color, al mismo tiempo en los tres colores primarios.

El problema es que al dividir la luz que entra por el lente en tres caminos distintos, efectivamente a cada camino llega 1/3 de la luz, lo que genera problemas al usar estas cámaras en condiciones de luz inferior. En la práctica, la diferencia de calidad de una cámara de 3 sensores es notoriamente superior, contra una de un solo sensor. Pero lamentablemente en fotografía, esa disminución de sensibilidad a la luz, no tiene andamiento.

Alternativa 2: Sensor de imagen FOVEON

Sensor de imagen FOVEONEsta es una alternativa elegante, y es un nuevo tipo de sensor, que se diseño en la época de los 90, en USA, denominado FOVEON. Replica con más exactitud el comportamiento del ojo humano, y en un mismo sensor de imagen, tiene la habilidad de ver los tres colores primarios en cada pixel.

Simplificando su funcionamiento, es como si fueran tres sensores separados, pero están montados uno arriba del otro.  Cada sensor recoge los rayos de luz cuya frecuencia coincide con su color primario y deja permear el resto de la luz hacia el sensor que le sigue más abajo.

De esta manera, todos los rayos de luz son procesados, en un mismo sensor y esto trae aparejado una infinidad de ventajas. Por ejemplo hay 0 desalineamiento entre cada color y es mucho mas robusto a golpes. La calidad es INCREIBLEMENTE MEJOR, y hasta podríamos decir que el resultado es la versión sintética de cómo se comportaban las películas de rollo para cámaras analógicas.