La tecnología de fabricación de los sensores de imagen es un aspecto fundamental para entender su funcionamiento intrínseco. Aunque existen diferentes tecnologías, las dos más empleadas son el CCD y el CMOS. Cada una de ellas presenta sus ventajas e inconvenientes, aunque uno de ellas está claramente ganando la batalla.

Sensores de imagen
Arriba, la primera cámara en emplear un CCD (Kodak, 1975). Abajo, la última cámara digital de Kodak, la EasyShare One © Associated Press

El principio para todas estas tecnologías sigue siendo, sin embargo, el mismo: capturar la máxima cantidad de luz incidente al sensor y transformarla en una señal eléctrica proporcional a esta cantidad que pueda ser convertida luego en una señal digital (ver Sensores de imagen – Introducción).

El CCD y la transferencia de cargas

El CCD (Charge-Coupled Devices) fue inventado en los laboratorios de AT&T Bell en 1969, por W. Boyle y G. E. Smith –40 años más tarde serían galardonados con el premio Nobel de Física por la invención del concepto del CCD–. La primera cámara fotográfica digital en usar un CCD fue creada por un ingeniero de Kodak en 1975, y empleaba un sensor de 100 x 100 píxeles –o sea, el equivalente a 0,01 Mpx–. El prototipo de Steven Sasson solo capturaba imágenes en blanco y negro, y pesaba casi 4 Kg. Aunque Texas Instruments había diseñado tres años atrás la primera cámara en no utilizar carrete, la de Sasson era la primera en utilizar un sensor puramente digital.

Sensores de imagen
En un sensor CCD, la carga proporcional a la intensidad de luz es transmitida sucesivamente de un condensador a otro

En un sensor CCD, los condensadores de la región fotosensible se encargan de acumular una carga eléctrica proporcional a los fotones incidentes; una vez finalizada la exposición propiamente dicha, la carga de los condensadores es transmitida a sus vecinos mediante un circuito de control, y así sucesivamente hasta llegar al último condensador que transmite esta carga a un amplificador que a su vez la transforma en un voltaje proporcional. En un sensor digital, este voltaje será convertido a una señal digital mediante el correspondiente conversor A/D (ver Sensores de imagen – Introducción). El funcionamiento de transferencia de carga es, pues, similar al de un shift register (registro de desplazamiento).

El CMOS y los transistores

El CMOS (Complementary Metal-Oxid-Semiconductor) es una tecnología utilizada para la fabricación de circuitos integrados, basada en transistores MOS o MOSFET (Metal–Oxid–Semiconductor Field-Effect Transistor). El CMOS es una variante que integra típicamente dos transistores para obtener un diseño simétrico para generar todo tipo de funciones lógicas. El elemento básico es el fotodiodo, formado por diferentes transistores, y que permite obtener directamente un voltaje proporcional a los fotones incidentes. Este voltaje, al igual que en los sensores digitales basados en CCD, será convertido a una señal digital a partir de la cual se obtendrá la imagen correspondiente. La principal diferencia con el diseño CCD es que en el CMOS los píxeles son tratados de forma individual; no existe transferencia de la carga eléctrica entre condensadores, como en el CCD.

La principal diferencia con el diseño CCD es que en el CMOS los píxeles son tratados de forma individual; no existe transferencia de la carga eléctrica, como en el CCD. En cambio, en este último la lectura es simultánea en toda la matriz de píxeles durante la exposición.

Sensores de imagen
Diseño de un sensor activo basado en 3 transistores

El diseño de sensores con esta tecnología CMOS permite además combinar el propio sensor de imagen con las funciones de procesado de imagen en el mismo circuito integrado. En el diseño basado en la tecnología CCD, el sensor de imagen es un elemento totalmente diferenciado, y por tanto no puede ser integrado como el CMOS. Sin embargo, gracias a ello, los sensores CCD tienen menos ruido que los CMOS.

¿CMOS o CCD?

Pese a que la creación del CMOS es anterior al del CCD –fue patentado en 1963–, su alta variabilidad en sus resultados hizo que los sensores de imagen se decantaran al principio por esta última tecnología, más estable y predecible. No fue hasta finales de los 80 y principios de los 90 que el proceso de fabricación de sensores CMOS empezó a estabilizarse y su uso comercial a expandirse. Y es que la tecnología CMOS presentaba grandes ventajas sobre el papel. Una latencia mucho menor que en los CCD –no había transferencia de carga–, un menor consumo de potencia y un proceso de fabricación más sencillo, lo que resultaba en un menor coste de producción.

Sensores de imagen
Sensor de imagen basado en la tecnología CMOS

Sin embargo, no todo son ventajas para el CMOS. Un problema común a este tipo de sensores es que son sensibles al conocido efecto de «rolling shutter» 1, que depende de la velocidad de refresco del circuito. En cambio, en un CCD, la lectura es simultánea en toda la matriz de condensadores durante la exposición, por lo que no existe el mismo problema. Además, en un CMOS no toda la superficie del sensor es fotosensible, lo que reduce su eficiencia.

Los sensores CMOS tienen un menor coste de producción y un consumo más reducido que los CCD, pero estos últimos tienen menos ruido y una mayor eficiencia lumínica.

Hoy en día, sin embargo, el CMOS parece haber ganado claramente la batalla al CCD, al menos en lo que a cámaras de consumo de refiere. La mayor integración del CMOS junto con su menor coste son, sin duda, unos factores determinantes. Sin embargo, la tecnología CCD aún tiene gran presencia allí donde la tecnología CMOS presenta sus mayores inconvenientes, como los sensores de grandes dimensiones. De hecho, dependiendo de la aplicación, una u otra tecnología puede hacer prevalecer sus ventajas respecto a la otra.

Hoy en día es difícil determinar claramente cuál de las dos tecnologías ofrecer las mejores prestaciones en cuanto a calidad de imagen se refiere.

Por otro lado, pese a que generalmente el CCD ha sido el proceso escogido para las aplicaciones donde la calidad de imagen era el factor principal –gracias a su proceso de lectura simultánea separada–, el CMOS y sus recientes variantes –como el BSI-CMOS– han recortado esta distancia, y hoy en día es difícil determinar claramente cuál de las dos tecnologías ofrecer las mejores prestaciones en cuanto a calidad de imagen se refiere.


1 En función del tamaño del sensor, es posible hoy en día implementar un «global shutter» añadiendo transistores extras al diseño del sensor CMOS y evitar así este efecto.

2 Comentarios

  1. Raphael, perdón por mi ignorancia, pero una vez que hemos aprendido la diferencia entre CCD y CMOS ¿cuál sería la razón de la observación de los fotógrafos de deportes que vienen del carrete, cuando afirman que la película es más rápida y eficiente en la captura de la luz que un sensor digital? Rápida porque la emulsión recibe toda la luz al mismo tiempo y eficiente porque con velocidades de 1/500 y 1/1000 se podían obtener fotografías muy nítidas que, al parecer, actuamente con cámaras digitales profesionales necesitan velocidades de 1/2000 como mínimo. ¿Esto se debe a la conversión que hay que hacer computacionalmente una vez que los sensores digitales reciben la luz? Recuerdo que este tema despertó hace pocos años un interesante debate (en otro sitio web hispano muy serio) y la conclusión era (si mal no recuerdo) que se producía un lag entre la captura de la luz y la tranformación en imagen digital en la memoría debido a que el la imagen digital hay muchas más «mediaciones» tecnológicas que «dentro» de la emulsión. Mil perdones por mi ignorancia pero creo que esta duda resalta mucho más la importancia de las cuestiones que analizas en tu interesante artículo. Un cordial saludo al equipo!

    • Hola PhotographerJomdq. Tal como comentas, existe una gran diferencia entre el proceso de captura analógico y el proceso de captura digital. En el primero el proceso es prácticamente instantáneo, ya que depende de reacciones puramente químicas. En cambio, cuando utilizamos un sensor digital –y como ocurre de hecho en cualquier dispositivo digital– el proceso tenía siempre una latencia, debido a las operaciones digitales que deben ser realizadas. Esta latencia, en fotografía digital, depende en parte del tamaño del fichero de imagen, o más generalmente de la cantidad de datos a procesar, así como de la capacidad de cálculo del procesador de imagen de la cámara. Es algo parecido a lo que ocurre con la televisión convencional y el TDT; este último siempre sufre de un retraso debido a su arquitectura digital. La pregunta que haces es, de hecho, muy interesante, pues suscita aún discusiones sobre las ventajas de las tecnologías analógicas respecto las digitales, pues que ciertas aplicaciones son muy sensibles a esta latencia inherente a los sistemas digitales. ¡Un saludo!

Dejar una respuesta

¡Por favor, introduce tu comentario!
Por favor, introduce aquí tu nombre

       

Los comentarios en esta página pueden ser moderados; en tal caso no aparecerán inmediatamente al ser enviados. Las descalificaciones personales, los comentarios inapropiados, de extensión desmesurada o con demasiados errores ortográficos podrán ser eliminados. Asimismo, en caso de errores considerados tipográficos, el editor se reserva el derecho de corregirlos antes de su publicación con el fin de mejorar la comprensión de los mismos. Recordamos a los lectores que el propósito final de este medio es informar. Para recibir soporte sobre dispositivos o problemas particulares les invitamos a contactar con el correspondiente servicio de atención al cliente.