Canon Digic, Nikon Expeed, Sony Bionz… nombres que a veces no son bien conocidos por todo el mundo en el ámbito fotográfico –más allá de unas palabras en una hoja de especificaciones– pero que hoy en día juegan un papel primordial en una cámara. Son los procesadores de imagen, responsables de obtener la imagen digital a partir del sensor, y de cuyas capacidades depende, en gran medida, el resultado final.

Procesador de imagen - Canon Digic 5+
Procesador de imagen Digic 5+, un circuito integrado con toda la electrónica necesaria en su interior © Canon

El procesador de imagen es, de hecho, un procesador digital de señal o DSP (Digital Image Processor) especializado en tratar las imágenes obtenidas mediante  cámaras digitales, teléfonos móviles o cualquier otro dispositivo similar. Se trata de una pieza clave en la fotografía digital, pues en él se llevan a cabo las distintas transformaciones digitales de los datos obtenidos por el sensor. Estas operaciones o funciones son realizadas por distintos algoritmos, que al tratarse de software/firmware pueden ser actualizados convenientemente por el fabricante.

Diseñando el procesador

Físicamente, los procesadores de imagen se suelen presentar en formar de SOC (System On a Chip), donde se incluyen todos los componentes en un solo chip o circuito integrado, lo que permite un mayor nivel de integración y una reducción de espacio considerable.

De forma idéntica a los procesadores de uso general (CPUs), el rendimiento de los procesadores de imagen depende en gran medida del número de transistores que incluyen que, siguiendo la conocida como la Ley de Moore se duplica cada aproximadamente dos años. Hoy en día, los procesadores de imagen disponen en su interior de una potencia de cálculo enorme, inimaginable hace apenas unos años.

Ley de Moore - Evolución memoria NAND
Evolución de la memoria NAND – La Ley de Moore también puede aplicarse a los dispositivos de memoria, cuya miniaturización sigue la misma estela que las de los procesadores © Guiding light at English Wikipedia

Hasta principios de la década pasada, los fabricantes estaban de hecho inmersos una carrera, equivalente a la carrera de los megapíxeles del ámbito fotográfico, pero aplicado a la frecuencia a la cual funcionaban los procesadores. A más frecuencia, mayor número de instrucciones u operaciones que se podían realizar por segundo. El problema –a parte de algunas limitaciones físicas del silicio– era el  sobrecalentamiento del procesador generado por un consumo de potencia demasiado elevado, uno de los motivos por los cuales Intel, principal fabricante de CPUs, decidió cancelar el desarrollo de su última arquitectura basada en el aumento de frecuencia en 2004.

Procesador de imagen - Canon Digic 5+ Dual
La arquitectura de procesador de imagen dual Digic 5+; la tendencia actual es incrementar la potencia de cálculo mediante el uso de más núcleos o cores © Canon

Poco más tarde, la industria adoptó exhaustivamente el uso de procesadores con múltiples núcleos o cores –el Intel Core es uno de los ejemplos más conocidos–, un movimiento que también se trasladó a los procesadores de imagen, que hoy en día utilizan normalmente dos cores en las cámaras más avanzadas. Esta estrategia permite acrecentar el uso de la computación paralela a diferentes niveles, lo que aumenta el rendimiento del procesador sin incrementar la frecuencia.

Este paralelismo suele acompañarse de la tecnología SIMD (Single Instruction Multiple Data), «una instrucción, múltiples datos», una técnica empleada para conseguir paralelismo a nivel de datos, es decir, aplicar una operación (por ejemplo, contraste) a un conjunto de datos a la vez en una misma instrucción.

Creando la imagen digital

Abandonamos el hardware para adentrarnos en el software, es decir, los algoritmos que «corren» dentro de los procesadores de imagen. Estos algoritmos ejecutan un conjunto de funciones digitales básicas para la formación de la imagen a partir de los datos que se obtienen del sensor. De hecho, para que el sensor –un dispositivo eléctrico que «recoge» luz en sus fotodiodos– se entienda con el procesador –que funciona con tecnología binaria–, es necesaria una etapa de conversión analógica-digital.

Procesador de imagen - Canon Digic 5+ Dual
Proceso de formación de la imagen a partir de los datos recolectados por el sensor © Sony

Para el coloreado de la imagen, normalmente es necesario realizar una transformación de Bayer, por la cual se obtiene el color a partir del filtro de Bayer del sensor de imagen, siguiendo un patrón determinado a partir de los tres colores primarios (RGB). Existen, por supuesto, otros tipos de transformaciones, como las derivadas de los sensores tricapa –como el Foveon–, donde la operación es aún más complicada.

Sensor de imagen - Pauta de Bayer
Pauta de Bayer en sensor de imagen © Cburnett

La interpolación cromática es la que se encarga pues de reconstruir la imagen en color a partir de las muestras obtenidas por el sensor. Los resultados dependen de la capacidad de estos algoritmos para gestionar la información RAW del sensor, motivo por el cual pueden existir diferencias significativas entre las soluciones de distintos fabricantes. Aquí también podemos incluir la corrección de gama, una operación no lineal para la codificación de los valores de luminancia que también da lugar a resultados distintos.

Así pues, el algoritmo debe lidiar con diferentes factores para poder reconstruir una imagen satisfactoria, evitando la aparición de artefactos como el aliasing cromático, las aberraciones cromáticas o los cambios abruptos de intensidad entre píxeles colindantes, y todo ello conservando al máximo la nitidez de la imagen.

Procesador de imagen - Sony Bionz en HX50 Ultra
Cada fabricante implementa su propia solución, que da lugar a resultados diferentes a partir de un mismo archivo RAW © Sony

Es muy importante que estos procesos se realicen con el menor coste computacional posible, es decir, haciendo el menor uso del procesador, pues de este modo se evita un consumo excesivo de energía, que redunda en una prolongación de la autonomía.

Eliminando el ruido

De hecho, los propios algoritmos de interpolación cromática están diseñados para maximizar su compatibilidad con los algoritmos de análisis de ruido, que es la siguiente función básica que los procesadores de imagen suelen implementar.

Ruido aleatorio Gaussiano
Ruido Gaussiano aleatorio para una imagen de 3 canales © Stanford University

Una de las fuentes de ruido que se debe tratar es el propio ruido electrónico del sensor, como ocurre con todo dispositivo o elemento con una temperatura superior al cero absoluto. La cantidad de ruido es, de hecho, directamente proporcional a la temperatura: a más temperatura, mayor el ruido electrónico. Típicamente, el modelo matemático más utilizado supone que este ruido es de naturaleza aleatoria y sigue una distribución denominada normal o Gaussiana.

Este ruido se hace más patente cuanto más se aumenta el nivel de ISO, pues al incrementar este índice no hacemos otra cosa que aumentar artificialmente la sensibilidad del sensor, con la consiguiente reducción del nivel de señal a ruido o SNR (Signal to Noise Ratio).

Comparativa ISOs - Sony A7R II
La relación señal a ruido (SNR) disminuye a medida que aumentamos el nivel de ISO © Albedo Media S.L.

Para intentar reducir –puesto que eliminarlo por completo es imposible– este efecto indeseable, la opción más simple pasa por aplicar un filtrado paso bajo, lo que equivale a realizar un promediado de las muestras o píxeles; dada la naturaleza aleatoria del ruido, se consigue disminuir el ruido, pero a costa por supuesto de perder nitidez en la imagen, sobre todo en zonas con texturas finas.

La clave de los algoritmos de reducción de ruido o NR (Noise Reduction) radica pues en cómo tratar este ruido de forma «inteligente», intentando separar, en la medida de lo posible, la información útil de la imagen del ruido en sí. Normalmente, estos algoritmos permiten el control por separado del ruido de luminancia y de crominancia.

Comparativa ISOs - Reducción ruido ON/OFF
Comparativa de reducción de ruido (OFF/ON) en Canon 5Ds © Albedo Media S.L.

Existen también otras fuentes de ruido que se añaden a la imagen, como ruido de «patrón fijo», que da lugar a los conocidos como «hot píxels«. Este tipo de ruido aumenta cuanto más tiempo permanezca el sensor expuesto, motivo por el cual en ciertas cámaras existe la opción de reducir el ruido para exposiciones largas. Pero también el ruido de bandas o banding noise, que viene normalmente fijado por la propia circuitería de los dispositivos electrónicos.

Así pues, la eficacia de los sistemas de reducción de ruido dependerá en gran medida de la implementación de estos algoritmos por parte de cada uno de los fabricantes, así como de la potencia de cálculo del procesador de imagen utilizado.

Corrigiendo la nitidez

Debido tanto a la propia interpolación cromática como a la reducción de ruido posterior, la imagen resultante puede verse afectada de falta de nitidez, por lo que se impone una etapa de image sharpening o corrección de nitidez.

Para ello, los algoritmos responsables han de ser capaces de detectar los bordes y contornos de la imagen, pues suelen ser las zonas más afectadas por dicha falta de nitidez.

El procesador de imagen Bionz X es uno de los más potentes del mercado, y sus algoritmos, unos de los que mejor resultado obtienen © Sony
El procesador de imagen Bionz X es uno de los más potentes del mercado, y sus algoritmos, unos de los que mejor resultado obtienen © Sony

Usando la potencia del procesador

La interpolación cromática, la reducción de ruido y la corrección de nitidez son típicamente las funciones básicas realizadas por cualquier procesador de imagen, pero no son ni mucho menos la únicas. El sistema de medida de la exposición, la compresión de la imagen (JPEG) –y vídeo– o la conversión del espacio de color, son otras de las funciones que son gestionadas por el procesador.

Pero a medida que la potencia de cálculo se incrementa, se van adoptando más funciones avanzadas como el reconocimiento de sujetos en la imagen –caras–, el procesamiento RAW en la propia cámara, las capturas multi-exposición –HDR– o la gestión de imágenes panorámicas.

Procesador de imagen - Nikon Expeed 4 (D3s)
Procesador de imagen Expeed 4 en placa base, utilizado para la Nikon D3s © Nikon

La lista de variantes de procesadores de imagen es tan diversa como los fabricantes de cámaras; prácticamente cada uno dispone del suyo propio: Canon DIGIC, Nikon EXPEED, Sony BIONZ, Leica MAESTRO, Fujifilm EXR, Pentax PRIME, Olympus TruePic, Panasonic VENUS Engine, Sigma TRUE, Casio EXILIM…

Pero todo ellos se enfrentan en general a los mismos problemas, como es el incremento del número de píxeles de las imágenes a tratar, lo que aumenta el tiempo de aplicación de cada uno de los algoritmos, del mismo modo afecta tratar con mayor cantidad de datos por imagen –como los RAW de 14-bit–. Si a ello le sumamos estructuras más complejas –sensores Foveon o, por qué no, sensores de campo de luz como el de la Lytro Illum–, está claro que los fabricantes no pueden dejar de innovar para hacer frente a una demanda de potencia de cálculo cada vez mayor.

2 Comentarios

  1. […] con la arquitectura X-Trans CMOS II que encontrábamos en la X-E2. Un sensor APS-C de 16 Mpx y un procesador de imagen EXR II siguen siendo el motor interior de esta mirrorless de Fujifilm. Sin embargo, la X-E2S ya no […]

Comments are closed.

       

Los comentarios en esta página pueden ser moderados; en tal caso no aparecerán inmediatamente al ser enviados. Las descalificaciones personales, los comentarios inapropiados, de extensión desmesurada o con demasiados errores ortográficos podrán ser eliminados. Asimismo, en caso de errores considerados tipográficos, el editor se reserva el derecho de corregirlos antes de su publicación con el fin de mejorar la comprensión de los mismos. Recordamos a los lectores que el propósito final de este medio es informar. Para recibir soporte sobre dispositivos o problemas particulares les invitamos a contactar con el correspondiente servicio de atención al cliente.