Antes de la era digital, cuando la mayoría de fotógrafos usaba rollos de película, el procesado de imágenes era muy diferente al que conocemos hoy en día. Los procedimientos eran más manuales y sus resultados, más variables. Y a pesar de sus muchas virtudes, la era fotoquímica siempre estuvo limitada por la propia naturaleza de este tipo de fotografía: la imagen es capturada y almacenada con un soporte “analógico“.

Este tipo de información tiene el inconveniente de que no se puede reproducir de forma indefinida: con cada copia, se pierde información. La información digital, en cambio, se puede transmitir y replicar tantas veces como se quiera –salvo errores en el propio proceso de copia–, pues la información no radica en el soporte utilizado, sino en un valor cuantificado para un instante dado.

El procesado digital es la clave

Ello abre la puerta a la aplicación de algoritmos para el procesado digital de imágenes, cuyas posibilidades son prácticamente infinitas. Este es, seguramente, el cambio de paradigma más importante con respecto a las cámaras analógicas. Si bien las primeras cámaras digitales se limitaron a sustituir la película por un sensor digital –dejando el resto de componentes prácticamente intacto, como sería el caso de la Kodak DCS 100, que estaba basada en una Nikon F3–, ha sido en estos últimos años cuando el procesado digital ha empezado a jugar un papel determinante en la fotografía.

La Kodak DCS 100 permitía 'transformar' la fílmica Nikon F3 en digital respaldo mediante
La Kodak DCS 100 permitía ‘transformar’ la fílmica Nikon F3 en digital respaldo mediante

Esta capacidad se ha utilizado principalmente para compensar las limitaciones del hardware de las cámaras, ya sea aquellas que se derivan del sensor en sí como aquellas que responden a la parte óptica. Uno de los ejemplos más claros son los algoritmos de reducción de ruido, que han permitido trabajar con índices de sensibilidad inimaginables en la era analógica. Este incremento de la sensibilidad de las cámaras se debe principalmente a las mejoras en los algoritmos de procesado digital pues, tal como señalaba una comparativa, los sensores CMOS solo habían ganado 1,5 pasos en un periodo de 10 años.

Según esta comparativa, la evolución de la sensibilidad de las cámaras se debe principalmente a la mejora de los algoritmos de procesado digital © DXOMark
Según esta comparativa, la evolución de la sensibilidad de las cámaras se debe principalmente a la mejora de los algoritmos de procesado digital © DXOMark

Algo similar ocurre con las limitaciones que el sistema óptico –objetivos– impone en el proceso de captura. Mientras que el advenimiento de los sensores digitales ha permitido reducir considerablemente el tamaño de las cámaras –para una calidad de imagen equivalente–, el diseño de las ópticas debe rendir cuenta a un conjunto de limitaciones físicas infranqueable.

Fotografía computacional, o cómo paliar las carencias del hardware

Es en este punto donde entra la conocida como fotografía computacional, término usado para referirse a aquellos procesos de captura digital donde las técnicas de computación priman sobre los procesos meramente ópticos. Mediante estas técnicas de procesado digital se busca mejorar las capacidades de la cámara más allá de las inherentes limitaciones de su hardware, ya sea introduciendo nuevas funciones o bien reduciendo el coste de los componentes físicos.

Uno ejemplo de ello son las cámaras plenópticas, donde Lytro fue uno de sus máximos exponentes en su momento. Hablamos de un sistema conocido como light field photography que captura los conocidos como “rayos o campos de luz” para poder obtener una imagen digital con información sobre la profundidad de campo. Este sistema popularizó el post focus –enfocar después de la captura– y la simulación digital de la apertura del diafragma. Todas ellas características inabarcables en cámaras de soporte fílmico.

Años atrás, la Lytro Illum ya permitía jugar con la profundidad de campo en tiempo real © Albedo Media
Años atrás, la Lytro Illum ya permitía jugar con la profundidad de campo en tiempo real © Albedo Media

Sin embargo, quienes más se han beneficiado de la fotografía computacional son los fabricantes de smartphones, que han visto en estas técnicas un terreno para seguir creciendo. En efecto, la fotografía móvil es una de las que se ve más limitada por el hardware, tanto a nivel del sensor como del sistema óptico. Este último punto, el de la óptica, ha sido tradicionalmente el talón de Aquiles de los terminales móviles, debido al poco espacio que disponen para encajar las lentes que las componen.

2018: un año con mucho software

Podemos atrevernos a decir incluso que los progresos realizados para las cámaras de los móviles superan con creces a aquellos conseguidos por los fabricantes de cámaras convencionales. Prueba de ello son las constantes novedades presentadas a lo largo del recién finalizado año 2018 por empresas como Google, Huawei o Apple, que han abrazado de pleno la fotografía computacional para intentar reducir el handicap que tienen los smartphones con respecto las cámaras clásicas.

El uso de cámaras múltiples ha sido uno de esos campos de batalla: lo que empezó con “simples” cámaras duales ha dejado paso a las cámaras triples –que inauguró el P20 Pro de Huawei y repitió en sus Mate 20– o incluso cuádruples –como es el caso del Galaxy A9 de Samsung–. Incluso Leica invirtió recientemente en la compañía Light para seguir adelantes con sus proyectos de dispositivos con múltiples ópticas, como la L16 –una cámara compacta con 16 ópticas– o su recientes Concept 9, un smartphone con hasta 9 ópticas.

El Concept 9, un proyecto de 'smartphone' con 9 ópticas © Light Co.
El Concept 9, un proyecto de ‘smartphone’ con 9 ópticas © Light Co.

En todos estos casos, el software es una pieza clave, pues es la que se encarga de combinar la diversidad de información recogida por los diferentes sensores y construir una imagen final con la mayor calidad posible. Pero también para crear efectos que –con las limitas ópticas de los smartphones– no sería posible, como el conocido como “efecto bokeh” y modos de retrato, que fue tendencia durante el pasado 2017.

Sin embargo, el uso de múltiples cámaras no ha sido una condición sine qua non para el desarrollo de cámaras de altas prestaciones. Una vez más, Google ha sorprendido con sus nuevos Pixel 3, que siguen apostando por una única cámara trasera pero equipados de algoritmos de fotografía computacional cada vez más evolucionados.

El Pixel 3 sigue apostando por una única cámara trasera, pero con resultados sobresalientes © Google
El Pixel 3 sigue apostando por una única cámara trasera, pero con resultados sobresalientes © Google

Apple no ha sido menos, y en 2018 presentó sus nuevos iPhone Xs y XR, el primero dotado de una cámara dual y el segundo con una única cámara, pero con resultados sobresalientes. Cabe destacar también su potente procesador A12 Bionic, con una potencia similar a la los procesadores usados comúnmente en los ordenadores portátiles.

Todos ellos se apoyan en la denominada inteligencia artificial, un término tan en boga hoy en día, y que se utiliza –a menudo de forma abusiva– para englobar todo aquello que tenga que ver con los algoritmos de aprendizaje automático o redes neuronales. Una “moda” que los fabricantes han sabido explotar, y no hay procesador móvil de alta gama que no incluya hoy en día un chip dedicado a la IA –como las NPU de los Kirin 970 y 980 de Huawei–. En realidad, se trata más bien de optimizar ciertas tareas que antes se realizaban en la nube, y que ahora pueden realizarse de forma local en el propio móvil.

Cuando los móviles se hicieron (realmente) inteligentes

A medida que la potencia de cálculo de los procesadores se ha incrementado, los algoritmos se han hecho cada vez más sofisticados. Combinación de imágenes panorámicas, HDR en tiempo real, modos de captura nocturnos… la lista aumenta sin cesar, y los resultados más espectaculares si cabe.

Cada día el papel que juega el procesado digital y la fotografía computacional es más determinante. Cada año, la fotografía avanza hacia un mundo regido por el software más que el hardware. Los fabricantes de cámaras tradicionales ya hace tiempo que apuestan por el software –las cada vez más invasivas correcciones de firmware son un ejemplo de ello– pero permanecen todavía muy ancladas en las limitaciones del hardware. A diferencia de la industria móvil, estos fabricantes siguen caminos bastante más conservadores, y la fotografía computacional aún debe irrumpir con fuerza con este sector. Lo que está claro es que solo es una cuestión de tiempo.

Dejar una respuesta

¡Por favor, introduce tu comentario!
Por favor, introduce aquí tu nombre

       

Los comentarios en esta página pueden ser moderados; en tal caso no aparecerán inmediatamente al ser enviados. Las descalificaciones personales, los comentarios inapropiados, de extensión desmesurada o con demasiados errores ortográficos podrán ser eliminados. Asimismo, en caso de errores considerados tipográficos, el editor se reserva el derecho de corregirlos antes de su publicación con el fin de mejorar la comprensión de los mismos.