Compartir

Si la clave de las cámaras duales es la diversidad de información aportada por estas ópticas/sensores extra, ¿por qué restringirse solo a dos? En efecto, cuanto mayor sea el número de ópticas y sensores que dispongamos, más datos podremos comparar y procesar, y mejor será el resultado final. Pero además, abrimos la puerta a campos como la interpretación 3D o la realidad virtual (VR), gracias a estas cámaras múltiples.

Cámaras múltiples y 3D

Dos es el número mínimo para poder trabajar con diversidad de datos; dos objetivos y dos sensores permiten explotar la redundancia de información y mejorar aspectos como la relación señal a ruido, el control de la profundidad de campo o el rango dinámico. Pero, por supuesto, a mayor número de módulos implantados, mayor será el (potencial) beneficio.

Las cámaras múltiples son el siguiente paso © Pelican Imaging
Las cámaras múltiples son el siguiente paso © Pelican Imaging

Del mismo modo que, años atrás, los primeros smartphones con cámaras duales –LG Optimus 3D y el HTC Evo 3D– jugaban con la visión estereoscópica, una de las grandes ventajas de las cámaras múltiples es la posibilidad de “entender” la profundidad de la imagen de forma inherente. En efecto, un array de cámaras puede interpretar, mediante el correspondiente software, el “volumen” de la escena y crear un mapa de profundidad completo, todo ello gracias a la información aportada por cada una de las cámaras, distinta y diversa –esta es la clave– entre sí. Así pues, con las cámaras múltiples se abren las puertas de la interpretación 3D de forma natural.

Para los fabricantes de smartphones, una de las ventajas de trabajar con cámaras múltiples es la posibilidad de prescindir de un sistema de enfoque con partes móviles, lo que reduce el grosor del módulo de cámara. Efectivamente, gracias a este array de cámaras, se puede obtener el punto de enfoque deseado combinando la información de cada uno de estos elementos distintos. Es el ejemplo de la compañía Pelican Imaging, que dispone de un módulo de 16 cámaras –al estilo de la Light L16– pero en una disposición de retícula 4×4.

Módulo con 16 cámaras desarrollado para smartphones © Pelican Imaging
Módulo con 16 cámaras desarrollado para smartphones © Pelican Imaging

Fotografía computacional

Esta compañía californiana trabaja en lo que se denomina cámaras computacionales, donde el procesado de datos –mediante los correspondientes algoritmos– prima sobre los procesos ópticos. La fotografía computacional ya se utiliza de hecho al crear imágenes HDR a partir de la combinación de imágenes individuales, pero el uso de múltiples cámaras incrementa todavía más la importancia de estos algoritmos de computación. De hecho, Pelican Imaging es una compañía especializada en software, más que en hardware, lo que indica claramente que la clave está en la interpretación y procesado de las imágenes.

Disponer de una mapa de profundidad de la imagen –como ya lo hacen, en cierta medida, Apple con su iPhone 7 o Huawei con su P9– no solo permite prescindir de un sistema de AF como tal sino también de poder elegir en punto de enfoque a posteriori, al estilo “refocus” que ya encontramos en las cámaras plenópticas Lytro.

La cámara Lytro Illum permite jugar con la profundidad de campo gracias al "campo de luz" obtenido © Albedo Media
La cámara Lytro Illum permite jugar con la profundidad de campo gracias al “campo de luz” obtenido © Albedo Media

Las cámaras “light field” –donde Lytro es el máximo exponente visible– son capaces de jugar con la profundidad de campo, gracias a la capacidad de trabajar con todo el campo de luz en, creado a partir de las ondas electromagnéticas obtenidas en múltiples direcciones de incidencia. De hecho, las cámaras de Lytro utilizan el mismo principio que encontramos en las cámaras múltiples, pues internamente trabajan con un array de microlentes. Una vez más, la diversidad de fuentes es la clave para obtener la información que se necesita para crear el mapa de profundidad o “depth of field“.

Las cámaras plenópticas hace uso de un array de microlentes © Lytro
Las cámaras plenópticas hace uso de un array de microlentes © Lytro

Es cierto que el éxito de Lytro y sus cámaras “light field” ha sido relativamente mitigado, en parte por la especificidad de su producto, en parte por la implementación no demasiado eficiente de esta tecnología –que debe procesar ingentes cantidades de datos–. Pero gracias a las cámaras duales –y múltiples– que empiezan a proliferar en los smartphones, la fotografía de “campo de luz” está recibiendo un nuevo impulso, de gran peso para que la fotografía computacional avance tanto en el terreno de la fotografía móvil como en el de la convencional.

Modelos 3D, realidad aumentada y realidad virtual

Llegados a este punto, y tal como comentábamos más arriba, se abre un nuevo conjunto de posibilidades relacionado con la imagen 3D. Gracias a la creación de imágenes con profundidad, las cámaras computacionales basadas en arrays son capaces de crear modelos de los objetos que “ven” en tres dimensiones. Y ello abre un nuevo campo de aplicaciones y modelos de negocio, ya que desde el propio móvil se puede, por ejemplo, simular como un objeto “3D-fotografiado” interactúa con su entorno real.

El uso de múltiples cámaras permite crera objetos 3D © Pelican Imaging
El uso de múltiples cámaras permite crear objetos 3D © Pelican Imaging

Hablamos de lo que se conoce como realidad aumentada (AR), donde una imagen generada por computadora interacciona con las imágenes del entorno real para crear una composición en la que el usuario puede interactuar y obtener así una experiencia “más completa”. Por supuesto, también el mundo de la realidad virtual (VR) está en el punto de mira de esta tecnología de cámaras múltiples –y las compañías que están detrás–; en este caso, y a diferencia de la AR, todo el escenario está generado por computación.

Gafas de realidad aumentada con un array de sensores incorporados © Pelican Imaging
Gafas de realidad aumentada con un array de sensores incorporados © Pelican Imaging

Por supuesto, otro asunto muy diferente es la cuestión del coste –y del precio– pues, como en toda nueva tecnología que irrumpe en el mercado, es necesario valorar la relación entre estos costes y los beneficios reales que puede aportar. En parte, dependerá de la madurez del mercado para asimilar los nuevos productos basados en cámaras múltiples, pero también en la capacidad de las compañías en ofrecer una solución que sepa aportar un real valor añadido y que sepa implementarlo de forma transparente y coherente para los usuarios finales. No se trata tampoco de llegar el primero, sino de hacerlo bien –o, al menos, mejor que los demás–.

Dejar una respuesta

¡Por favor, introduce tu comentario!
Por favor, introduce aquí tu nombre

Los comentarios en esta página pueden ser moderados; en tal caso no aparecerán inmediatamente al ser enviados. Las descalificaciones personales y los comentarios inapropiados que no tengan que ver con el tema a tratar serán eliminados.