Compartir

Continuemos adentrándonos en el proceso de compresión que empezamos a explorar en nuestro anterior artículo. Para poder comprender cómo funcionan los flujos de datos y qué nos proporcionan, es necesario volver a refrescar conceptos muy elementales. Como ya hemos dicho en numerosas ocasiones, el bit es la unidad básica de información digital. Un bit es capaz de definir dos estados o niveles distintos de información, que pueden ser encendido/apagado, verdadero/falso, cero/uno, si/no, blanco/negro –y, sólo en algunos rincones remotos y salvajes del mundo, tortilla de patatas con/sin cebolla–.

Escalas de grises y representación tridimensional RGB de un sistema de 8 bits
Escalas de grises y representación tridimensional RGB de un sistema de 8 bits

Cada vez que añadimos un bit de información duplicamos el número de niveles que se pueden definir –con lo que el pimiento o, en casos extremos de individuos angloparlantes muy mediáticos, el chorizo, también entrarían a formar parte de la ecuación–. De manera que si un bit puede definir dos niveles de información, dos bits pueden definir cuatro niveles, tres bits pueden definir ocho niveles, cuatro bits pueden definir dieciséis niveles y así sucesivamente.

  • 1 bit = 2 niveles
  • 2 bits = 4 niveles
  • 3 bits = 8 niveles
  • 4 bits = 16 niveles
  • 5 bits = 32 niveles
  • 6 bits = 64 niveles
  • 7 bits = 128 niveles
  • 8 bits = 256 niveles

Así pues, a mayor número de bits, mayor cantidad de niveles de información pueden ser descritos. Traduzcamos todo esto a información de imagen. Pongamos que estamos intentando definir niveles de gradación entre el negro y el blanco. En un sistema de un bit apenas tenemos dos niveles para describir tal diferencia: negro y blanco. En un sistema de dos bits tenemos cuatro niveles, así que podemos describir el negro, el blanco y dos variaciones de gris diferentes entre uno y otro. A medida que incrementamos los bits podemos hacer lo propio con la sutileza con la que describimos los valores entre el negro y el blanco.

Esta regla se aplica de la misma forma a los colores. En un sistema RGB de 8 bits es posible definir 16.777.216 colores. En un sistema de 10 bits podemos definir más de mil millones de colores. Si aumentamos nuestro formato de adquisición a 16 bits podemos capturar más de doscientos ochenta y un billones (281.474.976.710.656) de colores.

Fotograma de "Serenity" (Joss Whedon, 2005), primera película a partir de la cual se elaboró un DCP (Digital Cinema Package) siguiendo las especificaciones del consorcio DCI, aunque nunca llegó a estrenarse comercialmente en salas con ese formato.
Fotograma de “Serenity” (Joss Whedon, 2005), primera película a partir de la cual se elaboró un DCP (Digital Cinema Package) siguiendo las especificaciones del consorcio DCI, aunque nunca llegó a estrenarse comercialmente en salas con ese formato.

Este nivel de sutileza en la gradación va mucho más allá de la habilidad visual de los ojos humanos. No sólo no podemos discernir 281 billones de colores, sino que es muy discutible que lleguemos siquiera a distinguir gradaciones entre los casi 17 millones de colores de un sistema de 8 bits. No obstante, cuantos más bits tenemos para capturar una imagen mayor es el intervalo tonal –los niveles de detalle entre el negro y el blanco– en el que grabar nuestras imágenes.

Fotograma de "Plan Oculto" (Spike Lee, 2006), primera película que se estrenó comercialmente en salas empleando un DCP, según las normas del consorcio DCI
Fotograma de “Plan Oculto” (Spike Lee, 2006), primera película que se estrenó comercialmente en salas empleando un DCP, según las normas del consorcio DCI

Aunque atravesamos un periodo de transición en ese sentido, en el momento de escribir este artículo la mayoría de las pantallas en las que vemos nuestras imágenes están basadas en sistemas de 8 bits –con la excepción de las proyecciones en salas de cine, en las cuales el estándar establecido por el consorcio Digital Cinema Initiatives (DCI) es de 12 bits–. Esto significa que, por el momento, debemos tirar a la basura todos esos bits extra de información cuando presentamos nuestro trabajo en aparatos de televisión, ordenadores, teléfonos y demás dispositivos de consumo masivo. Se sospecha que aquellos cenutrios que afirman que ver una película en su tablet de 8 bits a plena luz del día es igual que verla en una pantalla de cine son los mismos que añaden ketchup a la tortilla de patatas, pero este extremo no ha podido demostrarse aún de forma empírica, por lo que sólo lo mencionaremos como hipótesis probable y altamente irritante.

Fotograma de "Snowden" (Oliver Stone, 2016), ejemplo de película en la que la tasa de transferencia de datos en captura es muy alta y debe comprimirse en gran medida para poder ajustarse a las especificaciones de un DCP
Fotograma de “Snowden” (Oliver Stone, 2016), ejemplo de película en la que la tasa de transferencia de datos en captura es muy alta y debe comprimirse en gran medida para poder ajustarse a las especificaciones de un DCP

Para empezar, ¿por qué necesitamos trabajar con más bits? Para que nos proporcionen mayor flexibilidad y posibilidades de elección cuando manipulemos las imágenes a posteriori en el proceso de postproducción. La adquisición en un sistema de 16 bits nos permitirá mantener mejor los detalles de unos cielos brillantes al mismo tiempo que aquellos de las sombras más profundas. Así podremos manipular la imagen en postproducción para obtener la representación más apropiada de las intenciones del director.

En resumidas cuentas. Toda esta cantidad de bits es fantástica. Nunca tenemos suficientes. ¡Vivan los bits! ¡Los bits al poder! ¡Bit for president! Pero claro, superado el efecto euforizante inicial, caemos en la cuenta de que más bits significan más datos. Si, tal y como decíamos en nuestro anterior artículo, una señal de diez bits sin comprimir en alta definición equivale a 177,9 MB/s –o a 1.423 Mbps–, una señal de 16 bits sin comprimir de idéntica resolución supone una tasa de datos de 284,4 MB/s –o 2.275,8 Mbps–. Si a menudo ya tenemos problemas grabando a 12 bits, a 16 bits el flujo de trabajo puede parecer descorazonador.

A menos que comprimamos esa imagen.

Con frecuencia se describe la compresión como una proporción entre la imagen comprimida en comparación con la imagen sin comprimir. Cuanto más alta sea la proporción, más comprimida estará la imagen. Una compresión 2:1 implica que la mitad de la información de la imagen original sigue presente y que la otra mitad se ha descartado. Una compresión 4:1 significa que se ha retenido un 25% de la información de la imagen original.

En la esquina superior derecha de la imagen de este monitor LCD RED Pro Touch 7.0 (a la izquierda de la palabra "Menu") podemos chequear el dato de la proporción de compresión establecida en cámara en ese momento
En la esquina superior derecha de la imagen de este monitor LCD RED Pro Touch 7.0 (a la izquierda de la palabra “Menu”) podemos chequear el dato de la proporción de compresión establecida en cámara en ese momento

Como es obvio, una proporción mayor de compresión compromete más la calidad de imagen. El principal motivo por el cual somos capaces de presentar como válidas imágenes muy comprimidas es el hecho de que –a simple vista– no podemos apreciar la diferencia.

Fotograma comprimido en H.264. © Noam Kroll, 2014
Fotograma comprimido en H.264. © Noam Kroll, 2014

Sin embargo, cuando echamos un vistazo más detallado –y a menos distancia de la pantalla– a este tipo de imágenes nos encontramos con gran cantidad de artefactos. Lo que podía ser una gradación sutil –acompañada posiblemente de mucho ruido también– en la imagen original se ha convertido –en la imagen comprimida– en unos horribles bloques de color sin gradación alguna entre ellos.

Detalle de compresión correcta del fotograma anterior © Noam Kroll, 2014
Detalle de compresión correcta del fotograma anterior © Noam Kroll, 2014

Tamaña pérdida de información supone un problema de gran importancia en postproducción, cuando se intenta alterar el color de la imagen durante el etalonaje. Cualquier tipo de cambio en la colorimetría –remotamente agresivo– tendrá como resultado la aparición de dichos artefactos.

Detalle de compresión con artefactos muy notables © Noam Kroll, 2014
Detalle de compresión con artefactos muy notables © Noam Kroll, 2014

La imagen parece “caerse abajo” y la calidad deja mucho que desear para cualquier espectador. En nuestro próximo artículo discutiremos las diferencias y ventajas de los esquemas de compresión intracuadro e intercuadro cuando se lidia con esta problemática.

Compartir
Julio Gómez
Formador y beta tester especializado en cinematografía digital y profesor de dirección de fotografía en la ECAM. Ha colaborado con marcas como ARRI, Canon, Dedolight, Kinoflo, Sony, Panasonic, Apple, etc. Vive la mayor parte del tiempo a bordo de trenes o aviones y es un enfermo de tal calibre que DISFRUTA de ello. Una indicación clara del deterioro de su salud mental.

1 Comentario

Dejar una respuesta

Los comentarios en esta página pueden ser moderados; en tal caso no aparecerán inmediatamente al ser enviados. Las descalificaciones personales y los comentarios inapropiados que no tengan que ver con el tema a tratar serán eliminados.