Tema 1 (Realizacion)
Tema 1 (Realizacion)
Tema 1 (Realizacion)
El pixel (unidad mínima) y su cuantificación como vía para definir la calidad objetiva de la
imagen digital.
A. RESOLUCIÓN.
· Es el número total de pixeles que contiene una imagen. Cuanto mayor es este número, mayor
es la resolución y mayor la calidad de imagen.
· En el ámbito televisivo las resoluciones son más estrictas que en el cinematográfico, que
ofrece mayor versatilidad. Por otro lado, la distribución por Internet permite trabajar con
resoluciones alternativas a las broadcast si se quiere, si bien estas se alejan de las soluciones
profesionales estándar.
En esta tabla podemos observar la evolución de la resolución, desde el PAL SD, lo que
conocemos como CD.
Televisión.
· Dentro del estandarizado HDTV (High Definition), propio de la televisión de hoy, diferenciamos
dos resoluciones profesionales: 1280x720 o HD Ready como etiqueta comercial asociada a los
monitores y 1920x1080 o Full HD. Con la llegada del HDTV se consolida el cambio de aspect
1 de 17
· Otro aspecto importante de la nomenclatura de las resoluciones es la letra final que se incorpora
al valor de los pixeles verticales. Por ejemplo, 720p o 1080i. Esto, hace alusión al tipo de
escaseado o barrido de la imagen, progresivo (progressive) o entrelazado (intercaled), de
forma que un 1080i sería un Full HD entrelazado.
· Poco a poco, pasamos al UHDTV (Ultra High Definition) que establece nuevos estándares de
resolución que se empiezan a implantar con fuerza en el mercado del vídeo. Ahora, surgen las
luchas de patentes para determinar cuáles son los formatos estándar. Hoy día, se considera la
propuesta de la SMPTE (Society of Motion Pictures and Televisión Engineers), la estándar: UHD
2160 (3840x2160) y UHD 4320 (7680x4320).
Cine digital.
· Las resoluciones habituales son 2K y 4K, donde la “k” de “kilo” hace referencia a 2014 pixeles,
pues estamos en un sistema binario. Por tanto, las resoluciones totales serían 2048 (2x1024) y
4096 (4x1024), haciendo referencia a la resolución horizontal, predominante en el cine. En
ambos casos, el número de pixeles verticales quedará determinado por el aspect ratio del
formato elegido por ejemplo 1:85:1 o 2:39:1, los dos formatos de pantalla recomendados por la
DCI (Digital Cinema Initiative) en su normativa, debido al proceso de digitalización de las salas de
exhibición.
2 de 17
· HR (High Resolution). Pueden configurarse bien para grabar hasta Full HD (de hecho, a veces
este o el HD Ready es el mínimo) aunque también se puede incrementar las posibilidades de
muestreo o profundidad de color y hacerlo en resoluciones de hasta 2K, 4K u otras alternativas
superiores.
B. PROFUNDIDAD DE COLOR.
· Hace alusión al rango dinámico de la señal, es decir, a la cantidad de matices de luz y color que
contiene. Afecta a la cantidad de información contenida en cada pixel.
· Se mide en bits, por lo que cuanto mayor número de bits que se utilice en la cuantificación de la
señal, mayor será la información de la que dispongamos por cada pixel: mayor cantidad de
matices de luz, color, textura y mayor calidad de representación. Por tanto, cuanto mayor rango
dinámico ofrezca un sensor, mejor será el resultado de color.
· El valor mínimo en profundidad de color es de 8 bits por canal (RGB: 24 bits en total), que es el
valor estándar en HDTV. Como estamos en un sistema binario, en cada canal, por tanto, existen
2(8) = 256 variaciones posibles de color. La multiplicación por cada canal dará 256 x 256 x 256 =
2(24) = 16777216 diferentes tonos de color representables.
· La UHDTV y las cámaras HR han aumentado el valor estándar progresivamente hasta trabajar
con profundidades de color superiores propias del cine fotoquímico.
· Así, en función de las diferentes cuantificaciones, el número de colores queda determinado por el
número de bits por canal. 8 bits = 256; 10 bits = 1024; 12 bits = 4096.
· Esta profundidad de color o rango dinámico, terminología propia del ámbito televisivo y
videográfico recibe en cine el nombre de latitud y afecta a características del negativo, del
celuloide, estableciendo a nivel del fotoquímico cuanto rango dinámino tenía ese celuloide.
[Se trata de un código binario. Por tanto, si hablo de un bit, tengo dos posibilidades: blanco y
negro, 4 bits, 16 colores]
3 de 17
· Es una selección de información. Por un lado tenemos la cantidad de información que recibe el
sensor (puede recibir más de la que finalmente procesa porque por ejemplo para qué quiero
tantos datos si luego tengo que pasarlo por la banda de tv y voy a tener que reducirlo) y por otro,
la información con la que finalmente trabajo. Es algo que sucede dentro de mi propia cámara.
· En el ámbito del cine digital no existe una reducción de información y por tanto hablamos de
muestro total (RGB).
· En la formulación del formato de muestreo (un cociente de tres números) la primera cifra
hace referencia a la información de la luz (luminancia), que nunca cambia, pues es lo más
importante, mientras que las dos siguientes aluden al color (crominancia). Así, el RGB
correspondería a un 4:4:4 y el YUV al 4:2:2.
· En la actualidad, tanto cámaras HDTV de alta gama, como por supuesto, las cámaras HR
permiten muestreos RGB 4:4:4. De hecho, la conversión RGB/YUV consiste en un proceso
añadido al flujo de información propio de las cámaras profesionales.
· Otros formatos de muestro más restrictivos de espacio de color YUV suponen una mayor
reducción del flujo de datos y una señal más manejable por más amplios canales de distribución y
consumo, pero sus resultados no son aptos para broadcasting o el ámbito profesional como la TV.
Suponen un ahorro en el flujo de datos del 33% con respecto al 4:2:2 y un 50% con respecto
al 4:4:4. Son por ejemplo (en ambos los archivos pesan lo mismo):
· 4:1:1. Frente a las 4 muestras de luminaria a la crominancia le corresponde 1 por cada
señal.
· 4:2:0. Frente a las 4 muestras de luminaria a la crominancia le corresponde un muestreo
alterno en las líneas de resolución. Muestreo habitual en la grabación de vídeo con
cámaras DSLR.
· Nunca debe perderse de vista el flujo de datos, pero será lo que permita poder manejas esa
información con mayor o menor facilidad (según el tipo de trabajo requerido, el equipo con el que
lo estemos llevando a cabo y las vías de distribución del material). Así, por ejemplo, en un Full HD
(25 fps), el estándar de la TV en España, sería el flujo de datos el siguiente según el
muestreo:
· 4:4:4. 1244’16 Mb/s.
· 4:2:2. 829’44 Mb/s.
· 4:1:1. 622’08 Mb/s.
· 4:2:0. 622’08 Mb/s.
4 de 17
D. CADENCIA.
· También conocido como framerate (frame: cuadro; rate: tasa).
Barrido.
· La cadencia lleva asociado en vídeo el concepto de barrido de las imágenes (tengo que
concretar no solo los fps sino de qué forma voy a grabar esas imágenes).
· Entrelazado (campo impar cada 1/50 de seg + campo par al 1/50 de seg siguiente,
por lo que la información completa solo se obtiene cuando se unen ambos campos).
Ofrece una mayor resolución “dinámica” pues capta el doble de muestras de realidad
por segundo (aunque sean parciales), es decir, el movimiento es mejor registrado. Se
suele utilizar más en EEUU.
· Progresivo (imagen completa cada 1/25 de seg, línea a línea), en función del proceso
de escaseado de las imágenes. Ofrece mayor calidad y resolución “estática”, es decir,
la imagen fija tiene mayor resolución pues aunque cojo la mitad de información en el
mismo tiempo, esta información está más definida. Se suele utilizar más en Europa.
5 de 17
· Lo ideal sería una solución intermedia, una combinación: mayor calidad de imagen y mayor
muestras por segundo (mejor captación del movimiento). Una posibilidad sería doblar las
cadencias estándares de captación: en cine de 24 a 48 fps y en TV de 25-30 a 50-60 fps. Sería
un progresivo obteniendo mayor número de muestras. No obstante esto supone más flujo de
datos.
E. SENSORES.
· El “negativo” digital. Dispositivo que recibe y a partir del cual se transforma la información
lumínica recibida. es un traductor (lumínica-eléctrica). Está compuesto por un número de
fotodiodos, elementos fotosensibles encargados de proporcionar cada una de las muestras de
realidad: pixeles. En función del número de fotodiodos que compongan el sensor, se obtendrá una
mayor o menor resolución.
Dinámica de funcionamiento.
· Proceso básico: transformar la luz percibida en corriente eléctrica, lo cual se inicia cuando la
luz incide sobre las celdillas (fotodiodos) que se encuentran en forma de rejilla.
· El material del que están hechas las celdillas que componen la matriz permite capturar los
fotones presentes en la luz y convertirlos en un flujo de electrones, que serán finalmente
transportados por el contacto de la capa inferior del sensor.
· A menor intensidad de luz, menor será el número de fotones percibidos y por lo tanto, menos
el número de electrones. A mayor intensidad, más problemas para convertir.
Tipos.
1. CMOS.
6 de 17
· Dos de los parámetros más importantes de la imagen digital los determina el sensor:
resolución (número total de pixeles) y rango dinámico (sensibilidad).
· Los tamaños más frecuentes son: 1/3 de pulgada, 1/2 de pulgada 2/3 de pulgada y 4/3 de
pulgada. No obstante, con las DSLR que hacen invertir más en CMOS y las nuevas posibilidades
de las cámaras de alta resolución, el panorama de los sensores y sus tamaños ha experimentado
una sensible expansión: la superficie se amplía para se más aprovechable a nivel de
sensibilidad.
· En el cine, el tamaño del sensor tiene la misma dimensión que el área sensible. Así, por
ejemplo, los sensores Super 35 (S35) tienen un área de 35 mm, al igual que el del sensor 35
mm. Esta adaptación permite compatibilizar las ópticas y complementos auxiliares
cinematográficos, así como con la profundidad característica del look cine.
Factor de recorte.
· Cuanto más se acerca al tamaño del 35 mm (más grande es el sensor) menor es el factor de
recorte. Cuanto mayor es este índice, más convertimos un teleobjetivo en un gran angular.
Así, un objetivo de una distancia focal 35 mm, se convierte en una distancia focal efectiva en
función de donde estoy grabando, multiplicando los mm de mi objetivo por su factor de
recorte. Cuando tengo un fullframe, con factor de recorte 1, un 75 mm es un 75 mm. Cuando
tengo por ejemplo un APS-H, tengo que multiplicar por 1’26. Si quiero un 50 mm pues a lo mejor
me voy a tener que comprar un 39mm porque a lo mejor el factor de recorte es de 1’39.
7 de 17
1. Rolling shutter. Se traduce en efecto gelatina (jelly effects). Las líneas están inclinadas
porque como al fotodiodo no le da tiempo a convertir en electricidad, vaciarse y volver a
llenarse, llega un momento en el que no capta todo. Cuando este problema se convierte en
distorsión horizontal lo llamamos skew. El CMOS lleva peor esa captación de movimiento.
EL CCD no tiene este problema, aunque sí que tiene un shutter global.
2. Contaminación o smear. Contaminación lumínica que se produce debido a fuentes de luz
muy intensas que inciden sobre el sensor, saturando los fotodiodos que llegan a
contagiar la columna completa. Es propio del CCD.
Existen diferentes recursos y desarrollos tecnológicos posteriores para solucionar estos y otros
problemas, como el Aliasing o Moiré, relacionados con los sensores y los procesados digitales.
8 de 17
F. FORMATOS Y FLUJOS DE DATOS.
· En el ámbito audiovisual digital cualquier solución comercial o estándar viene dada por los
parámetros anteriores: resolución, profundidad de color, muestreo y cadencia. Así, encontramos
unos formatos fundamentales.
· A más bitrate mayor calidad, pero mayor exigencia de recursos en los equipos que utilicemos
para tratar la información.
· Siguiendo esta pauta basta con saber que PESO (de una imagen) = RESOLUCIÓN (nº pix
horizontales x nº pix verticales) x MUESTREO (4:2:0 = x1’5; 4:2:2 = x2; 4:4:4 = x3) x
PROFUNDIDAD DE COLOR (8 bits = x8; 10 bits = x10; 12 bits = x12).
· Para evitar grandes cantidades el valor final (en bits) se dividirá entre 8 para conseguir el
resultado en Bytes (1B = 8b) y progresivamente podrá obtenerse el valor en KiloBytes,
MegaBytes… (múltiplos de 1024, y no de 1000, por ser un sistema binario en lugar de decimal:
1KB= 1024 Bytes; 1MB = 1024 KB; 1GB= 1024 MB).
9 de 17
Un ejemplo es el siguiente.
Nos encontramos en el formato HD1080, con una resolución de 1920x1080, que sería igual a
2073600 de resolución, con un muestreo de 4:2:2, lo que equivaldría a 2 y una profundidad de
color de 8 bits, que equivaldría a 8. Si multiplicamos 2073600x2x8, obtenemos un resultado de
33177600 bits. Para convertirlo a bytes, dividimos entre 8, obteniendo 4147200 bytes y por último,
si lo queremos convertir a MegaBytes, lo dividimos dos veces por 1024: 3’96 MB. Este, es el peso
de cada imagen en un HD1080. Ahora, va a depender de si estoy grabando a una cadencia u otra.
En un HD1080 la cadencia es de 25p, lo que equivaldría a 25. Entonces, 3’96x25 daría un
10 de 17
· Para todo esto existen las códecs, algoritmos matemáticos para los procesos de codificación-
decodificación de la información que se comprime. La eficiencia del códec determinará la
eficiencia de la compresión. Son soluciones industriales, ligadas a licencias o patentes
comerciales que, además de intervenir en la compresión afectan también al visionado del material,
en función de las características de reproductor que estemos utilizando (disponer de las licencias
y compatibilidades). Existen códecs abiertos, como Theora. Un códice por ejemplo es el 8264, de
BluRay, que para cine, queda corto.
· La búsqueda de un protocolo (MXF: Media eXchange File) que permita el uso de cualquier
códec por cualquier equipamiento (y que así no haya problemas). No se trata de un códec
único sino de un sistema de “empaquetado” común que contenga la información. Si en vez de
usar un estándar de compresión, uso un códec extraño, ese vídeo no lo voy a poder reproducir en
mi VLS si no tiene este códec.
11 de 17
Tipos de codificaciones.
En función de las necesidades y del tipo de compresión:
1. Intraframe.
2. Interframe.
3. Bidirectional.
4. Predictive.
5. Reserve.
· En 2003, el H.264 y el MPEG-4 se fusionan para crear un estándar de compresión que origina
el códec que se utiliza en gran parte de los ficheros actuales para el trabajo en HD. Por ejemplo,
el BluRay trabaja con este códec, a diferencia del DVD que trabaja con el MPEG-2, el
estándar en SD.
· Softwares como MediaInfo son especialmente útiles para obtener la información referente
a códécs y demás especificaciones técnicas en relación a un archivo de vídeo.
12 de 17
· El canal Alpha define la opacidad de un pixel en una imagen. Actúa como una máscara de
transparencia que permite, de forma virtual, componer (mezclar capas) imágenes o fondos
opacos con imágenes con cierto grado de transparencia. En el caso de Apple ProRes, el fondo se
convierte en blanco y no tiene transparencia. En DNxHD, puedo guardarlo para colocarlo en otro
soporte, sin fondo. Para entenderlo podemos hacer referencia los archivos PNG, imágenes sin
fondo, que tienen un canal de transparencia y si las convierto a JPG me convierte el fondo en
blanco.
· Existe variedad focal (entre elemento captador y la lente). Así, tenemos lentes de focal fija o
variable: ópticas intercambiables.
· La relación entre sensor y focal es el factor de recorte. Es más fácil enfocar con un sensor
que tiene factor de recorte. Mayor sensor más posibilidades de profundidad de campo, más
facilidad para meter la pata.
13 de 17
·Para poder convertir la información que llega a mi cámara en el proceso de conversión analógica/
digital de la señal eléctrica generada en el sensor, esta debe ser amplificada. Es importante que
se mantenga la codificación de color y la discriminación del ruido propio de la señal.
La ganancia (ISO) está relacionada con la amplificación. Cuando es “nativa” (mejor calidad),
es que la amplificación de la señal se realiza previa a la conversión A/D y luego se codifica a
0 y 1. Cuando es “no nativa” (peor calidad), es que esta tiene lugar con posterioridad, una
vez convertida en digital la señal.
Superada la etapa de conversión A/D, la información digitalizada será procesada en función de las
características del equipo con el que estemos trabajando y las necesidades de la producción:
Implica guardar los datos digitales obtenidos tras la conversión A/D en bruto absoluto o con
alguna compresión (sutil, que genere poco ruido). Grabo con todos los balances de blanco
posibles.
El flujo de trabajo es muy superior y la señal no puede ser monitorizada hasta no ser matrizada.
Se trabaja en todas las opciones que nos ofrece el sensor, sin concretar ni discriminar información
y los ajustes a posteriori son más precisos, calibrados y reversibles, pues los ajustes de
monitorización que se llevan a cabo no alteran el RAW original, sino que se incorporan a este
a modo de metadatos adjuntos al fichero.
2. Matrizar la señal.
Estos ajustes que se realicen en la grabación serán irreversibles. Esto suele marcar la
distinción entre los realizadores que prefieren dejar las correcciones para postproducción y
aquellos que buscan ya en rodaje el resultado más próximo posible al definitivo.
14 de 17
Cuando habla de Resolución HD/2K o 4K real, tiene una resolución HR, que permite un HD de alta
calidad y un 2K y un 4K.
J. EDICIÓN Y POSTPRODUCCIÓN.
· Es muy importante preservar la calidad nativa del trabajo. Los principales cambios que
alteran la calidad nativa en los procesos de transfer y conversión son:
- Resolución.
- Muestreo.
- Profundidad de color.
15 de 17
2. Montaje offline. Se lleva a cabo cuando el peso y tamaño de los ficheros online son
excesivamente pesados, ocupando demasiado espacio en el disco y agotando los
recursos del equipo.En este montaje offline importa mucho la figura del proxy. Es un fichero
o clip “espejo” de menor resolución o calidad que el original al que sustituyen para
poder trabajar con mayor comodidad durante el montaje. La importancia de que estos
ficheros mantengan el código de tiempo original que permite su identificación con los clips
nativos de referencia. Existen cámaras que generan un proxy en paralelo al clip original,
lo cual beneficia los procesos de previsualización e incluso edición en el lugar de
rodaje.
EDL: Edition Decission List (Lista de Decisión de Edición): archivo de texto que contiene la
información de metadatos, fundamentalmente con el nombre de los clips, los respectivos puntos
de entrada y salida y su ubicación en el timeline.
· Uno de los problemas principales que se da con las EDL más utilizadas es que solo admiten
una pista de vídeo, siendo necesario exportar diferentes EDL para cada una de las pistas en
aquellos casos en los que nuestro montaje cuente con más de una. Esto supone un auténtico
atraso en plena era de postproducción multicapa y compleja. Para solucionar dicho problema se
han creado lenguajes de metadatos más sofisticados, entre los que destacan los siguientes
estándares comerciales:
- OMF (Open Media Framework) creado por Avid y posteriormente ampliado al conocido AAF
(Advanced Authoring Format).
16 de 17
- XML (basada en los protocolos eXtended Markup Language) es el característico de las
plataformas Apple, convirtiéndose en un lenguaje muy soportado en numerosos programas de
edición y postproducción actuales.
· La necesidad de tener que reducir la calidad de las imágenes generadas por ordenador
para que no haya problemas de integración (texturas...) en las incrustaciones de las CGI por
diferencias de muestreo. Esto ocurre, por ejemplo, cuando trabajamos con vídeo 4:2:2 y 8 bits
de profundidad de color y las imágenes generadas por ordenador han sido procesadas en 4:4:4 y
10 e incluso 12 bits.
· Para trabajar con los LUTs debemos tener en cuenta tres factores clave:
- Espacio y profundidad de color del material original.
- Espacio y profundidad de color de las herramientas (softwares) que estemos utilizando. · Espacio
y profundidad de color del master final del proyecto según su destino.
· DSM (Digital Source Master): master digital que se crea como punto final del proceso de
postproducción y dependiendo del tipo de producción y del canal de distribución.
· La copia de seguridad: de la dudosa fiabilidad de los soportes actuales con el paso del tiempo,
pasando por el posible surgimiento de empresas de copia y almacenamiento hasta el negativo
fotoquímico.
17 de 17