TRyP Parcial

Descargar como pdf o txt
Descargar como pdf o txt
Está en la página 1de 14

Técnicas de registro y Posproducción

Aspectos fisiológicos de la visión humana


La función visual discrimina las formas y colores, enfoca a distintas distancias y se adapta
a diferentes grados de iluminación. Las formas se aprecian por diferencia de iluminación, esta
variedad de estímulos impresiona a los fotorreceptores (conos y bastones) en forma desigual
lo que nos permite captar las diferencias. Nuestros ojos son una extensión del cerebro y son
digitales ya que los neurotransmisores usan un código binario.
La visión más discriminatoria es la central y depende de los fotorreceptores llamados
conos, responsables de la visión de los colores, los cuales necesitan mucha luz para ser
estimulados. Hay tres variedad de conos, cada uno distingue una banda de color en especifico.
En la zona macular se observan los colores más brillantes, dentro de una gama rojo-amarillo,
y en la retina periferica se perciben los azules. Los bastones son superiores en cuanto a
cantidad pero no nos dan información de colores ni tampoco una definición buena, estos son
mucho más sensibles, se encargan de la visión nocturna y sirven para dar una visión más
general.
Principales factores de calidad en video
Resolución o definición: mide el nivel de detalle que se puede alcanzar en la composición
de la imagen. Antes se medía en líneas horizontales, actualmente en pixeles. En el desarrollo
de la televisión en color se tuvo en cuenta la relación de aspecto, la distancia de visión, la
agudeza del ojo y la sensibilidad del ojo al color. En televisión existen dos resoluciones:
vertical (número de líneas activas) y horizontal (número de píxeles por línea).
La resolución espacial queda definida por el producto de las líneas activas por cuadro y
por los píxeles activos por línea. La resolución temporal es la capacidad de resolver imágenes
en movimiento dando una sensación de un movimiento continuo. La resolución dinámica es
la capacidad de resolver los detalles espaciales de un objeto en movimiento.
En la exploración entrelazada podemos notar un parpadeo entre líneas, es más difícil de
procesar, es un diseño económico y no es adecuada para visualizadores de nuevo diseño. La
exploración progresiva tiene una compresión más eficiente, facilidades de conversión
bidireccional, reduce el ruido y es compatible con las nuevas generaciones de visualizadores.
Contraste:
Se tiene que tener en cuenta la capacidad del ojo de discriminar entre diferentes niveles de
iluminación. La respuesta de la intensidad real del ojo es logarítmica por lo que podemos
apreciar más los cambios de iluminación en las regiones oscuras antes que en las brillantes,
esto lo explica la Ley de Weber. Entre más contraste, más fino es el detalle que el ojo puede
resolver. El sistema visual ajusta su respuesta a la intensidad basado en la intensidad
promedio alrededor de la vista resaltada.
El ojo tiene factores limitantes, como el número y organización de los fotorreceptores en la
retina, la calidad de la parte óptica del ojo y la transmisión y procesamiento de la información
visual al cerebro.
Resolución de color:
El ojo no es uniformemente sensible a todo el
espectro visible. Lo que más puede observar en
el día son los colores verde-amarillo, en la
oscuridad, azul y verde. Para que se pueda ver
el color, el cual procede de la luz incidente,
tiene que llegar al ojo la energía
electromagnética.

Resolución de movimiento y parpadeo: tiene relación con la persistencia retiniana, por lo


que lo que vemos en realidad son 24 fotogramas por segundo, lo cuál es un formato
progresivo.
En Europa se utiliza el formato PAL y en América y Japón NTSC. El primero usa 25 f/s y
cuenta con 625 líneas horizontales; el segundo usa 29,97 f/s y tiene 525 líneas horizontales.
Relación de aspecto
La relación de aspecto es la relación entre el ancho y el alto de una imagen. Lo vemos
expresado por números (X e Y) que son separados por :. Hay tres tipos de relación de aspecto
principales:
- De píxeles (PAR): hace referencia a la proporción de píxeles individuales que forman
una imagen.
- De pantalla (DAR): nos referimos a la proporción de la imagen que tiene en la
pantalla. En el principio la más conocida y la global en el cine era 4:3. Después se
creó la proporción 2:35:1 que es la que se usa actualmente. Y por último surgió la
16:9 que es la estándar para un video.
- De almacenamiento (SAR): se refiere a los archivos del video digital codificados. Se
toma como referencia la relación del ancho y el alto del frame del video.
Señales y conexiones de vídeo analógicas
Cuando se quiso agregar color a las imágenes en televisión se tuvo que encontrar una
manera en la que la información viaje sin que sea necesario modificar brutalmente el
televisor. Así se crearon los sistemas de codificación de color de imagenes de televisión, se
refiere a la manera en que se agrega la información de color a la imagen.
Para conseguir agregar la información de crominancia a la luminancia fue necesario
mantener la compatibilidad y la retrocompatibilidad. La primera es la propiedad de un
sistema de televisión color que permite la reproducción de las emisiones a color en los
receptores monocromáticos ya existentes. Y la retrocompatibilidad es la propiedad de un
sistema de televisión en colores que permite a los receptores de televisión en colores,
reproducir en blanco y negro.
La cámara de color es igual a la monocromática pero deberá tener algún agregado (esojeos
dicroicos) que le permita discriminar entre los 3 colores primarios, separarlos y obtener
sendas señales de R, G y B.
La relación entre Y y los 3 colores es establecida por la ecuación fundamental de la
luminancia: Y = 0,30 R + 0,59 G + 0,11 B.
Una señal de video está inicialmente formada por 5
componentes básicos (RGBHV) : Rojo ®, Verde (G),
Azul (B), sincronismo Horizontal (H) y sincronismo
Vertical (V). A medida que vamos juntando la señal de
cada uno de estos componentes con la señal de otro
habrá una pérdida de calidad de emisión y recepción.
Por lo que mientras menos conversiones,
modificaciones o alteraciones sufre la señal mejor
calidad obtendremos al final.
La señal RGBS o RGB está formada por la separación de sus tres componentes básicos de
color. Y por otra parte tenemos la correspondiente señal de sincronismo compuesta (S) que
está formada por los dos pulsos H y V. La mejor forma de conexión son los cuatro conectores
de tipo BNC pero se suele utilizar EUROCONECTOR o SCART.
En la señal de vídeo por componentes o Y-Cr-Cb tenemos la Luminancia (Y) con la
información del brillo, la señal compuesta por sincronismo (S) y la información del verde. Y
por otra parte tenemos al resto de los colores cómo Cr y Cb, que sería la diferencia de estos
colores con respecto a la Y. La mejor forma de conexión es mediante tres conectores BNC o
RCA.
Resumiendo más la información tenemos la señal S-Video o Y/C. En esta tenemos por
separado la luminancia que contiene el brillo y la señal compuesta de sincronismo (S) y por
otra parte la señal compuesta de crominancia que contiene toda la información de color del
tipo matricial. La forma de conexión puede ser mediante dos conectores BNC, euroconector o
scart, o mediante uno tipo miniDin de cuatro patillas.
También existe el video compuesto que reúne toda la información que se necesita para
formar una imagen modulada en una única señal. La forma básica de conexión es a través de
un conector BNC, un euroconector o scart, o un conector tipo RCA.
En cuanto a las señales de audio, estas deben de emitirse de forma independiente al
sistema de video y tratarse de forma separada. Existe un único tipo de señal que junta la señal
de video y la de audio en una misma, denominada RF y es la peor calidad que podríamos
tener.
Formatos de grabación analógicos
Existieron diferentes formatos de vídeo los cuales eran clasificados principalmente en
domésticos y profesionales. Los domésticos podían ser:
- Betamax (Sony 1975): Posee dos cabezales con los que graba cada campo. Cada giro
del tambor corresponde a un cuadro.
- VHS Estándar universal (JVC 1976): Posee cinta de ½ pulgada, dos cabezales de
grabación, eliminación de la banda de guarda y giro acimut para los cabezales.
Existieron varias mejoras introducidas en el sistema VHS a lo largo de los años. Cómo
por ejemplo mayor duración, mejora del sonido y mejora de calidad.
- 8 mm (Sony, Hitachi, Matsushita, JVC y Phillips 1982): Utiliza cintas de metal, por lo
que tiene una alta densidad de grabación y eliminó la pista de sincronismo. Su ancho
de banda es de 8 mm y el audio se graba en la pista de video modulado en FM.
Formatos profesionales: estos poseen mayor calidad de imagen y sonido. Tienen
características de edición y deben ser muy fiables y estar preparados para aguantar
condiciones de trabajo duras y continuadas. Estos formatos se subdividen en dos categorías:
- Industrial: engloba las aplicaciones del vídeo profesional como la educación,
reportajes sobre la industria, comerciales y promocionales para ferias y formatos de
previsualización de películas. Podemos encontrar:
U-Matic (Sony): cinta de ancho ¾ de pulgada guardada en cinta de casete. Usa
grabación helicoidal, y subportadora de color corregida. Hay banda de guarda entre las
distintas pistas de vídeo e incorpora dos pistas de audio longitudinales.
S-VHS: Cambio de las frecuencias de modulación para permitir un mayor ancho de
banda. Los componentes de Y y C se introducen en el magnetoscopio por canales diferentes.
Hi8: Tiene un tamaño menor de cinta y la incorporación del código de tiempo en una
zona de la pista de video.
- Broadcast: hace referencia a la difusión de programas por medio de las ondas
electromagnéticas. Son los equipos de mayor calidad y mayor precio. Pueden ser de
cinta abierta, los cuales graban señal de video compuesto, por lo que la C es modulada
en FM junto a la Y. A su vez estos se dividen en:
Formato B: es segmentado, cada campo se graba en varias pistas diferentes.
Formato C: no fragmenta la imagen por ello permite la parada del video y las
velocidades diferentes a la normal. Su volumen es muy grande y su duración máxima es hora
y media. Posee una gran calidad.
Por otra parte los broadcast pueden ser casete, los cuales graban la señal de video por
componente, poseen una alta calidad de grabación y las dimensiones de las cintas son
razonables. Estos pueden ser:
Betacam (Sony): la Y y la C (dividida en Cr y Cb) se graban en pistas separadas.
MII (JVC y Panasonic)
Normas digitales de video
Se llegó a un acuerdo obtenido por el CCIR en su Recomendación 6011 titulada
“Parámetros de codificación de televisión digital para estudios”. Esta norma estableció los
parámetros básicos del sistema de televisión digital que buscaban la mayor compatibilidad
mundial.
Se basa en una señal Y, Cr y Cb en el formato 4:2:2,
con una digitalización de 8 bits. Una frecuencia de
muestreo de 13.5 MHz (720) para la Y, para la C un
6.75 MHz (360). La estructura del muestreo es
ortogonal. La luminancia utiliza 220 niveles y la
crominancia 224 niveles.
Las normas 4:2:0 / 4:1:1 supone que las señales
diferencias de color Cr y Cb son “submuestreadas”,
es decir que se elimina parte de la información que contienen las mismas. En este caso la
señal de video solo necesitará
125 Mbit/s. En el caso de
4:2:0 la primera fila del
cuadro muestrea de la misma
manera que la norma 4:2:2,
pero en la segunda línea solo
existen muestras de la Y. La
norma 4:1:1 define que en la primera fila, por cada cuatro de Y hay una de las señales
diferencia de color. Ambas poseen una calidad equivalente, aunque no son compatibles entre
sí.
La comprensión de datos
El término compresión de datos se refiere al proceso de reducción del volumen de datos
necesarios para representar una determinada cantidad de información. Los datos son el medio
a través de los cuales se transporta la información. Se puede utilizar distintas cantidades de
datos para describir la misma cantidad de información, por lo que hay datos que proporcionan
información sin relevancia. En la comprensión digital de imágenes se puede aprovechar tres
tipos básicos de redundancias:
- Redundancia de codificación: se trata de asignar menos bits a los niveles de gris más
probables y más bits a los menos probables. A este proceso se lo denomina codificación de
longitud variable.
- Redundancia entre píxeles: la información que aporta individualmente un pixel es
muy pequeña, por lo que la mayor parte de la contribución visual de un píxel es redundante.
Existe en relación a los píxeles la redundancia espacial, geométrica e interna. Con el fin de
reducir las redundancias la distribución bidimensional de píxeles debe ser transformada a un
formato más eficaz.
- Redundancia psicovisual: Existe cierta información que tiene menor importancia
relativa y se la puede eliminar. Esto es posible cuando la propia información no es importante
para el procesamiento visual normal. Es una operación irreversible.
Existe la posibilidad de comprimir sin pérdidas, es decir que los datos pueden reconstruirse
exactamente igual que su forma original. Esta puede ser:
- Codificación de longitud variable: consiste en reducir únicamente la redundancia de
la codificación. La redundancia se puede eliminar construyendo un código de longitud
variable que asigne las palabras código más pequeñas a los niveles de gris más
probables. Las más comunes son la codificación Huffman y la aritmética.
Después está la comprensión de imágenes con pérdidas que involucran la eliminación de
datos de la imagen. Estas pueden ser:
- Codificación por truncamiento: funciona suprimiendo datos de la imagen que
emplean muestreo espacial y reducción en la resolución de brillo.
- Codificación por transformación: se eliminan los coeficientes de la imagen que tienen
valores muy pequeños. Además otros coeficientes pueden ser reducidos en su
resolución sin que se causen efectos notorios en su transformada inversa. Esta puede
ser transformada discreta del coseno.
Los métodos de compresión de video recurren a los procedimientos generales de
comprensión de datos, aprovechando la redundancia espacial de una imagen, la correlación de
puntos cercanos y la menor sensibilidad del ojo a los detalles finos de las imágenes fijas, y
para las imágenes animadas saca provecho a la redundancia temporal entre imágenes
sucesivas. Estas pueden ser:
- Codificación intra o espacial: explora la redundancia dentro de la imagen. Se puede
tomar como ventaja que los componentes espaciales disminuyen con la frecuencia. Se
puede utilizar la transformada discreta del coseno.
- Codificación inter o temporal: explora la redundancia entre imágenes. Aprovecha la
ventaja que existe cuando las imágenes sucesivas son similares. En lugar de enviar la
información de cada imagen por separado, el codificador inter envía la diferencia
existente entre la imagen previa (Imagen I) y la actual (Imagen P) en forma de
codificación diferencial, al grupo se lo llama imágenes GOP.
Las imágenes MPEG utilizan codificación bidireccional, la cual deja información para ser
tomada de imágenes anteriores y posteriores a la imagen observada. La comprensión de video
en el estándar MPEG además de aprovechar la redundancia espacial intrínseca de una imagen
fija, aprovecha la redundancia temporal que aparece en la codificación de imágenes
animadas.
La compresión MPEG-2 puede describirse como una caja de herramientas de comprensión
más compleja que la MPEG-1. Para un propósito práctico el estándar MPEG-2 es dividido en
perfiles (grado de complejidad esperada en la codificación) y cada perfil es subdividido en
niveles (tamaño de la imagen).
Conexiones digitales
La transferencia de imágenes o videos se realiza desde una cámara u otro dispositivo hacia
una computadora. Para ellos se utilizan buses creados originalmente para transmitir datos
entre periféricos. Estos tres estándares son: USB, Firewire y SDI, los dos primeros son de uso
doméstico y semiprofesional, el último para nivel profesional o broadcast. Para un trabajo de
postproducción de máxima calidad, necesitamos una interconexión digital entre dispositivos.
- USB: Usa arquitectura cliente/servidor, es decir que requiere una controladora de los
dispositivos que conecta. Son rápidos pero ningún software de edición acepta por el momento
captura vía USB. Tienen varios tipos de conectores. Fueron surgiendo varios tipos con
distintas mejoras. El último, USB 3.1 permite transferencias bilaterales y es mucho más
rápido.
- Firewire: Es un interfaz diseñado por la empresa Apple para conectar periféricos en un
ordenador y con la idea de sustituir al bus SCSI. Permite la transferencia de audio y video sin
pérdida de calidad.
- SDI: Es un interfaz estándar de vídeo para transferir el vídeo sin comprimir. Ofrece
una verdadera transmisión de video digital a un muestreo muy alto pero sus costos son muy
elevados. El SDTI es una variante de SDI para transferir video comprimido. Fueron diseñados
para operar a distancias cortas.
Conexiones hogareñas:
- DVI: interfaz de comunicación para transmitir, sin molestas conversiones, la señal de
video 100% digital desde la tarjeta gráfica del PC hasta el monitor. Con el uso de la
tecnología denominada TMDS, utiliza cuatro canales de datos para la transmisión de la señal
(3 para RGBS y uno para la señal de reloj de ciclos). Además maneja señales DCC que
establecen una comunicación entre la fuente y la pantalla de informaciones auxiliares de
video.
- HDMI: interfaz multimedia de alta definición. Gracias a él se puede transmitir vídeo y
audio sin compresión entre dispositivos.
Entendiendo el concepto básico de los archivos de video
El contenedor es cómo una repisa que puede tener muchas pistas de audio y video. Los
formatos más comunes son MOV, AVI y MXF.
- MOV (Apple): permite almacenar múltiples pistas de audio, video, gráficos, textos y
timecodes. Puede utilizar distintos tipos de esquemas de compresión y codecs. Es
utilizado para adquisición, edición y post y distribución.
- AVI: son los más comunes en la PC, pero no suele ser usado de manera profesional.
No soporta archivos de más de 4GB ni timecode.
- MXF: se utiliza para adquisición (Panasonic y Sony), edición y distribución (Tv y cine
digital).
- MP4: puede contener distintos códecs, aunque suele utilizarse para archivos h.264. Se
utiliza para adquisición, distribución y actualmente también para edición.
La manera en la que se presenta la información de cada posta de audio o video son
formatos o esquemas de compresión. Los formatos más comunes son h.264, Mpeg2, DNxHD,
Prores, etc.
- Descomprimido: no hay compresión. Se utiliza muy poco.
- DV: uno de los más antiguos. Estos esquemas se utilizaron en adquisición, edición y
post y distribución.
- HDCAM (Sony): es utilizado para adquisición, edición y post y distribución.
- MPEG 2 (1994): uno de los esquemas más utilizados actualmente. Se utiliza para la
adquisición, edición y distribución. Se utiliza para comprimir vídeo de transmisión
digital y DVDs. Tiene muy buena calidad de video y el método de compresión es
simple.
- MPEG 4 (1999): es más moderno que el MPEG 2 y el antecesor de h.264. Se utiliza
para adquisición, edición y distribución. Tiene 6 partes que le permiten realizar sus
funciones: visual, software, framework de integración de entrega multimedia, pruebas
de conformidad y audio. Puede codificar efectivamente desde velocidades muy bajas
hasta muy altas. Una amplia cobertura de tasa de bits, calidades y servicios,
aplicaciones y resoluciones.
- H.264 (2003): se usa en múltiples cámaras y en las tres categorías. Proporciona una
buena calidad de video en una tasa de bits inferior. Mayor flexibilidad.
- Apple ProRes: esquema diseñado para la edición y post. Está diseñado para mantener
un equilibrio entre el tamaño de los archivos, la calidad y el uso de recursos del
sistema. Pueden ser utilizados para la adquisición.
- Avid DnxHD: disponible para Mac y Windows. Es normal usarlo para la edición y
distribución pero también puede ser para la adquisición.
El codec puede ser hardware o software que permite interpretar o descifrar una señal de
audio o video y permite comprimir. Son los codificadores/decodificadores de un esquema de
compresión que puede tener variantes de calidad, resolución y rendimiento. Cada esquema de
compresión puede ser implementado de muchas formas, lo cual permite que existan distintos
tipos de códecs para un mismo esquema de compresión.
Un paquete de cine digital o DCP es el formato de entrega estándar para las proyecciones
de películas en un cine digital. Son archivos de audio (WAV), vídeo (JPEG-2000) y metadatos
(XML) configurados para servidores de cine. Estos se conectan a los proyectores digitales.
Cada fotograma es una carpeta diferente. Los DCP suelen estar encriptados por lo que es
necesario un Mensaje de entrega en claves (KDM) que especifican cuándo, dónde y cómo se
puede reproducir esa versión de la película. Estos se pueden entregar de manera terrestre o a
través de un satélite.
En 1986 Sony presenta el primer magnetoscopio capaz de grabar en formato digital. Este
formato recibió el nombre de D1, el cual es capaz de grabar según la norma 601, por
componentes y sin compresión. Luego sale el D2 que puede grabar más tiempo y baja
amplitud de crominancia. El D3 que graba aún más tiempo y mide ½ pulgada. El D5 puede
grabar en 10 bits y es de alta definición. El D6 es de cinta digital y de más calidad. El D7
graba sobre cinta de metal. El D16 es un formato para imágenes digitales de películas.
El DV es un formato estándar internacional. Usa una cinta de metal evaporado de ¼ de
pulgada para grabar video digital de una gran calidad. Usa lo que se llama Interframe
Compression, es decir que cada frame depende de si mismo. Es similar DVCAM y DVCPRO.
El DDR es un dispositivo muy pequeño que tiene un disco duro interno y nos permite
grabar directamente desde nuestra cámara a este aparato con una conexión FireWire.
El formato HDV está desplazando al DV para uso doméstico. Es un formato de video en
HD que pretende conseguir grabar, editar y distribuir nuestros trabajos en HD. Utiliza
MPEG-2 como formato de compresión.
La manera en la que la señal de video es registrada, comprimida y más tarde enviada a
nuestro sistema de edición, determina las posibilidades de las postproducción. Siempre se
debe tratar que los videos tengan la mejor calidad posible que nos pueda proporcionar la
fuente de la que provengan. Y debemos procurar que las imágenes no se degeneren en ningún
momento a lo largo de la cadena de procesos aplicados en postproducción. Es importante
entender que:
Tipos de señal de video (RGB, Componentes, S-Video, Compuesto)
Muestreo de color (4:4:4, 4:2:2, 4:2:0, 4:1:1): mientras más información tengamos más
facíl va a ser tratar los colores.
Profundidad de color o BitDepht (8 bits o 10 bits): a mayor profundidad mayor rango de
actuación sobre la imagen.
Formatos de vídeo y tipo de compresión: se debe mantener el codec correspondiente al
formato en el que se grabó.
Una explicación de Raw, Log y Video Descomprimido
Raw son los datos obtenidos directamente del sensor antes de realizar cualquier proceso en
la imagen. Los datos en Raw en la cámara representan el valor de cada fotosito. El Raw tiene
que ser convertido a vídeo para poder ser visto, esto se hace a través de un proceso llamado
De-Bayer. La toma en Raw permite una gran flexibilidad para hacer ajustes en post. No todas
las cámaras permiten grabar esos datos. Los datos en Raw son comprimidos de la misma
forma que el video tradicional se comprime y el proceso tiene algo de efecto en la calidad de
la imagen.
La grabación en Log es una grabación en vídeo en el sentido de que todos los píxeles
muestran la información del color y del brillo. Log es una manera especial de captura que
maximiza el rango tonal del sensor. Tiene factores como el balance de blanco o el ISO fijos.
Con las curvas de gamma logarítmicas se obtienen imágenes de mayor calidad. Se evita la
sobreexposición y la pérdida de detalles en las sombras. Las cámaras pueden utilizar tres tipos
de curvas de gamma:
- Gamma logarítmica: optimiza el rango dinámico. Imagen elevada que requererira un
proceso de correción de color.
- Gamma corregida: genera un contraste adecuado para la visualización final. Tiene
menor rango tonal pero el video sale más definido.
- Gamma lineal: recoge directamente la información que genera el sensor. Se utiliza en
los formatos Raw.
Edición y Postproducción en Video
Offline, en relación a la televisión, se refiere cuando se está produciendo algo en forma de
un “previo” para previsualizar su resultado. En relación a la edición, se utiliza este concepto
para hacer referencia a aquello que no está siendo editado para ser el resultado final sino
como un borrador. Para que sea offline debe haber una bajada de calidad de las tomas brutas,
a estos archivos se los llama Proxys. Esta edición se realiza en islas de menor costo.
En televisión, el concepto de Online se refiere a cuando una toma, un plano o un programa
está lista para ser enviada al aire. En relación a la edición, es aquello que está siendo editado
para ser el producto definitivo. Se realiza con las tomas brutas en base a la edición offline y
EDL.
El código de tiempo (timecode) es la identificación de cada cuadro de video grabado en un
soporte, un sistema de direccionamiento absoluto. Sirve para nombrarlo, ubicarlo y
seleccionarlo unívocamente. Existen dos tipos de código de tiempo: el grabado en la señal de
video y el de referencia. Este último se denomina CTL y es solo una medida calculada por el
paso de la cinta en los rodillos y es el que usualmente se puede ver en las caseteras hogareñas.
El código de tiempo que se graba junto con la señal de video al momento de registrar la toma,
permanece inalterable mientras la señal de vídeo permanezca en el casete.
El formato más común es el de la SMPTE: HH:MM:SS:CC. Existen dos métodos para
grabar el timecode. El LTC (Código de tiempo lineal) que se graba en la pista de audio 2 o en
la pista de datos, tiene algunos problemas en su utilización. El otro es el VITC (Código de
tiempo del intervalo vertical), este se graba en el intervalo vertical entre campos que se graba
la señal de video en cada cuadro. Está grabado en la misma pista de imagen.
Estos datos son importantes a la hora de crear la Lista de Decisiones de Edición (EDL) en
la cual se define cada
punto de corte a través de
un timecode, señalando el
cuadro de entrada y salida
de una toma. En la EDL
también se anota qué pista
está siendo copiada y si hay algún efecto de transición.
Isla de edición lineales: equipamiento de carácter analógico que sirve para editar video. La
edición se realiza por copiado, a través de cables, de la señal analógica de vídeo de un casete
(reproductora) a otro (grabadora). Esta señal puede ser video compuesto, separado o por
componentes.
Para mejorar la precisión del punto de corte se desarrolló un aparato llamado control de
edición. Su función es sincronizar ambas caseteras para que el punto de corte sea preciso. A
esta configuración también se le agregó un mezclador de video, su finalidad es ejecutar
alguna clase de efecto con la imagen antes de ser grabada. La señal de la reproductora pasa a
través del mezclador dónde es procesada y luego llega a la grabadora. Este mezclador, con el
tiempo, se hizo digital, permitiendo muchos más efectos, y era necesario pasar la señal a
analógica a digital y luego a analógica de nuevo para poder utilizarlo.
- Islas A Roll: esta isla poseía una sola reproductora, grabadora, control de edición,
mezclador de video digital (con congelado) y un titulador (optativo). Consiste en
congelar el último cuadro del primer segmento de video para usarlo como base para
fundirlo con el segundo segmento del video.
- Islas AB Roll: cuenta con 2 reproductoras, una grabadora, control de edición para 3
caseteras, mezclador de video analógico o digital y titulador (optativo). Consiste en
fundir el final del primer fragmento de video de la reproductora A con el principio del
segundo segmento de video de la reproductora B.
- Islas programables: es la última evolución. Son capaces de programar la edición en el
controlador y dejar que la isla realice las operaciones programadas por su cuenta, sin
intervención del operador. Cada uno de los pasos de la edición se llama evento y se
programa con los timecode de ambas reproductoras y grabadora.
Islas de edición no lineales: es un grupo de componentes electrónicos (hardware) y un
grupo de programas (software) trabajando bajo las órdenes de un operador. La edición no se
realiza por copiado de señal de video, sino que la señal analógica se convierte en señal digital
y luego nuevamente a analógica.
El hardware necesario contiene una CPU, monitor, teclado y mouse. El CPU debe contar
con la placa madre, la placa de audio, la placa de video y el disco rígido. Si utiliza formatos
analógicos es necesario que cuente con una placa capturadora de video capaz de realizar la
conversión. Con respecto al software debe contar con un sistema operativo y un programa
para editar videos. Siempre la información de las tomas de vídeo permanece inalterada en el
disco rígido.
Islas digitales hogareñas: debe contar con:
- Placa madre: sistema nervioso central de la computadora. Aquí se encuentra el
microprocesador y la memoria temporal (RAM).
- Microprocesador: es el cerebro de la computadora y se dedica al procesamiento de la
información. Es importante a la hora de aplicar efectos a la imagen o sonido.
- RAM: memoria temporal de la máquina, se usa al momento de realizar la operación
pero es automáticamente borrada en cuanto ya no es necesaria. Es importante que la
máquina esté equipada con RAM en DUAL CHANEL.
- Placa controladora del monitor: controla el funcionamiento del monitor y permite la
representación adecuada de los gráficos en este dispositivo.
- Placa de sonido
- Placa digitalizadora o capturadora de video: es la encargada de convertir la señal
analógica de vídeo en señal digital y comprimirla según el codec.
La mayor diferencia entre una isla profesional y una hogareña son los formatos capaces de
soportar sin pérdida de calidad.
Tanto el MPEG2 como el MPGE4 utiliza compresión intercuadro, por lo que los cuadros
no están completamente grabados sino que con referencia a los keyframe. Cuando queremos
realizar cortes de nuestra grabación probablemente generemos que el primer cuadro del nuevo
clip pase de ser un cuadro B a ser un keyframe. Para evitar ese proceso se desarrolló el codec
intermedio. Este solo trabaja con compresión intracuadro y tiene la finalidad de funcionar
como proxy, de esta forma toda la edición se produce con estas tomas proxy sin necesidad de
reconvertir GOPs. Cuando finalizamos la edición el software reemplaza las proxy por las
originales.
Algunos sistemas de edición digital permiten leer y capturar el timecode de la casetera de
dónde está capturando las tomas. Estos puntos se guardan en una lista con el nombre de la
toma y en que casetera está. A este procedimiento se lo denomina Logging. Una vez
terminada la lista podemos pedirle al sistema que capture las tomas seleccionadas, a este
procedimiento se lo denomina Captura por Lotes.

También podría gustarte