Descargue como PDF, TXT o lea en línea desde Scribd
Descargar como pdf o txt
Está en la página 1de 14
Técnicas de registro y Posproducción
Aspectos fisiológicos de la visión humana
La función visual discrimina las formas y colores, enfoca a distintas distancias y se adapta a diferentes grados de iluminación. Las formas se aprecian por diferencia de iluminación, esta variedad de estímulos impresiona a los fotorreceptores (conos y bastones) en forma desigual lo que nos permite captar las diferencias. Nuestros ojos son una extensión del cerebro y son digitales ya que los neurotransmisores usan un código binario. La visión más discriminatoria es la central y depende de los fotorreceptores llamados conos, responsables de la visión de los colores, los cuales necesitan mucha luz para ser estimulados. Hay tres variedad de conos, cada uno distingue una banda de color en especifico. En la zona macular se observan los colores más brillantes, dentro de una gama rojo-amarillo, y en la retina periferica se perciben los azules. Los bastones son superiores en cuanto a cantidad pero no nos dan información de colores ni tampoco una definición buena, estos son mucho más sensibles, se encargan de la visión nocturna y sirven para dar una visión más general. Principales factores de calidad en video Resolución o definición: mide el nivel de detalle que se puede alcanzar en la composición de la imagen. Antes se medía en líneas horizontales, actualmente en pixeles. En el desarrollo de la televisión en color se tuvo en cuenta la relación de aspecto, la distancia de visión, la agudeza del ojo y la sensibilidad del ojo al color. En televisión existen dos resoluciones: vertical (número de líneas activas) y horizontal (número de píxeles por línea). La resolución espacial queda definida por el producto de las líneas activas por cuadro y por los píxeles activos por línea. La resolución temporal es la capacidad de resolver imágenes en movimiento dando una sensación de un movimiento continuo. La resolución dinámica es la capacidad de resolver los detalles espaciales de un objeto en movimiento. En la exploración entrelazada podemos notar un parpadeo entre líneas, es más difícil de procesar, es un diseño económico y no es adecuada para visualizadores de nuevo diseño. La exploración progresiva tiene una compresión más eficiente, facilidades de conversión bidireccional, reduce el ruido y es compatible con las nuevas generaciones de visualizadores. Contraste: Se tiene que tener en cuenta la capacidad del ojo de discriminar entre diferentes niveles de iluminación. La respuesta de la intensidad real del ojo es logarítmica por lo que podemos apreciar más los cambios de iluminación en las regiones oscuras antes que en las brillantes, esto lo explica la Ley de Weber. Entre más contraste, más fino es el detalle que el ojo puede resolver. El sistema visual ajusta su respuesta a la intensidad basado en la intensidad promedio alrededor de la vista resaltada. El ojo tiene factores limitantes, como el número y organización de los fotorreceptores en la retina, la calidad de la parte óptica del ojo y la transmisión y procesamiento de la información visual al cerebro. Resolución de color: El ojo no es uniformemente sensible a todo el espectro visible. Lo que más puede observar en el día son los colores verde-amarillo, en la oscuridad, azul y verde. Para que se pueda ver el color, el cual procede de la luz incidente, tiene que llegar al ojo la energía electromagnética.
Resolución de movimiento y parpadeo: tiene relación con la persistencia retiniana, por lo
que lo que vemos en realidad son 24 fotogramas por segundo, lo cuál es un formato progresivo. En Europa se utiliza el formato PAL y en América y Japón NTSC. El primero usa 25 f/s y cuenta con 625 líneas horizontales; el segundo usa 29,97 f/s y tiene 525 líneas horizontales. Relación de aspecto La relación de aspecto es la relación entre el ancho y el alto de una imagen. Lo vemos expresado por números (X e Y) que son separados por :. Hay tres tipos de relación de aspecto principales: - De píxeles (PAR): hace referencia a la proporción de píxeles individuales que forman una imagen. - De pantalla (DAR): nos referimos a la proporción de la imagen que tiene en la pantalla. En el principio la más conocida y la global en el cine era 4:3. Después se creó la proporción 2:35:1 que es la que se usa actualmente. Y por último surgió la 16:9 que es la estándar para un video. - De almacenamiento (SAR): se refiere a los archivos del video digital codificados. Se toma como referencia la relación del ancho y el alto del frame del video. Señales y conexiones de vídeo analógicas Cuando se quiso agregar color a las imágenes en televisión se tuvo que encontrar una manera en la que la información viaje sin que sea necesario modificar brutalmente el televisor. Así se crearon los sistemas de codificación de color de imagenes de televisión, se refiere a la manera en que se agrega la información de color a la imagen. Para conseguir agregar la información de crominancia a la luminancia fue necesario mantener la compatibilidad y la retrocompatibilidad. La primera es la propiedad de un sistema de televisión color que permite la reproducción de las emisiones a color en los receptores monocromáticos ya existentes. Y la retrocompatibilidad es la propiedad de un sistema de televisión en colores que permite a los receptores de televisión en colores, reproducir en blanco y negro. La cámara de color es igual a la monocromática pero deberá tener algún agregado (esojeos dicroicos) que le permita discriminar entre los 3 colores primarios, separarlos y obtener sendas señales de R, G y B. La relación entre Y y los 3 colores es establecida por la ecuación fundamental de la luminancia: Y = 0,30 R + 0,59 G + 0,11 B. Una señal de video está inicialmente formada por 5 componentes básicos (RGBHV) : Rojo ®, Verde (G), Azul (B), sincronismo Horizontal (H) y sincronismo Vertical (V). A medida que vamos juntando la señal de cada uno de estos componentes con la señal de otro habrá una pérdida de calidad de emisión y recepción. Por lo que mientras menos conversiones, modificaciones o alteraciones sufre la señal mejor calidad obtendremos al final. La señal RGBS o RGB está formada por la separación de sus tres componentes básicos de color. Y por otra parte tenemos la correspondiente señal de sincronismo compuesta (S) que está formada por los dos pulsos H y V. La mejor forma de conexión son los cuatro conectores de tipo BNC pero se suele utilizar EUROCONECTOR o SCART. En la señal de vídeo por componentes o Y-Cr-Cb tenemos la Luminancia (Y) con la información del brillo, la señal compuesta por sincronismo (S) y la información del verde. Y por otra parte tenemos al resto de los colores cómo Cr y Cb, que sería la diferencia de estos colores con respecto a la Y. La mejor forma de conexión es mediante tres conectores BNC o RCA. Resumiendo más la información tenemos la señal S-Video o Y/C. En esta tenemos por separado la luminancia que contiene el brillo y la señal compuesta de sincronismo (S) y por otra parte la señal compuesta de crominancia que contiene toda la información de color del tipo matricial. La forma de conexión puede ser mediante dos conectores BNC, euroconector o scart, o mediante uno tipo miniDin de cuatro patillas. También existe el video compuesto que reúne toda la información que se necesita para formar una imagen modulada en una única señal. La forma básica de conexión es a través de un conector BNC, un euroconector o scart, o un conector tipo RCA. En cuanto a las señales de audio, estas deben de emitirse de forma independiente al sistema de video y tratarse de forma separada. Existe un único tipo de señal que junta la señal de video y la de audio en una misma, denominada RF y es la peor calidad que podríamos tener. Formatos de grabación analógicos Existieron diferentes formatos de vídeo los cuales eran clasificados principalmente en domésticos y profesionales. Los domésticos podían ser: - Betamax (Sony 1975): Posee dos cabezales con los que graba cada campo. Cada giro del tambor corresponde a un cuadro. - VHS Estándar universal (JVC 1976): Posee cinta de ½ pulgada, dos cabezales de grabación, eliminación de la banda de guarda y giro acimut para los cabezales. Existieron varias mejoras introducidas en el sistema VHS a lo largo de los años. Cómo por ejemplo mayor duración, mejora del sonido y mejora de calidad. - 8 mm (Sony, Hitachi, Matsushita, JVC y Phillips 1982): Utiliza cintas de metal, por lo que tiene una alta densidad de grabación y eliminó la pista de sincronismo. Su ancho de banda es de 8 mm y el audio se graba en la pista de video modulado en FM. Formatos profesionales: estos poseen mayor calidad de imagen y sonido. Tienen características de edición y deben ser muy fiables y estar preparados para aguantar condiciones de trabajo duras y continuadas. Estos formatos se subdividen en dos categorías: - Industrial: engloba las aplicaciones del vídeo profesional como la educación, reportajes sobre la industria, comerciales y promocionales para ferias y formatos de previsualización de películas. Podemos encontrar: U-Matic (Sony): cinta de ancho ¾ de pulgada guardada en cinta de casete. Usa grabación helicoidal, y subportadora de color corregida. Hay banda de guarda entre las distintas pistas de vídeo e incorpora dos pistas de audio longitudinales. S-VHS: Cambio de las frecuencias de modulación para permitir un mayor ancho de banda. Los componentes de Y y C se introducen en el magnetoscopio por canales diferentes. Hi8: Tiene un tamaño menor de cinta y la incorporación del código de tiempo en una zona de la pista de video. - Broadcast: hace referencia a la difusión de programas por medio de las ondas electromagnéticas. Son los equipos de mayor calidad y mayor precio. Pueden ser de cinta abierta, los cuales graban señal de video compuesto, por lo que la C es modulada en FM junto a la Y. A su vez estos se dividen en: Formato B: es segmentado, cada campo se graba en varias pistas diferentes. Formato C: no fragmenta la imagen por ello permite la parada del video y las velocidades diferentes a la normal. Su volumen es muy grande y su duración máxima es hora y media. Posee una gran calidad. Por otra parte los broadcast pueden ser casete, los cuales graban la señal de video por componente, poseen una alta calidad de grabación y las dimensiones de las cintas son razonables. Estos pueden ser: Betacam (Sony): la Y y la C (dividida en Cr y Cb) se graban en pistas separadas. MII (JVC y Panasonic) Normas digitales de video Se llegó a un acuerdo obtenido por el CCIR en su Recomendación 6011 titulada “Parámetros de codificación de televisión digital para estudios”. Esta norma estableció los parámetros básicos del sistema de televisión digital que buscaban la mayor compatibilidad mundial. Se basa en una señal Y, Cr y Cb en el formato 4:2:2, con una digitalización de 8 bits. Una frecuencia de muestreo de 13.5 MHz (720) para la Y, para la C un 6.75 MHz (360). La estructura del muestreo es ortogonal. La luminancia utiliza 220 niveles y la crominancia 224 niveles. Las normas 4:2:0 / 4:1:1 supone que las señales diferencias de color Cr y Cb son “submuestreadas”, es decir que se elimina parte de la información que contienen las mismas. En este caso la señal de video solo necesitará 125 Mbit/s. En el caso de 4:2:0 la primera fila del cuadro muestrea de la misma manera que la norma 4:2:2, pero en la segunda línea solo existen muestras de la Y. La norma 4:1:1 define que en la primera fila, por cada cuatro de Y hay una de las señales diferencia de color. Ambas poseen una calidad equivalente, aunque no son compatibles entre sí. La comprensión de datos El término compresión de datos se refiere al proceso de reducción del volumen de datos necesarios para representar una determinada cantidad de información. Los datos son el medio a través de los cuales se transporta la información. Se puede utilizar distintas cantidades de datos para describir la misma cantidad de información, por lo que hay datos que proporcionan información sin relevancia. En la comprensión digital de imágenes se puede aprovechar tres tipos básicos de redundancias: - Redundancia de codificación: se trata de asignar menos bits a los niveles de gris más probables y más bits a los menos probables. A este proceso se lo denomina codificación de longitud variable. - Redundancia entre píxeles: la información que aporta individualmente un pixel es muy pequeña, por lo que la mayor parte de la contribución visual de un píxel es redundante. Existe en relación a los píxeles la redundancia espacial, geométrica e interna. Con el fin de reducir las redundancias la distribución bidimensional de píxeles debe ser transformada a un formato más eficaz. - Redundancia psicovisual: Existe cierta información que tiene menor importancia relativa y se la puede eliminar. Esto es posible cuando la propia información no es importante para el procesamiento visual normal. Es una operación irreversible. Existe la posibilidad de comprimir sin pérdidas, es decir que los datos pueden reconstruirse exactamente igual que su forma original. Esta puede ser: - Codificación de longitud variable: consiste en reducir únicamente la redundancia de la codificación. La redundancia se puede eliminar construyendo un código de longitud variable que asigne las palabras código más pequeñas a los niveles de gris más probables. Las más comunes son la codificación Huffman y la aritmética. Después está la comprensión de imágenes con pérdidas que involucran la eliminación de datos de la imagen. Estas pueden ser: - Codificación por truncamiento: funciona suprimiendo datos de la imagen que emplean muestreo espacial y reducción en la resolución de brillo. - Codificación por transformación: se eliminan los coeficientes de la imagen que tienen valores muy pequeños. Además otros coeficientes pueden ser reducidos en su resolución sin que se causen efectos notorios en su transformada inversa. Esta puede ser transformada discreta del coseno. Los métodos de compresión de video recurren a los procedimientos generales de comprensión de datos, aprovechando la redundancia espacial de una imagen, la correlación de puntos cercanos y la menor sensibilidad del ojo a los detalles finos de las imágenes fijas, y para las imágenes animadas saca provecho a la redundancia temporal entre imágenes sucesivas. Estas pueden ser: - Codificación intra o espacial: explora la redundancia dentro de la imagen. Se puede tomar como ventaja que los componentes espaciales disminuyen con la frecuencia. Se puede utilizar la transformada discreta del coseno. - Codificación inter o temporal: explora la redundancia entre imágenes. Aprovecha la ventaja que existe cuando las imágenes sucesivas son similares. En lugar de enviar la información de cada imagen por separado, el codificador inter envía la diferencia existente entre la imagen previa (Imagen I) y la actual (Imagen P) en forma de codificación diferencial, al grupo se lo llama imágenes GOP. Las imágenes MPEG utilizan codificación bidireccional, la cual deja información para ser tomada de imágenes anteriores y posteriores a la imagen observada. La comprensión de video en el estándar MPEG además de aprovechar la redundancia espacial intrínseca de una imagen fija, aprovecha la redundancia temporal que aparece en la codificación de imágenes animadas. La compresión MPEG-2 puede describirse como una caja de herramientas de comprensión más compleja que la MPEG-1. Para un propósito práctico el estándar MPEG-2 es dividido en perfiles (grado de complejidad esperada en la codificación) y cada perfil es subdividido en niveles (tamaño de la imagen). Conexiones digitales La transferencia de imágenes o videos se realiza desde una cámara u otro dispositivo hacia una computadora. Para ellos se utilizan buses creados originalmente para transmitir datos entre periféricos. Estos tres estándares son: USB, Firewire y SDI, los dos primeros son de uso doméstico y semiprofesional, el último para nivel profesional o broadcast. Para un trabajo de postproducción de máxima calidad, necesitamos una interconexión digital entre dispositivos. - USB: Usa arquitectura cliente/servidor, es decir que requiere una controladora de los dispositivos que conecta. Son rápidos pero ningún software de edición acepta por el momento captura vía USB. Tienen varios tipos de conectores. Fueron surgiendo varios tipos con distintas mejoras. El último, USB 3.1 permite transferencias bilaterales y es mucho más rápido. - Firewire: Es un interfaz diseñado por la empresa Apple para conectar periféricos en un ordenador y con la idea de sustituir al bus SCSI. Permite la transferencia de audio y video sin pérdida de calidad. - SDI: Es un interfaz estándar de vídeo para transferir el vídeo sin comprimir. Ofrece una verdadera transmisión de video digital a un muestreo muy alto pero sus costos son muy elevados. El SDTI es una variante de SDI para transferir video comprimido. Fueron diseñados para operar a distancias cortas. Conexiones hogareñas: - DVI: interfaz de comunicación para transmitir, sin molestas conversiones, la señal de video 100% digital desde la tarjeta gráfica del PC hasta el monitor. Con el uso de la tecnología denominada TMDS, utiliza cuatro canales de datos para la transmisión de la señal (3 para RGBS y uno para la señal de reloj de ciclos). Además maneja señales DCC que establecen una comunicación entre la fuente y la pantalla de informaciones auxiliares de video. - HDMI: interfaz multimedia de alta definición. Gracias a él se puede transmitir vídeo y audio sin compresión entre dispositivos. Entendiendo el concepto básico de los archivos de video El contenedor es cómo una repisa que puede tener muchas pistas de audio y video. Los formatos más comunes son MOV, AVI y MXF. - MOV (Apple): permite almacenar múltiples pistas de audio, video, gráficos, textos y timecodes. Puede utilizar distintos tipos de esquemas de compresión y codecs. Es utilizado para adquisición, edición y post y distribución. - AVI: son los más comunes en la PC, pero no suele ser usado de manera profesional. No soporta archivos de más de 4GB ni timecode. - MXF: se utiliza para adquisición (Panasonic y Sony), edición y distribución (Tv y cine digital). - MP4: puede contener distintos códecs, aunque suele utilizarse para archivos h.264. Se utiliza para adquisición, distribución y actualmente también para edición. La manera en la que se presenta la información de cada posta de audio o video son formatos o esquemas de compresión. Los formatos más comunes son h.264, Mpeg2, DNxHD, Prores, etc. - Descomprimido: no hay compresión. Se utiliza muy poco. - DV: uno de los más antiguos. Estos esquemas se utilizaron en adquisición, edición y post y distribución. - HDCAM (Sony): es utilizado para adquisición, edición y post y distribución. - MPEG 2 (1994): uno de los esquemas más utilizados actualmente. Se utiliza para la adquisición, edición y distribución. Se utiliza para comprimir vídeo de transmisión digital y DVDs. Tiene muy buena calidad de video y el método de compresión es simple. - MPEG 4 (1999): es más moderno que el MPEG 2 y el antecesor de h.264. Se utiliza para adquisición, edición y distribución. Tiene 6 partes que le permiten realizar sus funciones: visual, software, framework de integración de entrega multimedia, pruebas de conformidad y audio. Puede codificar efectivamente desde velocidades muy bajas hasta muy altas. Una amplia cobertura de tasa de bits, calidades y servicios, aplicaciones y resoluciones. - H.264 (2003): se usa en múltiples cámaras y en las tres categorías. Proporciona una buena calidad de video en una tasa de bits inferior. Mayor flexibilidad. - Apple ProRes: esquema diseñado para la edición y post. Está diseñado para mantener un equilibrio entre el tamaño de los archivos, la calidad y el uso de recursos del sistema. Pueden ser utilizados para la adquisición. - Avid DnxHD: disponible para Mac y Windows. Es normal usarlo para la edición y distribución pero también puede ser para la adquisición. El codec puede ser hardware o software que permite interpretar o descifrar una señal de audio o video y permite comprimir. Son los codificadores/decodificadores de un esquema de compresión que puede tener variantes de calidad, resolución y rendimiento. Cada esquema de compresión puede ser implementado de muchas formas, lo cual permite que existan distintos tipos de códecs para un mismo esquema de compresión. Un paquete de cine digital o DCP es el formato de entrega estándar para las proyecciones de películas en un cine digital. Son archivos de audio (WAV), vídeo (JPEG-2000) y metadatos (XML) configurados para servidores de cine. Estos se conectan a los proyectores digitales. Cada fotograma es una carpeta diferente. Los DCP suelen estar encriptados por lo que es necesario un Mensaje de entrega en claves (KDM) que especifican cuándo, dónde y cómo se puede reproducir esa versión de la película. Estos se pueden entregar de manera terrestre o a través de un satélite. En 1986 Sony presenta el primer magnetoscopio capaz de grabar en formato digital. Este formato recibió el nombre de D1, el cual es capaz de grabar según la norma 601, por componentes y sin compresión. Luego sale el D2 que puede grabar más tiempo y baja amplitud de crominancia. El D3 que graba aún más tiempo y mide ½ pulgada. El D5 puede grabar en 10 bits y es de alta definición. El D6 es de cinta digital y de más calidad. El D7 graba sobre cinta de metal. El D16 es un formato para imágenes digitales de películas. El DV es un formato estándar internacional. Usa una cinta de metal evaporado de ¼ de pulgada para grabar video digital de una gran calidad. Usa lo que se llama Interframe Compression, es decir que cada frame depende de si mismo. Es similar DVCAM y DVCPRO. El DDR es un dispositivo muy pequeño que tiene un disco duro interno y nos permite grabar directamente desde nuestra cámara a este aparato con una conexión FireWire. El formato HDV está desplazando al DV para uso doméstico. Es un formato de video en HD que pretende conseguir grabar, editar y distribuir nuestros trabajos en HD. Utiliza MPEG-2 como formato de compresión. La manera en la que la señal de video es registrada, comprimida y más tarde enviada a nuestro sistema de edición, determina las posibilidades de las postproducción. Siempre se debe tratar que los videos tengan la mejor calidad posible que nos pueda proporcionar la fuente de la que provengan. Y debemos procurar que las imágenes no se degeneren en ningún momento a lo largo de la cadena de procesos aplicados en postproducción. Es importante entender que: Tipos de señal de video (RGB, Componentes, S-Video, Compuesto) Muestreo de color (4:4:4, 4:2:2, 4:2:0, 4:1:1): mientras más información tengamos más facíl va a ser tratar los colores. Profundidad de color o BitDepht (8 bits o 10 bits): a mayor profundidad mayor rango de actuación sobre la imagen. Formatos de vídeo y tipo de compresión: se debe mantener el codec correspondiente al formato en el que se grabó. Una explicación de Raw, Log y Video Descomprimido Raw son los datos obtenidos directamente del sensor antes de realizar cualquier proceso en la imagen. Los datos en Raw en la cámara representan el valor de cada fotosito. El Raw tiene que ser convertido a vídeo para poder ser visto, esto se hace a través de un proceso llamado De-Bayer. La toma en Raw permite una gran flexibilidad para hacer ajustes en post. No todas las cámaras permiten grabar esos datos. Los datos en Raw son comprimidos de la misma forma que el video tradicional se comprime y el proceso tiene algo de efecto en la calidad de la imagen. La grabación en Log es una grabación en vídeo en el sentido de que todos los píxeles muestran la información del color y del brillo. Log es una manera especial de captura que maximiza el rango tonal del sensor. Tiene factores como el balance de blanco o el ISO fijos. Con las curvas de gamma logarítmicas se obtienen imágenes de mayor calidad. Se evita la sobreexposición y la pérdida de detalles en las sombras. Las cámaras pueden utilizar tres tipos de curvas de gamma: - Gamma logarítmica: optimiza el rango dinámico. Imagen elevada que requererira un proceso de correción de color. - Gamma corregida: genera un contraste adecuado para la visualización final. Tiene menor rango tonal pero el video sale más definido. - Gamma lineal: recoge directamente la información que genera el sensor. Se utiliza en los formatos Raw. Edición y Postproducción en Video Offline, en relación a la televisión, se refiere cuando se está produciendo algo en forma de un “previo” para previsualizar su resultado. En relación a la edición, se utiliza este concepto para hacer referencia a aquello que no está siendo editado para ser el resultado final sino como un borrador. Para que sea offline debe haber una bajada de calidad de las tomas brutas, a estos archivos se los llama Proxys. Esta edición se realiza en islas de menor costo. En televisión, el concepto de Online se refiere a cuando una toma, un plano o un programa está lista para ser enviada al aire. En relación a la edición, es aquello que está siendo editado para ser el producto definitivo. Se realiza con las tomas brutas en base a la edición offline y EDL. El código de tiempo (timecode) es la identificación de cada cuadro de video grabado en un soporte, un sistema de direccionamiento absoluto. Sirve para nombrarlo, ubicarlo y seleccionarlo unívocamente. Existen dos tipos de código de tiempo: el grabado en la señal de video y el de referencia. Este último se denomina CTL y es solo una medida calculada por el paso de la cinta en los rodillos y es el que usualmente se puede ver en las caseteras hogareñas. El código de tiempo que se graba junto con la señal de video al momento de registrar la toma, permanece inalterable mientras la señal de vídeo permanezca en el casete. El formato más común es el de la SMPTE: HH:MM:SS:CC. Existen dos métodos para grabar el timecode. El LTC (Código de tiempo lineal) que se graba en la pista de audio 2 o en la pista de datos, tiene algunos problemas en su utilización. El otro es el VITC (Código de tiempo del intervalo vertical), este se graba en el intervalo vertical entre campos que se graba la señal de video en cada cuadro. Está grabado en la misma pista de imagen. Estos datos son importantes a la hora de crear la Lista de Decisiones de Edición (EDL) en la cual se define cada punto de corte a través de un timecode, señalando el cuadro de entrada y salida de una toma. En la EDL también se anota qué pista está siendo copiada y si hay algún efecto de transición. Isla de edición lineales: equipamiento de carácter analógico que sirve para editar video. La edición se realiza por copiado, a través de cables, de la señal analógica de vídeo de un casete (reproductora) a otro (grabadora). Esta señal puede ser video compuesto, separado o por componentes. Para mejorar la precisión del punto de corte se desarrolló un aparato llamado control de edición. Su función es sincronizar ambas caseteras para que el punto de corte sea preciso. A esta configuración también se le agregó un mezclador de video, su finalidad es ejecutar alguna clase de efecto con la imagen antes de ser grabada. La señal de la reproductora pasa a través del mezclador dónde es procesada y luego llega a la grabadora. Este mezclador, con el tiempo, se hizo digital, permitiendo muchos más efectos, y era necesario pasar la señal a analógica a digital y luego a analógica de nuevo para poder utilizarlo. - Islas A Roll: esta isla poseía una sola reproductora, grabadora, control de edición, mezclador de video digital (con congelado) y un titulador (optativo). Consiste en congelar el último cuadro del primer segmento de video para usarlo como base para fundirlo con el segundo segmento del video. - Islas AB Roll: cuenta con 2 reproductoras, una grabadora, control de edición para 3 caseteras, mezclador de video analógico o digital y titulador (optativo). Consiste en fundir el final del primer fragmento de video de la reproductora A con el principio del segundo segmento de video de la reproductora B. - Islas programables: es la última evolución. Son capaces de programar la edición en el controlador y dejar que la isla realice las operaciones programadas por su cuenta, sin intervención del operador. Cada uno de los pasos de la edición se llama evento y se programa con los timecode de ambas reproductoras y grabadora. Islas de edición no lineales: es un grupo de componentes electrónicos (hardware) y un grupo de programas (software) trabajando bajo las órdenes de un operador. La edición no se realiza por copiado de señal de video, sino que la señal analógica se convierte en señal digital y luego nuevamente a analógica. El hardware necesario contiene una CPU, monitor, teclado y mouse. El CPU debe contar con la placa madre, la placa de audio, la placa de video y el disco rígido. Si utiliza formatos analógicos es necesario que cuente con una placa capturadora de video capaz de realizar la conversión. Con respecto al software debe contar con un sistema operativo y un programa para editar videos. Siempre la información de las tomas de vídeo permanece inalterada en el disco rígido. Islas digitales hogareñas: debe contar con: - Placa madre: sistema nervioso central de la computadora. Aquí se encuentra el microprocesador y la memoria temporal (RAM). - Microprocesador: es el cerebro de la computadora y se dedica al procesamiento de la información. Es importante a la hora de aplicar efectos a la imagen o sonido. - RAM: memoria temporal de la máquina, se usa al momento de realizar la operación pero es automáticamente borrada en cuanto ya no es necesaria. Es importante que la máquina esté equipada con RAM en DUAL CHANEL. - Placa controladora del monitor: controla el funcionamiento del monitor y permite la representación adecuada de los gráficos en este dispositivo. - Placa de sonido - Placa digitalizadora o capturadora de video: es la encargada de convertir la señal analógica de vídeo en señal digital y comprimirla según el codec. La mayor diferencia entre una isla profesional y una hogareña son los formatos capaces de soportar sin pérdida de calidad. Tanto el MPEG2 como el MPGE4 utiliza compresión intercuadro, por lo que los cuadros no están completamente grabados sino que con referencia a los keyframe. Cuando queremos realizar cortes de nuestra grabación probablemente generemos que el primer cuadro del nuevo clip pase de ser un cuadro B a ser un keyframe. Para evitar ese proceso se desarrolló el codec intermedio. Este solo trabaja con compresión intracuadro y tiene la finalidad de funcionar como proxy, de esta forma toda la edición se produce con estas tomas proxy sin necesidad de reconvertir GOPs. Cuando finalizamos la edición el software reemplaza las proxy por las originales. Algunos sistemas de edición digital permiten leer y capturar el timecode de la casetera de dónde está capturando las tomas. Estos puntos se guardan en una lista con el nombre de la toma y en que casetera está. A este procedimiento se lo denomina Logging. Una vez terminada la lista podemos pedirle al sistema que capture las tomas seleccionadas, a este procedimiento se lo denomina Captura por Lotes.