Unidad 4 Text Aplicacion Web PDF

Descargar como pdf o txt
Descargar como pdf o txt
Está en la página 1de 223

Introduccion

Internet ha cambiado mucho desde sus inicios, en los que tan solo podías encontrar textos y
enlaces, nada más. A día de hoy eso parece impensable, ni siquiera el sitio web más minimalista y
eso que están de moda, tiene tan solo textos y enlaces.
Los sitios web están repletos de contenidos multimedia de muy diversos tipos, música de fondo,
múltiples imágenes, vídeos, etc. Incluso hay muchos sitios web que tienen un vídeo como fondo,
algo que está en auge; desde luego con una compresión muy alta para que se puedan cargar con
rapidez.
Debes tener en cuenta que para desarrollar páginas web, además de conocer las plataformas
disponibles y de seleccionar el lenguaje con el que lo harás, es importante que conozcas a fondo
los diversos elementos multimedia para dar un contenido diferenciador a las páginas web que
desarrolles.
Conocer aspectos sobre las imágenes, sus formatos, cómo hacer que sean menos pesadas para
una carga más rápida, serán detalles necesarios para un buen diseñador web.
El audio también toma un lugar importante y es necesario aprender sus formatos y el modo de
gestionarlo. Las tarjetas de sonido y los conectores de audio deben dejar de ser grandes
desconocidos.
Y quizás el vídeo sea el contenido multimedia que mayor importancia está tomando en la
actualidad por lo que es muy práctico conocer herramientas para su captura y edición. Los
formatos, sus estándares, su funcionamiento, su compresión, sus fotogramas por segundo son
aspectos determinantes que antes de empezar a editar vídeos debes conocer. Además, es
importante que lo hagas con planificación para lo que es muy práctico que sepas como realizar
storyboards.

Introducción y objetivos
IN T R O DU CCIÓ N O B JE T IV O S
En definitiva, vas a aprender todo acerca de los contenidos multimedia y de cómo podrías
desarrollar tus sitios web. ¿Te apetece? ¡Pues adelante!
Conocer las diversas plataformas e idiomas disponibles para el desarrollo de aplicaciones
web.
Identificar los principales componentes de las tiendas virtuales.
Conocer todo lo relativo a las imágenes digitales y cómo editarlas.
Identificar los diversos estándares y formatos de vídeo analógicos y digitales, así como los
compresores y contenedores.
Aprender algo más en profundidad el audio, sus formatos y cómo editarlo.
Conocer el uso de los storyboards para la planificación de los vídeos y animaciones.
Identificar los diversos sistemas hardware para la manipulación de vídeos y audio.
C O NT I NU A R
IN T R O DU CCIÓ N O B JE T IV O S
Si ya has elegido la opción de desarrollar aplicaciones web, la primera decisión que
deberás tomar es la de escoger la plataforma para el desarrollo y el lenguaje que
emplearás. Necesitas unas determinadas herramientas para poder empezar a trabajar
en ello.
A lo largo de la presente unidad, conocerás una serie de plataformas de desarrollo y una
serie de criterios para que puedas escoger la tuya adecuadamente. Presta mucha atención
porque se trata de las herramientas que tendrás que emplear para desarrollar tu propio
sitio web. ¿Te apetece? ¡Pues adelante!
Si has decidido realizar tu primer sitio web debes, antes de nada, seleccionar el entorno
de desarrollo con el cual desarrollar todo el código con el que llevar a cabo esta tarea. No

1. Elección de la plataforma
debes tomarte a la ligera esta elección, ya que es más importante de lo que pueda parecer
en principio. Pronto comprenderás por qué.
Existen aspectos determinantes como el sistema operativo que uses o el lenguaje de
programación que hayas decidido emplear, que influirán por seguro en la elección de tu
entorno de desarrollo.
Los entornos de desarrollo integrado (Integrated Development Environment, IDE) son
aplicaciones informáticas que te proveerán de todo aquello que necesites a la hora de
programar, facilitando de ese modo el desarrollo de todo tu software.
C O NT I NU A R
A continuación podrás ver cuáles son los criterios en los que debes apoyarte
para tomar una elección adecuada. A su vez, podrás conocer los entornos de
desarrollo más populares. Con toda esa información te será sencilla la
decisión, pero recuerda, sopésala bastante, es realmente importante.
¡Comencemos!
Existen una serie de factores que debes de tener en cuenta cuando vayas a escoger tu
plataforma de desarrollo. A continuación se enumeran alguno de los más importantes:
C O NT I NU A R
Criterios de evaluación de la plataforma
Junto a estos factores que deben influirte a la hora de escoger tu plataforma
de desarrollo existen una serie de ventajas que tiene su uso. Pasa a la
siguiente pantalla para conocerlas.
Usar plataformas o entornos de programación, te va a aportar una innumerable cantidad
de ventajas, algunas de las más importantes las puedes ver a continuación:
C O NT I NU A R
Ventajas del uso de plataformas de desarrollo
Un entorno de desarrollo integrado no es tan solo un editor de código como pudiera ser el
bloc de notas. Aunque realmente puedes escribir código en un simple editor de texto,
aunque ello requerirá que tengas un profundo conocimiento del lenguaje de
programación, ya que no podrás contar con ningún tipo de asistencia ni de ayuda.
Realmente, el entorno o plataforma de desarrollo implica la unión de un conjunto de
herramientas con el objetivo de simplificar el desarrollo de código. Las herramientas
que están incluidas en las plataformas de programación son las siguientes:
C O NT I NU A R
Componentes de las plataformas de desarrollo
Ahora que ya conoces las ventajas de usar las plataformas de desarrollo
seguramente podrás entender que estas incluyen una serie de
componentes. Sigue leyendo porque seguro que ya puedes anticipar
algunos de ellos.
Las plataformas de desarrollo deben ofrecer una serie de funcionalidades encaminadas a
facilitar el trabajo al programador en el desarrollo de software. Para ello deberá contar, al
menos, con las siguientes utilidades:
C O NT I NU A R
Funcionalidades de las plataformas de
desarrollo
Las plataformas de desarrollo o los entornos de desarrollo integrados son herramientas
que te ofrecen un marco de trabajo para poder realizar códigos de la mayoría de los
lenguajes de programación tales como Java, Python, C++, C#, Delphi, Visual Basic, etc.
Además de en varios lenguajes, funcionarán como sistemas en tiempo de ejecución, de
modo que te permitirán usar el lenguaje de programación de forma interactiva, sin que
tengas que orientar tu trabajo a archivos de texto.
A continuación se muestran varias de las plataformas más importantes. Pulsa sobre estas
imágenes para acceder a la página oficial de las respectivas plataformas:

Plataformas de desarrollo
https://netbeans.org/ https://www.eclipse.org/ https://visualstudio.microso
ft.com/es/
https://notepad-plusplus.
org/
C O NT I NU A R
https://atom.io/ https://www.sublimetext.co
m/
https://
developer.android.com/
studio/index.html
https://repl.it
https://aws.amazon.com/es
/cloud9/?origin=c9io
https://www.adobe.com/
products/
dreamweaver.html
http://brackets.io/ http://bluefish.openoffice.nl/
index.html

En las siguientes pantallas podrás aprender en profundidad sobre cada uno


de ellos para que estés en condiciones de decidir cuál es el que mejor se
adecúa a tus necesidades.
NetBeans es un entorno de desarrollo integrado de código abierto. Sun MicroSystems,
ahora administrado por Oracle, fundó este proyecto de código abierto en el 2000 y aún
continúa siendo su principal patrocinador. En principio fue diseñada específicamente para
el lenguaje de programación Java, pero actualmente es multilenguaje y también es válido
para otros lenguajes como C, C++, PHP, Groovy y HTML5, JavaScript, JavaFX e, incluso,
Android, entre otros.
Ofrece un editor de código fuente provisto de autocompletado y con una
funcionalidad de depuración que se integra con navegadores web como Internet
Explorer y Firefox. Se trata de un entorno bastante difundido y es muy popular entre los

Netbeans
programadores. Esta herramienta es multiplataforma y puede ser instalado en
cualquier sistema operativo que soporte Java.
Netbeans te permitirá desarrollar aplicaciones web y de escritorio, y además a través de
plugins permite trabajar con otro tipo de lenguajes, como Android.
C O NT I NU A R
En la página oficial de Netbeans encontrarás, entre otros aspectos, una
página para descargas del producto, una guía de uso de la herramienta, un
manual para programar en Java con la herramienta y otro para programar
en PHP y HTML5.
Este vídeo te muestra la última versión de NetBeans, cómo instalarla y aspectos de su
interfaz.
No dejes de visualizarlo porque más adelante deberás responder a una serie de
preguntas sobre este tema.
Además, seguro que te aporta una información realmente valiosa, ¿te la vas a perder? ¿No?
¡Pues dale al play!
Un vistazo al nuevo Apache NetBeans versión
11
Fuente de vídeo: https://www.youtube.com/watch?v=bAsdyFAcOGU
C O NT I NU A R
Autoevaluación
Pregunta
01/03
¿Cuál es el archivo que debes descargar para poder instalar Netbeans?
Fuentes.
Binarios.
Javadoc.
Ninguna de las anteriores.
Pregunta
02/03
La primera vez que arrancas Netbeans tarda bastante en iniciarse.
Verdadero.
Falso.
Pregunta
03/03
¿Cómo configuras el navegador web por defecto para que no dé ningún
mensaje de
error?
Tools -> Options -> Web Browser.
Web -> Browser.
Servers-> Options -> Web Browser.
Ninguna de las anteriores.
Quizás se trate del entorno de desarrollo integrado más empleado en el entorno laboral,
por lo que es importante que conozcas su uso. Se trata de una herramienta de código
abierto cuya base puede ser expandida instalando plugins con las diversas nuevas
funcionalidades que vayas requiriendo.
Es una plataforma multilenguaje, por lo que podrás usarla para desarrollar aplicaciones
en Java, C, C ++, Python, PERL, Ruby y muchos más lenguajes. Aunque generalmente se usa
Eclipse como un IDE para el lenguaje Java, es multilenguaje y podrás usar muchos otros.

Eclipse I
Si quieres sacar el máximo provecho a Eclipse, necesitarás instalar un buen
número de plugins para ofrecer funcionalidades que completen el servicio
del IDE.
C O NT I NU A R
Eclipse es una plataforma que debes tomar en cuenta, ya que seguro que te cruzas con
ella en algún momento de tu vida laboral, ya que, seguramente se trate del entorno más
conocido y usado por los programadores. Además, está en constante evolución debido
a la extensa comunidad de usuarios que le da soporte y que genera muchos plugins
que hacen que sea útil con casi cualquier lenguaje.
En general, la gran versatilidad que ofrece este entorno te va a permitir desarrollar
aplicaciones de escritorio y aplicaciones web. Y, por si fuera poco, la gran comunidad de
programadores que está detrás de esta herramienta produce muchos tutoriales que
podrás encontrar en la red y utilizar tanto en el momento de su instalación como de su
uso.
Eclipse II
C O NT I NU A R
Puedes descargar esta herramienta del propio sitio web oficial de Eclipse.
Además, no debes dejar de realizar una búsqueda de los diversos tutoriales
que puedes encontrar en la Red. Aunque seguro que encuentras muchos
que te sean de utilidad, en el vídeo de la siguiente pantalla podrás
encontrar una explicación y consejos sobre su uso.
Este vídeo te explicará, por medio de la presentación de una visión general de esta
plataforma, por qué usar Eclipse y no otro.
De una manera sencilla y comprensible analiza cómo Eclipse trabaja en un espacio de
trabajo o workspace, que usa una serie de plugins para dotar al IDE de mayor
funcionalidad, que su sistema de trabajo es por proyectos, etc.
No dejes de darle al play porque en las siguientes pantallas deberás responder a algunas
preguntas sobre su contenido.

Visión general del entorno de desarrollo Eclipse


Fuente de vídeo: https://www.youtube.com/watch?v=k5A-RvCKVMY
C O NT I NU A R
Autoevaluación
Pregunta
01/03
Cuando vas a iniciarte en la programación, Eclipse es mucho más amigable que
el resto y
hace más sencillo el aprendizaje.
Verdadero.
Falso.
Pregunta
02/03
¿Qué pide Eclipse al iniciarse?
Que indiques el workspace.
Que indiques el navegador web predeterminado.
Que indique la cantidad de memoria que pueda emplear.
Ninguna de las anteriores.
Pregunta
03/03
¿Qué es lo que define qué tipo de aplicación vas a desarrollar?
El workspace.
El plugin.
El proyecto.
Ninguno de las anteriores.
Visual Studio es un IDE con el que podrás desarrollar interfaces gráficas de usuario,
formularios de Windows, juegos, así como servicios y aplicaciones web.
Actualmente, este IDE propiedad de Microsoft, está disponible además de para el sistema
operativo Windows, para macOS y para GNU/Linux. Por ello ya es posible crear mediante
sus herramientas, aplicaciones tanto para Windows, como para GNU/Linux, macOS,
Android e iOS.
En cualquier caso, es la plataforma preferida cuando se trata de desarrollar
exclusivamente para sistemas Windows, ya que emplea las tecnologías de Microsoft y el

Visual Studio ¿Code?


entorno .net. Además, Microsoft hizo un guiño al software libre creando su versión Visual
Studio Comunity, que es similar al Visual Studio de pago, pero está soportado por la
comunidad.
C O NT I NU A R
¿Conocías las dos versiones de Visual Studio? ¿Sabías que existe otra
tercera versión? Pasa a la siguiente pantalla para seguir conociendo nuevos
aspectos del Visual Studio.
Como acabas de estudiar con este entorno de desarrollo integrado podrás hacer todo tipo
de aplicaciones web y de escritorio recibiendo bastante ayuda y asistencia mientras
programas. Lo parte negativa de esto es que estarás limitado a usar tan solo los lenguajes
de Microsoft.
Existen tres versiones distintas de Visual Studio: Visual Studio Community, Visual
Studio Professional y Visual Studio Entreprise. Puedes acceder al siguiente enlace de
Microsoft en donde puedes encontrar una comparativa bastante completa y descriptiva
entre estos tres productos.

Visual Studio
C O NT I NU A R
Existe una gran cantidad de plugins que pueden aplicarse a esta
herramienta para dotarla de mayor funcionalidad. No dejes de acceder al
siguiente enlace para conocer de primera mano las extensiones disponibles
para la familia de productos de Visual Studio.
Notepad++ es más simple que el resto de plataformas anteriormente vistas. Se trata tan
solo de un editor de código fuente ligero, portable y gratuito que admite más de 50
lenguajes de programación, scripting y marcado.
Es una aplicación de poco tamaño, y es una alternativa de código abierto a un simple
editor, mejorándolo ostensiblemente a la hora de la programación, ya que incluye un buen
número de funcionalidades como el resaltado de sintaxis, el autocompletado, la
búsqueda y la substitución de expresiones regulares y bastantes opciones más. Por si eso
fuera poco además también incluye un sinfín de plugins para dotarlo de más funciones.
Para descargar esta aplicación puedes acceder a la siguiente web y, si deseas echar un
vistazo a los plugins y a cómo instalarlos accede a esta otra web.
También puedes conocer quiénes forman parte de la comunidad de programadores a
través de la web de GitHub.
Algunas de las funciones más interesantes que ofrece Notepad++ son las siguientes:

Notepad++
Resaltado y coloreado del código.
Permite definir el resaltado de sintaxis para los nuevos lenguajes de programación
que requiera el usuario.
Autocompletado de código.
Multidocumento.
Es posible disponer de más de una vista de un mismo código, por ejemplo, de dos
versiones del mismo documento.
Acciones de buscar y reemplazar haciendo uso de expresiones regulares.
Detección automática del estado del documento.
C O NT I NU A R
Atom es otro editor de código fuente de código abierto y gratuito, tal y como lo es
Notepad++. Es una aplicación de escritorio multiplataforma que podrás, por lo tanto, usar
independientemente de si tu sistema operativo es Windows, macOS o GNU/Linux. Dispone
de una gran cantidad de temas para poder personalizar su aspecto. También aporta una
gran cantidad de paquetes que podrás agregar. Aporta también un autocompletado
inteligente que será muy útil a la hora de programar. Soporta una gran cantidad de
lenguajes de modo que podrás usarlo en lugar de un entorno de desarrollo integrado.
Fue desarrollado con node.js y aporta control de versiones con git. Atom liberó en 2015 su
beta en la versión 1.0. Sus desarrolladores lo definen como un "editor de textos hackeable
para el siglo XXI".

Atom
C O NT I NU A R
Atom dispone de un gestor de paquetes, instalado por defecto, mediante el
que podrás instalar y desinstalar los paquetes disponibles. Hoy en día, hay
más de 6.500 paquetes disponibles que puedes descubrir en su web.
Además, ofrece un manual de uso muy completo que tienes disponible aquí.
El editor de código Sublime Text es muy popular en la actualidad para desarrolladores y
maquetadores web. Se trata de una aplicación sencilla, como pueden ser Notepad++ y
Atom. Si su uso es esporádico se trata de una herramienta gratuita, pero si deseas usarlo
profesionalmente tendrá un coste de 80 dólares.
Es una aplicación de escritorio multiplataforma que podrás, por tanto, usar
independientemente de si tu sistema operativo es Windows, macOS o GNU/Linux.
Puedes descargarla y evaluarla sin tener que pagar aunque no se trata de una aplicación
de software libre. Deberás pagar por su licencia si vas a realizar un uso continuo, aunque
la versión de evaluación es plenamente funcional y carece de fecha de caducidad. La
página web oficial ofrece documentación muy completa sobre el uso y la personalización
de la herramienta.
Algunas de las características de este editor de código son las siguientes:
Uso de atajos para abrir archivos con solo unas pocas teclas e ir directamente a
determinados símbolos, líneas o palabras.
Selecciones múltiples que te permitirán cambiar interactivamente muchas líneas a la
vez, renombrar variables con facilidad y manipular archivos muy rápidamente.
Potente API de Python que permite que los complementos aumenten la
funcionalidad incorporada.

Sublime Text
Soporte de edición dividida con la que podrás editar archivos uno al lado del otro o
editar dos ubicaciones en un archivo.
Una paleta de comandos que contiene funcionalidades poco utilizadas, como
ordenar, cambiar la sintaxis y cambiar la configuración de sangría.
Casi todo en Sublime Text se puede personalizar con archivos JSON simples.
C O NT I NU A R
Andoid Studio es el entorno de desarrollo integrado por excelencia para los
programadores de Android y actualmente va por la versión 3.5. Esta última versión no ha
aportado nuevas funcionalidades sobre las anteriores pero ha mejorado bastante su
rendimiento y ha optimizado las funciones que ya existían. Es un entorno multiplataforma
que podrás, por tanto, usar independientemente de si tu sistema operativo es Windows,
macOS o GNU/Linux.
Android Studio analiza por ti el uso de memoria y te recomendará que aumentes la
memoria RAM dedicada a la aplicación para mejorar el rendimiento, si fuera necesario.
Para empezar a utilizarlo, podrás descargar los más de 700 MB que ocupa este entorno
desde la propia página oficial de Android.

Android Studio
C O NT I NU A R
La gran ventaja que tiene Android Studio es que si no posees ningún
conocimiento sobre su uso, puedes recurrir a la extensa guía de usuario que
ofrece, además de una biblioteca de manuales sobre aspectos tan
interesantes como qué pasos debes llevar a cabo para publicar tu app en
Google Play. Además si deseas aprender a programar en Android existe un
material ofrecido de manera gratuita por la Universidad Politécnica de
Valencia a través de un MOOC muy interesante.
Repl.it es un entorno de desarrollo online que te proporcionará un IDE instantáneo y muy
adecuado para aprender, compilar, colaborar y hospedar todo en una sola plataforma.
El código se ejecuta en la nube, por lo que no necesitarás llevar a cabo ningún tipo de
instalación local. Dispone de una potente plataforma que se irá adecuando a tus
necesidades y de una gran comunidad amistosa enfocada al desarrollo y al aprendizaje.
No importa si es un programador avanzado o un novato dando sus primeros pasos, Repl.it
te ayudará a pasar de tu idea al resultado lo más rápido posible, sin tener que realizar
complicadas instalaciones ni procedimientos de configuración.
Te brinda un entorno de programación fácil de usar en el navegador. El acrónimo REPL
significa Read, Eval, Print, Loop (Leer, Evaluar, Imprimir, Iterar) y proporcionará al
programador un entorno de programación interactivo. Posee más de 200.000
desarrolladores activos en la plataforma.

repl.it
Repl.it es compatible con prácticamente todos los lenguajes de programación
(JavaScript, Python, PHP, Java, C++, QBasic, Django, Ruby on Rails, Sinatra, etc).
Puedes trabajar con esta herramienta de forma gratuita y cada instancia de Repl.it será
ejecutada en su propio contenedor y obtendrás un enlace permanente que te
permitirá retomar y volver a tu código rápidamente. Puedes pasar de programar a usar
otro totalmente distinto y eso sin tener que salir de tu navegador. Y si necesita algún tipo
de bibliotecas en Repl.it tan solo debes solicitarlas en tu código y serán instaladas
automáticamente.
C O NT I NU A R
Cloud 9 es uno de los servicios web de Amazon (Amazon Web Services, AWS), es decir, que
son una colección de servicios de computación en la nube pública ofrecidos a través de
Internet por Amazon.com. Entre otras aplicaciones populares es usado por Dropbox,
Foursquare y HootSuite. Sus competidores son Microsoft Azure y Google Cloud Platform.
AWS Cloud9 es un entorno de desarrollo integrado basado en la nube con el que podrás
escribir, ejecutar y depurar tu código desde tu propio navegador. Cuenta con un editor
de código, un depurador y un terminal.

AWS Cloud9
C O NT I NU A R
Por medio de AWS Cloud9 podrás programar usando los lenguajes de
programación más conocidos, como JavaScript, Python, PHP, entre otros, sin
necesidad de instalar ningún tipo de aplicación y sin tener, por lo tanto, que
configurarlo para poder empezar nuevos con tus proyectos.
La gran ventaja de tener el IDE de Cloud9 en la nube, será que te hace posible trabajar en
tus proyectos desde cualquier lugar, ya sea tu oficina, tu casa o desde cualquier otro sitio,
eso sí, que disponga de conexión a Internet. De esta manera, en entornos colaborativos,
Cloud9 es muy adecuado, ya que permite compartir rápidamente el entorno de desarrollo
con todo tu equipo, algo que te permitirá realizar programaciones en equipo y un
seguimiento de las ediciones de tus compañeros en tiempo real.
En su página web oficial podrás encontrar una extensa cantidad de recursos y guías del
usuario y para desarrolladores.

AWS Cloud9 Ventajas


Recuerda que con AWS Cloud9 puedes, entre otras muchas cosas, codificar,
ejecutar, depurar y publicar software. Esta herramienta te permitirá
trabajar con código en varios lenguajes de programación y kit de desarrollo
de la nube de AWS (AWS CDK), trabajar con dockers, usar repositorios de
código online, colaborar con otros usuarios en tiempo real e interactuar
con varias tecnologías de bases de datos y sitios web.
C O NT I NU A R
Adobe Dreamweaver es una aplicación informática, disponible en Windows y en macOS,
destinada a la construcción, diseño y edición de sitios y aplicaciones web basados en
estándares. Fue creado por Macromedia inicialmente y, al desaparecer esta compañía,
pasó a manos de Adobe Systems.
Las primeras versiones de la aplicación eran empleadas como simples editores WYSIWYG.
Después se fue completando el producto con el soporte de tecnologías web como CSS,
JavaScript y algunos frameworks del lado servidor.
Al ser un editor WYSIWYG simplifica bastante el uso de cara al usuario, ya que
Dreamweaver oculta y hace que cualquiera pueda desarrollar páginas y sitios web sin
necesidad de saber programar ni de tener que escribir nada de código.

Dreamweaver
Antes era una herramienta del paquete de Adobe Creative Suite CS y a partir de 2013,
pasó de la venta al modelo de suscripción integrándose en Adobe Creative Cloud
CC. Estas suscripciones tienen un precio actual de 24,19 € al mes, aunque suelen salir
promociones en las que se rebaja la cuota a unos 19,35 €. Todo esto se llevó a cabo para
evitar la piratería que venían sufriendo pero no ha tenido mucho éxito. Al día siguiente de
la integración ya había sido pirateado de modo que se compartía en algunas aplicaciones
P2P el software usado en esta última versión en la nube.
En la propia web de Dreamweaver puedes encontrar mucha información y asistencia
sobre la herramienta y ofrecen ayuda para introducirte en su uso, tutoriales de todo
tipo y guías de usuario.
C O NT I NU A R
BlueFish viene a ser la alternativa de software libre a Dreamweaver. Se trata también de
un editor HTML multiplataforma. Es usado por programadores y diseñadores web
experimentados para centrarse en el desarrollo de páginas dinámicas e interactivas. Esta
herramienta es capaz de reconocer diversos lenguajes de programación y de marcas.
Se trata de una aplicación multiplataforma que se puede usar en la mayoría de los
sistemas operativos de escritorio, incluyendo GNU/Linux, Windows y macOS. Ofrece a los
desarrolladores web un sencillo modo gráfico muy práctico para crear los sitios web ya
que permite diseñarlas amigablemente.
Ofrece una funcionalidad ilimitada de deshacer y rehacer, permite la posibilidad de
integrar programas externos y posibilita las búsquedas y reemplazos de un modo
eficiente y potente, apoyado en expresiones regulares.
Bluefish soporta una gran cantidad de variados lenguajes de programación como C, C ++ ,
Java, Perl, Python, Ruby, PHP, JavaScript y VBScript y de lenguaje de marcado tales como
HTML5 y ColdFusion.
Entre otras características, Bluefish cuenta con las siguientes:

BlueFish
Es muy ligero. Arranca usando entre un 40 y un 45% de la memoria que necesitan
otros editores similares.
Rápido. Carga las páginas en un tiempo aproximado de un segundo.
Abre múltiples documentos simultáneamente.
Usa proyectos que te permitirán realizar eficientemente múltiples trabajos.
Soporte para archivos remotos.
C O NT I NU A R
En este caso no se trata de ninguna plataforma de desarrollo de código. Pero es
interesante que conozcas el uso de los sistemas de control de versiones, ya que son muy
empleados, sobre todo cuando en el desarrollo de código hay un equipo de personas
trabajando simultáneamente.
Git es un software para el control de versiones que fue diseñado por Linus Torvalds,
pensando en la eficiencia y la confiabilidad del mantenimiento de versiones de
aplicaciones cuando hay un gran número de archivos formando parte del código fuente.
Una versión, revisión o edición de un producto, será el estado en el que se encuentra tal
producto en un momento dado de su desarrollo o modificación.
A través del control de versiones se lleva un registro sobre los cambios que se efectúan
en los archivos de computadora y, de este modo, se coordina el trabajo de varias personas
trabajando en paralelo sobre archivos compartidos.
También te será muy útil si deseas mantener cada versión de una imagen o diseño.
Con ello podrás revertir archivos a estados anteriores, o revertir el proyecto completo a un
estado anterior, ver la evolución de los cambios durante el tiempo, comprobar quién fue el
autor de las últimas modificaciones, quién pudo cometer un error y cuándo, y otras
muchas cosas. Es un modo de poder recuperar el código si se perdieran archivos o se
cometieran errores en él.

Control de versiones con Git


Resumiendo, es muy aconsejable el uso de herramientas de este tipo, tanto para
protección de pérdidas o errores en archivos como para gestionar el uso simultáneo de
varios archivos por parte de varias personas.
C O NT I NU A R
Brackets IDE es un editor de código para diseñadores del front-end, es software libre y
tiene la ventaja de tener el soporte de una gran marca que ha mostrado grandes
productos de software como Adobe bajo la licencia MIT. Esta aplicación tiene su origen en
el Adobe Edge Code que Adobe sacó como alternativa a otros editores y plantar batalla al
conocido Dreamweaver.
A partir de ese editor de texto de software libre, surge una comunidad que se llamó
Brackets y que fue trabajando en paralelo a Edge. Finalmente, Adobe dejó de lado a su
editor Edge y se unió a Brackets.
Brackets es un editor de código abierto de HTML y CSS. Permite el uso de carpeta de
proyectos, menús, botones de vista previa e instalación de extensiones para dotar a la
herramienta de mayor funcionalidad. Por ejemplo, la extensión Brackets-FTP te permitirá
guardar cambios directamente en el servidor sin necesidad de disponer de un cliente FTP.
Además de HTML y CSS incluye otros lenguajes como PHP, JavaScript, o Ruby. Es una
herramienta multiplataforma y por lo tanto, está disponible en GNU/Linux, Windows y
macOS.
Cuenta con una vista previa en vivo, con la que podrás ver al instante las consecuencias de
los cambios que efectúes en el código de tu proyecto.

Brackets
Puedes descargarlo de su propia página web oficial y también encontrarás una gran
cantidad de extensiones que podrás aplicarle.
C O NT I NU A R
En este vídeo Sergio Marín, de Escuela Web, te explicará de manera sencilla y amena qué
es Git, cómo funciona y sobre todo, para qué sirve.
No dejes de verlo atentamente porque en las pantallas siguientes deberás responder una
serie de preguntas sobre su contenido.
Además, seguro que te aporta una información realmente valiosa, ¿te la vas a perder? ¿No?
¡Pues dale al play!

Introducción de Git y Control de Versiones


Fuente de vídeo: https://www.youtube.com/watch?v=SMWItqi3Y-0
C O NT I NU A R
Autoevaluación
Pregunta
01/03
¿Cómo se llama en Git los estados intermedios por los que pasan los archivos?
Commits.
Escrituras.
States.
Ninguna de las anteriores.
Pregunta
02/03
Cualquier sistema controlador de versiones es compatible con cualquier tipo de
documento.
Verdadero.
Falso.
Pregunta
03/03
¿Cuál de los siguientes no es un tipo de sistema de control de versiones?
Local.
Simulado.
Centralizado.
Distribuido.

Uso del editor de código Notepad++


Has conocido ya bastantes herramientas para poder llevar a cabo desarrollo de tus sitios web.
Ahora vas a probar con una de ellas: Notepad++. Para ello lleva a cabo los siguientes pasos:
1º Descarga la aplicación e instálala en tu ordenador. Revisa en los contenidos la web desde la
que puedes hacerlo.
2º Crea un nuevo archivo. Para ello ve a Archivo -> Nuevo.
3º Escribe el siguiente código:
<html>
<head>
<meta http-equiv="Content-Type" content="text/html; charset=utf-8"/>
<title>Caso práctico: Uso del editor de código Notepad++</title>
</head>
<body>
C O NT I NU A R
<html>
<body>
<h1>Caso práctico: Uso del editor de código Notepad++</h1>
<p>Probando este popular editor de código.</p>
</body>
</html>
</body>
</html>
4º Verás que no se resaltan las etiquetas de HTML, pero a continuación indícale a Notepad++ que
ese código es HTML mediante el siguiente modo: Lenguaje -> H -> HTML. Verás que ahora sí se
resaltan las etiquetas.
5º Graba el archivo mediante Archivo -> Guardar como asegurándote de que su extensión sea
html.
6º Visualiza el resultado en el navegador del siguiente modo: Ejecutar -> Launch in
(Firefox/IE/Chrome/safari). Escoge el navegador que uses habitualmente.

Recapitulación
Hasta este momento has aprendido que los entornos de desarrollo integrado (Integrated
Development Environment, IDE) son aplicaciones informáticas que te proveerán de todo
aquello que necesites a la hora de programar, facilitando de ese modo el desarrollo de
todo tu software.
No solo eso, sino que además conoces ahora una serie de factores que debes de tener en
cuenta cuando vayas a escoger tu plataforma de desarrollo y las ventajas que nos ofrece.
Conoces también ahora que las herramientas que están incluidas en las plataformas de
programación son las siguientes: editor de código, depurador, compilador e interfaz gráfica.
También has aprendido que las plataformas de desarrollo deben ofrecer una serie de
funcionalidades encaminadas a facilitar el trabajo al programador en el desarrollo de
software y viste cuales eran las de mayor importancia.
Además, aprendiste que las plataformas de desarrollo o los entornos de desarrollo
integrados son herramientas que te ofrecen un marco de trabajo para poder realizar
códigos de la mayoría de los lenguajes de programación tales como Java, Python, C++, C#,
Delphi, Visual Basic, etc.
Conociste varias de las plataformas más importantes como son Netbeans, Eclipse, Visual
Studio, Notepad++, Atom, Sublime Text, Android Studio, repl.it, AWS Cloud9, Dreamweaver,
BlueFish y Brackets.
Por último, has aprendido que Git es un software para el control de versiones que fue
diseñado por Linus Torvalds, pensando en la eficiencia y la confiabilidad del mantenimiento
de versiones de aplicaciones cuando hay un gran número de archivos formando parte del
código fuente.
CONT I NU A R
Autoevaluación
Pregunta
01/03
¿Cuál de los siguientes no es un componente de las plataformas de desarrollo?
Editor de código.
Ayuda en línea.
Depurador.
Compilador.
Pregunta
02/03
¿Con qué lenguaje de programación se suele emplear generalmente Eclipse?
Python.
C++.
Java.
Ninguno de los anteriores.
Pregunta
03/03
¿Cuál de los siguientes no es una plataforma de desarrollo?
Eclipse.
Cloud9.
Git.
NetBeans.
Lo primero que tienes que saber cuando vas a llevar a cabo un proyecto determinado es
concretar qué es lo que quieres conseguir con él, cuál es su objetivo. El paso
inmediatamente posterior a esto es escoger un lenguaje de programación que te permita
alcanzar tales objetivos marcados. Realmente existe una gran diversidad de lenguajes de
programación que puedes emplear para muy diferentes propósitos, pero siempre
alguno destaca entre el resto y será el más adecuado para llevar a buen fin tu proyecto.
¿Te apetece conocer esos lenguajes de programación y el modo de llegar a una buena
elección de más acertado para tu proyecto?
¡Pues adelante!
Cualquier persona sin experiencia puede verse ante el problema de decidir, ante el
desarrollo de algún programa, qué lenguaje de programación usar. Si buscas en foros

2. Lenguajes
puedes encontrar opiniones de todos los tipos, lo cual puede incluso confundirte más.
Más adelante verás en qué aspectos deberás fijarte para tomar una decisión acertada en
la elección del lenguaje de programación a emplear.
Incluso, en muchas ocasiones, ni siquiera tendrás que plantearte elección alguna, ya que
el lenguaje de programación que debes usar vendrá impuesto por la empresa en la que
trabajes, así como la plataforma de desarrollo y, claro está, el proyecto a realizar. Será
cuando tengas que decidir qué lenguaje utilizar, cuando tengas que analizar varios
aspectos muy importante que tendrás que valorar y analizar para sopesar si el lenguaje es
el adecuado para el proyecto.
La elección del lenguaje de programación no es nada simple y dependerá de varios
factores. Algunos de ellos determinantes, como el tipo de proyecto que tengas que
realizar o si tu único propósito es iniciarte en el mundo de la programación, por ejemplo.
Por ello, aspectos como si lo que vas a realizar es una aplicación móvil, una página web o
un programa para un sensor determinarán la elección y dispondrás siempre de varias
opciones.
A lo largo de las siguientes pantallas harás un repaso de los lenguajes de programación
más importantes y se analizarán sus características para que este conocimiento te ayude a
tomar una decisión óptima en su elección. Conocer las posibilidades existentes te
permitirá escoger con mejor criterio.
C O NT I NU A R
Cuando hablas en informática de un lenguaje de programación te refieres a cualquier
lenguaje artificial que ha sido creado para poder transmitir instrucciones a un
ordenador. Cada lenguaje de programación contará con un conjunto de símbolos y reglas
sintácticas y semánticas que determinan el significado de cada uno de sus elementos y
expresiones.
Resumiendo, los lenguajes de programación tienen elementos muy importantes que son
básicos para su funcionamiento: estos son el conjunto de símbolos o alfabeto, las reglas
gramaticales que emplee y las reglas semánticas, que determinan en conjunto las
estructuras válidas del lenguaje y su significado.

Lenguajes de programación
Es decir, se trata de un lenguaje formal que ofrece un conjunto de instrucciones que usará
el programador para escribir una determinada secuencia de órdenes y algoritmos que
establecen lo que es el código del programa. Mediante ese código se controlará el
comportamiento físico y lógico de un ordenador para, en base a ello, obtener unos
determinados objetivos marcados.
De esta manera el término programa se refiere a las órdenes y datos que el programador escribe
empleando un lenguaje de programación concreto.
La programación por tanto, será todo aquel proceso que cubre el propio desarrollo del
código, sus pruebas, las depuraciones y, si fuera necesario, sus compilaciones y su
mantenimiento.
Hay un término muy parecido al de lenguaje de programación que es el de lenguaje
informático. Sus usos a veces se confunden y merece una aclaración. El lenguaje
informático es un término global que engloba a otro tipo de lenguajes además de a los
lenguajes de programación. Por ejemplo, HTML no es propiamente un lenguaje de
programación, sino un conjunto de instrucciones que permiten estructurar el contenido
de los documentos. Por tanto, se puede decir que HTML es un lenguaje informático pero
no un lenguaje de programación.
C O NT I NU A R
Este vídeo te explicará qué es un lenguaje de programación, cuales son los más populares
a día de hoy y la diferencia entre lenguajes de bajo y alto nivel.
Podrás repasar y aclarar muchos de los conceptos que has estudiado hasta ahora, como
qué significa que estén formados por un conjunto de símbolos y reglas sintácticas y
semánticas.
Visualízalo atentamente porque más adelante deberás responder a una serie de
preguntas sobre su contenido.
¡Dale al play!

¿Qué es un lenguaje de programación?


Fuente de vídeo: https://www.youtube.com/watch?v=RKH5nSi_FuM
C O NT I NU A R
Autoevaluación
Pregunta
01/03
La lista de los lenguajes más comunes cambia rápidamente.
Verdadero.
Falso.
Pregunta
02/03
¿Qué es lo que realmente entiende tu máquina, tu procesador?
El código fuente.
El código máquina.
Java.
Ninguno de los anteriores.
Pregunta
03/03
¿Cuál es el lenguaje de programación más cercano al código máquina?
Java.
C.
C++.
Ensamblador.
Una primera clasificación que debes comprobar antes de llevar a cabo la elección es que,
si es para desarrollar páginas o aplicaciones web, debes ver sobre qué parte irá. Ahí es
donde se divide entre lenguajes del lado del cliente y lenguajes del lado del servidor.
Entre los lenguajes del lado del cliente o de frontend el más conocido es el lenguaje
HTML, que servirá como estructura para la interfaz. Recuerda que, como pudiste leer en
las pantallas anteriores, no se trata de un lenguaje de programación. En este caso se trata
de un lenguaje de marcado, no de programación. A través de sus marcas podrás indicar
dónde poner títulos, párrafos, enlaces, imágenes, negritas, cursivas, etc.
Junto con HTML siempre suele usarse CSS para poder aplicar estilos y poder modificar
aspectos como las tipografías, los colores, los tamaños, la ubicación, etc.
Lenguajes del lado del cliente
Hoy en día, se emplea mucho una plataforma muy recomendable para este tipo de
lenguajes, ya que facilita bastante tanto la programación como el diseño web, se trata de
Bootstrap. Es una herramienta muy intuitiva que viene con diseños y plantillas que
podrás adaptar a los requerimientos de tu proyecto.
Un lenguaje de programación muy simple pero muy empleado en el lado del cliente es
JavaScript, con el que podrás interactuar con tus usuarios, así como incluir efectos o
animaciones. Además de los conceptos básicos de JavaScript, existen muchas librerías
externas para dar mayor funcionalidad a JavaScript como, por ejemplo, Jquery, que es la
biblioteca de JavaScript más usada con amplia diferencia.
Aunque existen muchos más lenguajes del lado del cliente, estos son los más usados.
C O NT I NU A R
Este vídeo hará un repaso sobre algunas tecnologías como JavaScript, DHTML y applets
que permiten una navegación e interacción del modo en que ahora lo haces.
Estate atento porque seguro que te aporta una información realmente valiosa. Además, en
la pantalla siguiente deberás responder a una serie de preguntas.
¡Dale al play!

Tecnologías de desarrollo web del lado del


cliente
Fuente de vídeo: https://www.youtube.com/watch?v=Cvk9dDBLcEI
C O NT I NU A R

Autoevaluación
Pregunta
01/03
¿Qué elemento no forma parte del HTML dinámico?
HTML.
JavaScript.
C.
CSS.
Pregunta
02/03
¿En qué fecha se crea JavaScript?
1995.
2000.
2005.
2010.
Pregunta
03/03
Una applet se puede cargar y ejecutar desde cualquier navegador web que
soporte
Java.
Verdadero.
Falso.
Al principio en Internet las páginas web eran todas estáticas, el contenido de todas las
páginas era creado desde cero y se subían todas esas páginas una a una, lo que implicaba
un gran trabajo.
Eso ha cambiado y hoy en día los lenguajes del lado del servidor, o de backend, generan
los contenidos de las páginas con información que , por ejemplo, puede provenir de
búsquedas automáticas en bases de datos, y tales resultados se mostrarán en el interfaz.
Como puedes ver, los lenguajes del lado del cliente te permiten mostrar el contenido,
mientras que los lenguajes del lado servidor te servirán para generar y administrar
contenidos, usuarios, etc.
Existen varios lenguajes de programación que podrás emplear para generar los
contenidos de tus sitios web como PHP, Java, Python, Ruby, etc.

Lenguajes del lado del servidor


Quizás el lenguaje de programación de backend más popular es PHP, aunque en función
de la plataforma que uses puede que te resulte más adecuado otro como Python si
empleas Django o Ruby si vas a usar Ruby on Rails.
Con los lenguajes del lado del servidor, también suelen jugar un papel importante las
bases de datos. En cuanto a ellas también puedes disponer de una gran variedad como
MySQL, PostgreSQL, SQlite o MongoDB.
Podrás encontrar una gran variedad de diferentes lenguajes específicos para cada sistema
operativo, pero con la desventaja de que tan solo servirán para esa plataforma
determinada. Será siempre una mejor elección desarrollar con lenguajes que sean
multiplataforma, es decir, que puedan usarse con distintos sistemas. Eso te permitirá
adaptar tu programa para cualquier plataforma.
C O NT I NU A R
Este vídeo te explicará qué son los lenguajes de programación del lado del servidor y las
diversas tareas que se pueden llevar a cabo, como el acceso a las bases de datos o la
conexión en red.
Así, comprobarás que el lenguaje del lado del servidor es aquel que se ejecuta en el
servidor web, inmediatamente antes de que el sitio web se envíe a través de Internet al
usuario. Los sitios web que se ejecutan en el servidor pueden realizar un amplio abanico
de tareas hasta formar el propio sitio web que va a ver el usuario
No dejes de verlo, en la pantalla siguiente deberás responder a algunas preguntas sobre
su contenido
¡Dale al play!

Tipos de lenguajes de servidor


Fuente de vídeo: https://www.youtube.com/watch?v=Lz24-yRQfuw
C O NT I NU A R

Autoevaluación
Pregunta
01/03
¿En qué servidores han de alojarse los desarrollos .NET?
En cualquier servidor.
En cualquier servidor Windows.
En cualquier servidor Windows que soporte .NET.
Ninguna de las anteriores.
Pregunta
02/03
El uso de Python es exclusivo de Internet.
Verdadero.
Falso.
Pregunta
03/03
¿A qué está enfocada la plataforma Rails de Ruby?
Al desarrollo de aplicaciones de escritorio.
Al desarrollo de aplicaciones con gestión de bases de datos.
Al desarrollo de sitios web.
Ninguna de las anteriores.
Existen muchos factores que te ayudarán a escoger el lenguaje de programación más
adecuado. A continuación verás algunos de los de mayor relevancia en los siguiente
botones, haz clic en ellos:

Elección del lenguaje de programación


Tipología del proyecto
Muchas veces lo que determinará el lenguaje de programación a emplear será el tipo de proyecto.
Por
ejemplo, si es para desarrollar páginas o aplicaciones web, debes ver si será del lado del cliente o
del lado
del servidor, o si se desean desarrollar aplicaciones para móviles.

Multiplataforma
Lo ideal es programar para que el resultado pueda ser empleado en cualquier plataforma.

Conocimiento del lenguaje por los componentes del proyecto


Los integrantes que van a participar en el equipo de desarrollo deben ser expertos en el lenguaje
de
programación que vaya a usarse. A veces es irremediable invertir tiempo en formar al equipo, pero
lo ideal es que
trabajen directamente en aquellos lenguajes que dominen. De no ser así la productividad bajará
ostensiblemente.

Los requisitos del cliente


El cliente puede directamente solicitar que el producto se desarrolle con un lenguaje de
programación concreto
o indirectamente tengas que escoger alguno que se adecúe a la plataforma que pida, los objetivos,
los plazos de
ejecución y el precio estimado.

Futuro del lenguaje


Parece obvio, pero hay que escoger un lenguaje que tenga respaldo y vida. Imagina que desarrollas
una web
para una plataforma concreta y esa plataforma fracasa, sería importante que ese lenguaje fuera
fácil de portar
entre plataformas.

Características del propio lenguaje


El lenguaje de programación también tiene sus propias características, puede ser dinámico o
estático, funcional u
orientado a objetos, compilado o interpretado, lo documentado que se encuentre, su madurez, las
plataformas
de desarrollo, sus expectativas de vida, etc.
C O NT I NU A R

Anualmente IEEE Spectrum lleva a cabo un estudio para clasificar la popularidad de los
lenguajes de programación. No dejes de acceder a su web porque incluye una tabla
interactiva que te permite adaptarla a tus propios intereses profesionales. Puedes ver un
resumen de sus resultados para el 2019 en la siguiente tabla:
Pos Lenguaje Web Móvil Escritorio
Embebid
a
Puntuac
ión
1 Python X X X 100.0
2 Java X X X 96.3
3 C X X X 94.4
4 C++ X X X 87.5
5 R X 81.5
6 JavaScript X 79.4
7 C# X X X X 74.5
8 Matlab X 70.6

Lenguajes de programación más populares


Pos Lenguaje Web Móvil Escritorio
Embebid
a
Puntuac
ión
9 Swift X X 69.1
10 Go X X 68.0
11 Arduino X 67.2
12
HTML,
CSS
X 66.8
13 PHP X 65.1
14 Assembly X 63.7
C O NT I NU A R
El índice TIOBE de la comunidad de programación es otro indicador de la popularidad de
los lenguajes de programación. Este índice se actualiza una vez al mes. Las clasificaciones
se establecen en base a la cantidad de ingenieros cualificados en todo el mundo, en los
cursos disponibles y en los proveedores externos. Los motores de búsqueda populares
como Google, Bing, Yahoo!, Wikipedia, Amazon, YouTube y Baidu también son usados para
calcular las calificaciones.
Si quieres saber más acerca de cómo se calculan las puntuaciones debes acceder a la web
oficial de TIOBE. En la siguiente tabla puedes apreciar los resultados de septiembre del
2019:
Pos
Sept
2019
Pos
Sept
2018
Lenguaje de
programación
Puntuación Cambio
1 1 Java 16.661% - 0.78%
2 2 C 15.205% - 0.24%
3 3 Python 9.874% + 2.22%
4 4 C++ 5.635% - 1.76%
5 5 C# 3.399% + 0.10%
Tendencias en Stack Overflow
Pos
Sept
2019
Pos
Sept
2018
Lenguaje de
programación
Puntuación Cambio
6 6 Visual Basic .NET 3.291% - 2.02%
7 7 JavaScript 2.128% =
8 8 SQL 1.944% - 0.12%
9 9 PHP 1.863% - 0.91%
10 10 Objective-C 1.840% + 0.33%
C O NT I NU A R
El índice de popularidad de los lenguajes de programación (PopularitY of Programming
Language, PYPL) se crea analizando con qué frecuencia se buscan tutoriales sobre los
lenguajes de programación en Google. Cuanto más se busque un tutorial de algún
lenguaje de programación, más popular se supone que será tal lenguaje. Es uno de los
indicadores principales. Los datos sin procesar provienen de Google Trends.
En la siguiente tabla puedes apreciar los resultados de Septiembre del 2019:
Pos Sept
2019
Lenguaje de
programación
Puntuación Cambio
1 Python 29.21% + 4.6%
2 Java 19.9% - 2.2 %
3 JavaScript 8.39% =
4 C# 7.23% - 0.6%
5 PHP 6.69% -1.0%
6 C/C++ 5.8% - 0.4%

Índice de popularidad de los lenguajes de


programación en Septiembre del 2019
Pos Sept
2019
Lenguaje de
programación
Puntuación Cambio
7 R 3.91% - 0.2%
8 Objective-C 2.63% - 0.7%
9 Swift 2.46% - 0.3%
10 Matlab 1.82% - 0.2%
C O NT I NU A R
Hasta ahora has conocido algunos índices estáticos, es decir, que muestran la situación de
los lenguajes de programación respecto a su popularidad en un momento dado. En la
siguiente tabla puedes apreciar las tendencias en Stack Overflow donde puedes apreciar
cómo han ido evolucionando las tecnologías en el tiempo en función del uso de sus
etiquetas desde 2008, cuando se fundó Stack Overflow:
C O NT I NU A R
Índice TIOBE para Septiembre del 2019
C O NT I NU A R
Reflexiona
En las pantallas anteriores has podido conocer diversas medidas de popularidad de los lenguajes
de programación. No dejes de plantearte las siguientes preguntas: ¿Coinciden estos índices en
sus datos? ¿Podrías llegar a conclusiones parecidas si analizas solo uno de ellos? ¿Cuál te parece
más acertado?
No dejes de repasar en qué datos se basa cada uno de ellos y si es posible, entra en sus
respectivas páginas web para conocer sus pormenores de primera mano. No se trata de que
realices una análisis en profundidad, si no de que trates de buscar las concordancias y diferencias
en los datos que te presentan.
Por último, fíjate atentamente en el último gráfico, el índice TIOBE sobre la tendencia de uso de
los lenguajes de programación. Puede ayudarte a tomar mejores decisiones sobre tu futuro
profesional, el conocer o intuir lo que va a ser más demandado los próximos años y lo que se va a
abandonar.
Además, puedes consultar con otros profesionales que conozcas personalmente o en foros de
Internet. Cuanta más información recopiles más fundamentada estará tu opinión.
Como ya sabes ni HTML ni CSS son lenguajes de programación como tal, pero es cierto que
serán necesarios cuando quieras desarrollar una página web. Mediante HTML podrás
establecer la estructura del documento y con CSS le dotarás de un aspecto y diseño más
profesional. Bastan estas dos tecnologías para poder crear una página web, pero se
trataría de una web estática, con un contenido que no variará, siempre igual. Para poder
dotarla de interactividad, de dinamismo, necesitarás usar JavaScript del lado del cliente y
algún lenguaje de servidor como PHP, Python, Java, C# o Ruby.
Pulsa en estas imágenes para aprender más sobre cada uno de estos lenguajes:

HTML y CSS
HTML
El lenguaje de marcas de hipertexto
HTML es un lenguaje que alterna
marcas con el texto para que el
ordenador sepa como tratar la
información. Mediante las marcas es
posible incluir títulos, poner párrafos,
C O NT I NU A R

CSS
Las hojas de estilos en cascada
(Cascading Style Sheet, CSS) permiten
dar formato a las páginas web
escritas en HTML. Con CSS puedes
aplicarle formato a cualquier elemento
Existen muchos lenguajes de marcas diferentes, pero los tres considerados
más importantes para el desarrollo de páginas web son HTML, XML y
XHTML. Sin embargo, HTML es el más extendido en Internet.
PHP, acrónimo recursivo de Hypertext Pre-processor, fue creado en 1995, como Java y
JavaScript. Se trata de un lenguaje de programación de propósito general de código del
lado del servidor. Se trata de software libre.
A diferencia de Java, y tal y como hacía JavaScript, está pensado como un lenguaje que
pudiera incluirse dentro de los documentos HTML. PHP es un lenguaje de muy fácil
aprendizaje del que puedes disponer de muchísima documentación en Internet.
Incluso podrás disponer de lo que se llaman paquetes o suites XAMP, que incluyen, tal y
como indican sus siglas, los siguientes elementos: la X indica el sistema operativo para el
que está destinado, podrás encontrar en su lugar la W de Windows, la L de Linux o la M de
Mac; la A corresponde a Apache, un servidor web; la M indica que también incluye MySQL;
y la P final es para PHP. Con todas esas herramientas podrías montar un servidor para
hacer funcionar los documentos PHP que desarrolles. Recuerda que PHP es un lenguaje
del lado del servidor y, por lo tanto, requiere estar en un servidor web con tecnología
PHP para poder funcionar correctamente.

PHP
Existen a día de hoy muchos sitios web de éxito basados en PHP, páginas como Wikipedia,
Wordpress, Yahoo o Facebook, entre otras. Con este lenguaje se consiguió por primera vez
que las páginas web pasaran a ser dinámicas. A lo largo de todo este tiempo ha sabido
adaptarse y sigue siendo muy empleado en Internet.
Existen una gran cantidad de plataformas de desarrollo específicas para PHP como
Symfony, Laravel, Zend, Cake o CodeIgniter.
Es criticado por su lentitud en comparación con sus competidores. Esto es debido a que
no compila los archivos, sino que se tratará de ficheros de texto plano que se deberán
interpretar en cada ejecución. Incluso se requiere un mayor número de líneas de código
que con Python, por ejemplo.
C O NT I NU A R
Python es un lenguaje de programación de código abierto, clasificado como
multiparadigma ya que soporta orientación a objetos, programación imperativa y
programación funcional. Orientado generalmente a la creación de sitios web dinámicos y
complejos pero de una actualización sencilla y un tiempo de carga corto. Es usado en
sitios web tan populares como Pinterest, Instagram o Dropbox. Podrás encontrar múltiples
frameworks para él, sin duda el más popular y usado es Django, un framework orientado a
la web.

Python
Python es un lenguaje interpretado muy preocupado en que su sintaxis
favorezca que su código sea legible. Es una alternativa muy buena para
aprender a programar, debido a su sintaxis amigable y a que se trata de un
lenguaje de alto nivel multiplataforma. Suele emplearse para crear sitios
web, trabajar con datos y crear scripts de sistema operativo. En comparación
con C o C++ no es muy veloz, pero si la velocidad no es crucial, es una de las
mejores opciones como lenguaje. De ahí se explica su creciente gran
popularidad.
C O NT I NU A R
Al ser multiplataforma, lo podrás ejecutar en cualquier plataforma o sistema operativo.
Además, no tendrás problemas para comenzar, ya que viene preinstalado en Mac OS, en
Linux y en Windows 10. Tampoco es necesario ningún entorno de desarrollo para
ejecutarlo, como puede ser XAMP o similares, en el caso de PHP.
Realmente, no se trata de un lenguaje menor y es usado por grandes corporaciones como
Google. Al ser de software libre, es muy usado en esos terrenos, sobre todo por la
comunidad de GNU/Linux. Es un lenguaje todo terreno con un muy creciente uso en
varias áreas y que cuenta con un gran rendimiento.

Crecimiento de Python
¿Recuerdas qué situación ocupa Python en los distintos índices que
descubriste en las pantallas anteriores? ¿Entiendes ahora las razones de su
crecimiento? ¿Crees que será una buena opción los próximos años?
C O NT I NU A R
Ruby es un lenguaje de programación interpretado y orientado a objetos. Está inspirado
en lenguajes de programación como Python, Perl y Smalltalk. Se parece bastante por tanto
a Python en su filosofía de ser un lenguaje potente y legible en su sintaxis.
Creado por Yukihiro "Matz" Matsumoto en 1993, no lo publicaría hasta dos años más
tarde. Ruby es un lenguaje de código abierto que permite el desarrollo tanto en web
como en escritorio. Es muy empleado su framework Rails para el desarrollo de webs o
webapps. De hecho, se dio a conocer masivamente gracias al framework web Rails, que es
conocido junto a Ruby como Ruby On Rails o RoR.
Dispone de una gran comunidad de desarrolladores y colaboradores que lo respaldan y
dan soporte. Se trata de uno de los lenguajes de programación que mayor crecimiento
está experimentando en los últimos años.
El lenguaje de programación Ruby sigue el principio de la menor sorpresa, lo que implica
que debe comportarse de un modo que minimice la confusión de los usuarios
experimentados que lo usen. Este concepto queda muy claro en la siguiente cita de Matz:

Ruby
C O NT I NU A R
“Todo el mundo tiene un pasado personal. Alguien puede venir de Python,
otro de Perl, y pueden verse sorprendidos por distintos aspectos del
lenguaje. Entonces podrían decir estoy sorprendido por esta característica del
lenguaje, así que Ruby viola el principio de la menor sorpresa. Espera, espera. El
principio de la menor sorpresa no es solo para ti. El principio de la menor
sorpresa significa el principio de mi menor sorpresa. Y significa el principio
de la menor sorpresa después de que aprendes bien Ruby. Por ejemplo, fui
programador de C++ antes de empezar a diseñar Ruby. Programé
exclusivamente en C++ durante dos o tres años. Y después de dos años de
programar en C++, todavía me sorprendía”.
JavaScript (abreviado comúnmente JS) es un lenguaje de scripts interpretado del lado del
cliente creado por Brendan Eich en 1995. Javascript aporta dinamismo a las estáticas
páginas HTML y pueden, por ejemplo, crear efectos como animaciones o usarse para
modificar el estado de un elemento cuando un usuario haga clic con el ratón encima.
Quizá sea el lenguaje más popular y más usado para ejecutar del lado del cliente. Existen
una gran cantidad de frameworks con los cuales es posible realizar desarrollos realmente
impresionantes. Los más conocidos son jQuery, Backbone.js, Ember.js, Knockout.js o
Angular.js. Incluso es posible que se ejecute del lado del servidor, para ello se emplea su
framework Node.js.

JavaScript I
JavaScript está volviéndose un lenguaje de propósito general, y son muchos
los desarrolladores que comienzan a pensar en él como el futuro de la web.
El crecimiento de su uso es continuo y es un lenguaje que no debes pasar
por alto si vas a dedicarte a la programación de sitios web.
C O NT I NU A R
Hay quién lo confunde con Java y eso que no tienen parecido a excepción del nombre, que
se le dio como reclamo publicitario, haciendo ver que se trataba del "hermano menor" de
Java orientado al campo de los scripts.
No se puede decir que se trate de un lenguaje de programación sino de un lenguaje de
scripting. Fue diseñado en principio para dotar de funcionalidad adicional a las páginas
web y era ejecutado exclusivamente en el navegador, de modo que podía servir para
modificar la estructura de una página, agregar elementos de manera dinámica o para la
validación de formularios.

JavaScript II
Si quieres saber más sobre JavaScript puedes usar un tutorial muy bueno y
completo de W3schools y que es muy recomendable que ojees en el
siguiente enlace.
C O NT I NU A R
El lenguaje de programación C fue creado por Dennis Ritchie en 1972 en los laboratorios
Bell a partir del anterior lenguaje B que a su vez estaba basado en BCPL.
Es un lenguaje de programación de propósito general y se trata de uno de los lenguajes
más usados. Aunque es un lenguaje de alto nivel ya que es estructurado y cuenta con
sentencias y con funciones que simplifican su funcionamiento. Pero también ofrece la
posibilidad de programar a bajo nivel. Y es con esos comandos de bajo nivel lo que hacen
que este lenguaje sea extremadamente rápido, aunque complejo en su dominio.
Todas estas características hacen de este lenguaje, el adecuado para trabajar con sistemas
operativos, con controladores de dispositivos y con compiladores. Pero tiene el problema
de la falta de portabilidad, lo cual es una gran desventaja, ya que generalmente no es
posible pasar un programa de una arquitectura a otra.
El lenguaje de programación C es un lenguaje estructurado tal y como lo son Pascal,
Fortran o Basic. Sus instrucciones son muy parecidas a otros lenguajes, incluyendo
sentencias como if, else y bucles como for, do y while.
Una de las filosofías de la programación con el lenguaje C es que solo sean necesarias
muy pocas instrucciones en lenguaje máquina para traducir cada elemento del
lenguaje, sin que haga falta un gran soporte en tiempo de ejecución. Esto hace de C un
lenguaje muy demandado en ámbitos de sistemas en tiempo real donde la velocidad
tiene una gran importancia.

C
C O NT I NU A R
El lenguaje de programación C++ fue creado por Bjarne Stroustrup, en el año 1979. Al
comenzar a trabajar en el lenguaje, lo llamó C con clases. Stroustrup se fijó en varios
lenguajes para la creación del predecesor de C++, como en Simula, del que tomó la
programación orientada a objetos pero que era muy lento y en el lenguaje BCPL, que era
rápido, pero de bajo nivel.
El lenguaje de programación C++ es la evolución del lenguaje C. Le añade el paradigma de
la programación orientada a objetos e incluye plantillas y una gran biblioteca estándar
con una diversidad de funciones y estructuras de datos para hacer más sencillo el
desarrollo, aunque conservando alguno de los principios de C, como el uso manual de
memoria.
Es muy empleado en proyectos de programación gráfica, en videojuegos en 3D y en
aplicaciones de escritorio y al igual que ocurre con C, su alta optimización y velocidad hace
que este lenguaje sea muy adecuado en sistemas en tiempo real y con total control del
entorno.

C++
El lenguaje de programación C++ ha sido el lenguaje que fomentó el uso de la
programación orientada a objetos. De hecho, la gran mayoría de los lenguajes de hoy
en día tienen este tipo de programación gracias al lenguaje C++.
En algunos lenguajes de programación, el operador ++ es usado para incrementar el valor
sumándole 1. Eso implica una metáfora que indica que C++ va más allá que C, es una
versión mejorada.
C O NT I NU A R
Anders Hejlsberg lideró el proyecto de desarrollo de C# que culminaría en el 2000.
Deseaban crear un nuevo lenguaje de programación orientado a objetos. Hejlsberg ya
había colaborado anteriormente en el desarrollo de otros lenguajes de programación tales
como Turbo Pascal, Delphi y J++.
Este lenguaje de programación fue creado por Microsoft y está diseñado específicamente
para la plataforma .NET. Para nada está relacionado con C o C++ y se considera que es la
versión mejorada de Java de Microsoft. Hoy en día se encuentra disponible para
plataformas distintas a Windows, con lo que ha conseguido superar la desventaja inicial
de este lenguaje cuando en sus inicios solo podía ser usado en el sistema operativo de
Microsoft, Windows.
Fue un estándar por la ECMA con su ECMA-334 y también con la ISO en su ISO/IEC 23270.
Es el lenguaje adecuado para el desarrollo de aplicaciones de escritorio con Windows
Forms, de aplicaciones web con ASP.NET y de aplicaciones móviles nativas con
Windows Phone o híbridas con Xamarin. Posee una gestión automática de memoria y una
gran biblioteca de clases que proporciona .NET.
C# tomo su nombre heredado del signo #, que se lee sharp en inglés y en español se le
llama C almohadilla. Este símbolo es una metáfora ya que C# que musicalmente quiere
decir "do sostenido". El signo # quiere decir que la nota debe ser un semitono más alto,
haciendo alusión a su superioridad con respecto a C++. Incluso se dice que el símbolo # es

C#
la unión de cuatro símbolos +, luego si C++ tiene tan solo dos, también es indicador de su
superioridad.
C O NT I NU A R
Java es un lenguaje de programación creado por James Gosling y una plataforma
informática comercializada por primera vez en 1995 por Sun Microsystems que
posteriormente fue adquirido por Oracle en 2009. Incluye aspectos como el uso de
referencias en lugar de los complicados punteros, hace una gestión automática de
memoria y uso de excepciones.
Se puede decir que hoy en día Java es la plataforma más extendida en el entorno
empresarial. Es una tecnología muy extendida, madura y popular que cuenta con
innumerables herramientas de todo tipo. Las plataformas de programación más usadas
en el desarrollo con Java son Eclipse y Netbeans.
El lenguaje de programación Java se tiene cinco características de gran importancia:

Java
Portabilidad
Su portabilidad. Permite la ejecución de un mismo programa en múltiples sistemas operativos. Ello
permite que
una vez escrito el programa, se pueda ejecutar en cualquier dispositivo (su conocido write once,
run anywhere), es
decir, que el código ejecutado en una plataforma no tendrá que ser recompilado para ejecutarla en
otra.

Soporte
Tiene soporte para trabajo en red.

Ejecutar código en sistemas remotos


Puede ejecutar código en sistemas remotos de manera segura.
Orientada a objetos
Usa el paradigma de la programación orientada a objetos.

Fácil uso
Es de muy fácil uso, tiene una curva de aprendizaje muy poco pronunciada y toma lo mejor de
otros lenguajes
orientados a objetos como C++.
Muchas de las aplicaciones y de los sitios web no funcionarían sin tener Java instalado y
cada día son más, ya que Java ha resultado ser un lenguaje rápido, seguro y fiable.
Aunque su velocidad no es nada comparable a C ni a C++.
C O NT I NU A R

Apple introdujo Swift en 2014 como un nuevo lenguaje de programación para el


desarrollo de sus dispositivos iOS, OS X, Apple TV y Watch OS. Está basado en distintos
lenguajes, siendo un lenguaje multiparadigma y más fácil de usar que Objective-C.
Proporciona una rápida ejecución y desde su propio sitio web oficial presumen de ser
hasta 2,6 veces más veloces que Objective-C y hasta 8,4 veces más veloces que Python 2.7.
Uno de sus principios fundamentales es la seguridad y evita muchos errores comunes en
otros lenguajes, como el acceso a referencias inválidas. Puede interactuar con Objective-C
y es posible el uso de ambos en un mismo proyecto, por lo que viene a ser un
complemento de Objective-C.

Swift I
C O NT I NU A R
En diciembre de 2015 Apple lanzó la comunidad de código abierto Swift, así
como otras herramientas y recursos que incluyen Swift.org, un sitio
dedicado a la comunidad de código abierto Swift; repositorios de código
fuente público; soporte de plataforma para todas las plataformas de Apple y
Linux, etc.
A pesar de ser un lenguaje de programación de reciente creación Swift goza de bastante
popularidad. La referencia anterior de Apple en el mundo de la programación era
Objective-C pero Swift gana cada día más desarrolladores para la programación en iOS,
iPad o MacOS.
Swift es un lenguaje de programación enfocado para aquellos que quieran iniciarse a
programar y también para el desarrollo de apps móviles. En resumen, Swift es un
lenguaje rápido y eficaz que ofrece información en tiempo real y es compatible con
código escrito en Objective-C. Ahora bien, Swift puede ofrecer más seguridad, ahorrar
tiempo y crear apps aún mejores.

Swift II
C O NT I NU A R
Swift es un lenguaje de programación gratis y de código abierto, y se
encuentra bajo la licencia libre de Apache 2.0. ¿Sabías que puedes consultar
las novedades de cada una de las actualizaciones en la página web What's
new in Swift?
Kotlin es, desde el año 2017, el lenguaje de programación reconocido oficialmente por
Google para el desarrollo de aplicaciones Android. JetBrains dio a conocer este lenguaje
en el 2011 con el que trataba de sustituir a Java en los proyectos Android. A día de hoy va
sobrepasando a Java en el desarrollo de aplicaciones Android y tanto Kotlin como Java son
lenguajes de programación oficiales para Android.
Se crea con la base de las características de Scala, pero sin la penalización del tiempo de
compilación. En 2012 pasó a ser de código abierto bajo Licencia Apache. Finalmente, su
primera versión estable, Kotlin 1.0, fue lanzada el 15 de febrero de 2016. Kotlin es un
lenguaje orientado a objetos, fuertemente tipado, que se ejecuta en la máquina virtual
de Java (Java Virtual Machine, JVM) lo que hace que, además, sea compatible con Java.
Podrás usar Kotlin en el servidor, en los sitios web, en iOS, etc.

Kotlin
Todas esas características de Kotlin y la versatilidad en el desarrollo de
código significan una gran ventaja para Android y, por tanto, tiene el
respaldo de Google, lo que ha dado pie a que Android Studio, que también
fue creado por JetBrains, esté totalmente adaptado para el uso de Kotlin.
Además, posee una tenue curva de aprendizaje además de la gran cantidad
de recursos disponibles para aprender este lenguaje y que podrás encontrar
en la propia web oficial.
C O NT I NU A R
El lenguaje de programación Visual Basic es uno de los lenguajes de programación que
emplea una interfaz visual, de modo que te permite programar mediante un entorno
gráfico. Puedes realizar una multitud de acciones sin necesidad de escribir
código, simplemente interactuando con el ratón sobre la pantalla. Visual Basic fue
desarrollado por Alan Cooper para Microsoft. Es una versión muy mejorada de BASIC.
Fue presentado en 1991, con el firme objetivo de simplificar la programación a través de
un ambiente gráfico para la creación de interfaces gráficas y para la propia programación.
Esto facilita en gran medida la realización de tareas complejas en poco tiempo y es muy
sencillo de aprender.
De este lenguaje de programación han surgidos algunos otros derivados, como VBScript.
Antes de que Microsoft lanzara la plataforma .NET en 2003, para desarrollar programas
de escritorio y ASP para desarrollar páginas web, lo más habitual era usar Visual Basic
6.0.

Visual Basic
C O NT I NU A R
En las páginas del sitio web oficial de Microsoft puedes encontrar manuales
muy interesantes para aprender Visual Basic, te recomiendo que le eches un
vistazo.

Consejos para un programador


Ya conoces una gran cantidad de distintos lenguajes de programación así como sus
características principales. Es hora de que escojas el tuyo y comiences a programar. Pero antes
es interesante que dediques unos minutos a leer y a reflexionar sobre los siguientes consejos:
• El primero y más importante es practicar. A programar no se aprende estudiando teoría,
se aprende programando. Así empezarás a encajar todas las piezas y te irás sintiendo cada vez
más cómodo y seguro.
• Experimenta con el diseño del software, las secuencias, los bucles, etc.; practica con cada
uno de ellos para asegurarte de que comprendes y dominas todos.
• Escoge una plataforma de desarrollo apropiada para el lenguaje de programación que
emplees.
• Usa los recursos que podrás encontrar en Internet como cursos, manuales o
videotutoriales.
• Es interesante que colabores en algún proyecto de Software Libre, donde podrás
aprender interesantes aspectos, como el del desarrollo colaborativo y podrás interactuar con
C O NT I NU A R
otros desarrolladores más experimentados.
• No titubees en preguntar tus dudas, recurre si así lo deseas, a foros donde seguro
responderán a todas tus dudas.
• Ojea otros códigos. Eso te ayudará a entender mejor el uso de algunas estructuras de código
y abrirá un poco tu mente.
• Apóyate en los libros sobre programación. Hay muy buenos libros con ejemplos en los que
podrás aprender a programar o a resolver tus dudas.
• Repasa todos tus códigos y comprueba que no tenga ningún tipo de error.
• No pases mucho tiempo seguido con un mismo problema, si te ocurre algo así, levántate
y da un paseo. Refresca tu mente para volver más descansado mentalmente y ser capaz de ver
claramente lo que antes no podías ver.

Recapitulación
Hasta este momento has aprendido que la elección del lenguaje de programación no es
nada simple y dependerá de varios factores.
Conoces también ahora que la programación es todo aquel proceso que cubre el propio
desarrollo del código, sus pruebas, las depuraciones y si fuera necesario, sus
compilaciones y su mantenimiento.
No solo eso, sino que además conoces ahora que los lenguajes del lado del cliente te
permiten mostrar el contenido, mientras que los lenguajes del lado servidor te servirán
para generar y administrar contenidos, usuarios, etc.
También has aprendido que existen muchos factores que te ayudarán a escoger el
lenguaje de programación más adecuado, como la tipología del proyecto, si es
multiplataforma, el conocimiento del lenguaje por los componentes del proyecto, los
requisitos del cliente, el futuro del lenguaje y las características del propio lenguaje.
Además, conociste también varios indicadores de la popularidad de los lenguajes de
programación y tablas indicativas con los lenguajes de programación.
Por último, conociste un poco más en profundidad HTML y CSS, PHP, Python, Ruby,
JavaScript, C, C++, C#, Java, Swift, Kotlin y Visual Basic.
C O NT I NU A R
Autoevaluación
Pregunta
01/03
¿Cómo se les llama también a los lenguajes del lado del cliente?
Front-end.
Back-end.
Middle-end.
Ninguno de los anteriores.
Pregunta
02/03
¿Cuál de los siguientes NO es un factor que te ayude a escoger el lenguaje de
programación adecuado?
Tipología del proyecto.
Si es multiplataforma.
Si está en tu idioma.
Los requisitos del cliente.
Pregunta
03/03
¿Quién creó Java?
Alan Cooper.
James Gosling.
Dennis Ritchie.
Yukihiro "Matz" Matsumoto.
Java es uno de los lenguajes de programación más empleados en el ámbito de los
negocios, prueba de ello es su versión J2EE con la que podrás realizar proyectos
de gran envergadura.
En este epígrafe descubrirás cómo usar el estándar J2EE, pero antes podrás hacer un
repaso sobre los aspectos básicos de Java y terminarás aprendiendo sobre los JSP y los
servlets ¿te apetece? Pues adelante!
Java 2 Platform, Enterprise Edition o J2EE se conoce hoy en día simplemente como Java
Platform, Enterprise Edition o Java EE. Se traduce de manera informal como Java
Empresarial o Java de los Negocios. Es una de las plataformas de programación que
forman parte de Java y sirve para desarrollar aplicaciones con Java.

3. Componentes del Estándar J2EE: Servlets y


JSP
Ofrece el uso de arquitecturas de N capas distribuidas y se apoya en componentes
modulares que se ejecutan sobre un servidor de aplicaciones. Este servidor de
aplicaciones es capaz de gestionar transacciones, la seguridad, la escalabilidad, la
concurrencia y todos los componentes desplegados, por lo que los programadores solo
tendrán que centrarse en la lógica de negocio en lugar de las tareas de mantenimiento de
bajo nivel.
En Java EE podrás encontrar varias especificaciones de API, como JDBC, RMI, JMS, servicios
Web, XML, etc. y define el modo de usarlos. Además configura algunas especificaciones
únicas para Java EE para componentes como Enterprise JavaBeans, servlets, portlets,
JavaServer Pages y otras diversas tecnologías de servicios web.
C O NT I NU A R
Puedes acceder a la página oficial de IBM para encontrar unos tutoriales de
alto interés sobre Java EE por medio de este enlace.
Además, tiene el apoyo de una gran cantidad de fabricantes que apoyan esta
especificación de máquina virtual. La plataforma Java es un conjunto de una diversidad de
tecnologías y cada una de ellas aporta una pieza dentro del entorno de desarrollo o de
ejecución en tiempo real. Es posible, por ejemplo, interactuar con la máquina virtual de
Java y con el conjunto estándar de bibliotecas.
Las aplicaciones desarrolladas con Java pueden emplearse de muy diversas maneras, una
de ellas es la de ir incrustada en una página web. El desarrollo de aplicaciones hace uso
de una serie de herramientas de Java conocidas como kit de herramientas de desarrollo
de Java (Java Development Kit, JDK).
Las aplicaciones de Java se compilan a bytecode y este bytecode podrá ejecutarse en
cualquier máquina virtual Java sin importar la arquitectura que tenga la computadora
donde se ejecute.

Conceptos básicos de Java


Java es un lenguaje de programación de propósito general orientado a objetos y fue
desarrollado por Sun Microsystems en 1995. Java va más allá del lenguaje de programación e
incorpora una máquina virtual Java que te permitirá ejecutar código compilado Java,
independientemente de la plataforma que emplees, ya sea en cuanto al sistema operativo
como al hardware donde se ejecute.
Además, Java tiene dos características que debes conocer. Pulsa en estos botones para
descubrirlas.
C O NT I NU A R
Independencia de la plataforma
Otra característica importante es la
de la independencia de la plataforma,
lo que significa que todos los
programas desarrollados en Java
podrán ser ejecutados en
cualquier tipo de hardware. Ese es
Compilación al vuelo
Otra de las características resaltables
del lenguaje de programación Java es
la compilación al vuelo (Just In Time,
JIT), que convertirá el bytecode a
código nativo cuando se ejecute la
aplicación.
Java es un lenguaje interpretado aunque, para ser precisos, habría que decir que es
interpretado y compilado. La seguridad y portabilidad se deben a que la compilación
final se lleva a cabo en la máquina local.
En los variados entornos para mejorar su rendimiento se emplea un compilador en la
última fase de compilación, de modo que, una vez que se tenga el bytecode, en vez de
interpretarlo, se compilará, generando el código nativo para esa plataforma determinada
donde se está compilando. Ya después podrá ejecutarse, pero esa compilación se deberá
hacer cada vez que se desee ejecutar el programa.

Independencia de la plataforma y JIT


El bytecode es el único código realmente independiente. A estos
compiladores se les conoce como compiladores al vuelo. El bytecode no
será operativo hasta que se emplee en un entorno de ejecución mediante
su máquina virtual Java de tal entorno.
C O NT I NU A R
Acabas de ver en la pantalla anterior que la última compilación se realizará en un
dispositivo de una determinada plataforma, lo cual exime al desarrollador de la
responsabilidad de disponer de varias fuentes para cada una de las plataformas. La
interpretación también conseguirá que los datos sean incorporados en tiempo de
ejecución, logrando ese comportamiento dinámico de Java.
La portabilidad de Java se consigue mediante el compilador Java, que compila su
código a un fichero objeto de formato independiente de la arquitectura de la
máquina en la que se vaya a ejecutar. De modo que cualquier máquina que disponga
del sistema de ejecución podrá ejecutar ese código objeto, independientemente de
la máquina en que ha haya sido generado.

El compilador y la máquina virtual de Java


C O NT I NU A R
Resumiendo, el código fuente Java será compilado y se obtendrá un código
de bytes de alto nivel independiente de la máquina, el bytecode. Este
código está diseñado para ejecutarse en una máquina hipotética que es
implementada por un sistema runtime, que sí es dependiente de la
máquina. De modo que lo único que es dependiente del sistema es la
Máquina Virtual Java y las librerías fundamentales. El compilador Java
generará el bytecode que será ejecutable en cualquier dispositivo que
cuente con una máquina virtual de Java.
En realidad una aplicación estándar Java, una vez compilada, puede ser ejecutada sobre
cualquier sistema para el que haya disponible alguna versión del entorno de ejecución de
Java, conocido como JRE. Asimismo, también es posible compilar para una plataforma
diferente.
Hay dos partes bastante diferenciadas dentro de la plataforma Java que son muy
interesantes y que debes conocer. Pulsa en los botones para descubrirlas:

JDK y JRE
Entorno de ejecución de Java (Java
Runtime Environment, JRE)
Aportan el entorno necesario para
poder ejecutar cualquier aplicación
Java. Entre los componentes del JRE,
están la máquina virtual Java que
se encargará de ejecutar el bytecode,
C O NT I NU A R

de Java (Java Development Kit,


JDK)
Conjunto de todas las herramientas
que necesitarás para poder
desarrollar las aplicaciones Java. El
Todas las herramientas incluidas en el JDK, así como los servicios que ofrece
el JRE, dependerán de la edición de Java que se use.
Kit de herramientas de desarrollo
El objetivo principal de la creación del lenguaje de programación Java era hacerlo portátil,
simple y seguro. Además de esto, también hay algunas características importantes que
juegan un papel central en la popularidad de este lenguaje. Algunas de las características
principales del lenguaje de programación Java las puedes conocer pulsando en las
siguientes flechas laterales:

Características de Java
Simpleza
Ofrece toda la funcionalidad que ofrece cualquier lenguaje potente, pero omitiendo las
características más confusas y menos usadas de estos.
Por ejemplo, no responsabiliza al desarrollador de la liberación de memoria. Con ello
elimina buena parte de los errores que se cometen en otro lenguajes, como es el caso de
los punteros con C.
1
Orientación a objetos
Al igual que C++, Java trabaja con sus datos como objetos y con interfaces a esos
objetos.
Soporta las tres características propias del paradigma de la orientación a objetos:
encapsulación, herencia y polimorfismo.
2
Distribuido
Java posee funcionalidades de interconexión TCP/IP y existe una gran cantidad de
librerías de rutinas con las cuales podrás acceder e interactuar con protocolos como
HTTP y FTP .
3
Robustez
Java lleva a cabo diversas comprobaciones en busca de problemas tanto en tiempo de
compilación como en tiempo de ejecución.
De este modo se detectan los errores en el ciclo de desarrollo lo antes posible.
4
Independiente de la arquitectura
El compilador Java compila su código a un fichero objeto de formato independiente de
la arquitectura de la máquina en que se ejecute.
De modo que cualquier máquina que tenga el sistema de ejecución podrá ejecutar ese
código objeto, sin importar la máquina en la que haya sido generado.
5
Seguro
Java omite características como los punteros o el casting implícito que hacen algunos
lenguajes y, de ese modo, se eliminan los problemas del acceso ilegal a la memoria.
Además, cuando se usa Java para crear un navegador, se combinan las características del
lenguaje con protecciones de sentido común aplicadas al propio navegador.
También el código Java se comprueba mucho antes de ejecutarse en una máquina.
6
Portable
Como dice el famoso slogan de Java de write once, run anywhere, que significa que una
vez escrito un programa, este podrá ejecutarse en cualquier dispositivo.
7
Interpretado
Java es tanto interpretado como compilado. El código fuente se compila generando el
bytecode. Y ese bytecode se puede ejecutar sobre cualquier plataforma. Tan solo hace
falta el runtime, que sí es dependiente de la máquina y del sistema operativo.
8
Multihilo
Java permite muchas actividades simultáneas en un programa lo que permite un mayor
rendimiento interactivo y mejor comportamiento en tiempo real.
9
C O NT I NU A R
Dinámico
Explicado con simpleza, si tu sistema ejecuta una aplicación y encuentra en falta una
pieza, Java es capaz de traer automáticamente cualquier pieza que el sistema
requiera para funcionar.
10
En caso de añadir el Slider predeterminado de la herramienta en la pantalla
de bloques, tenemos que fijarnos en la pantalla de edición y ocultar tanto
la 'Introducción' como las 'Conclusiones'. De todas formas se puede copiar
esta pantalla de curso a curso.
Son muchos los lenguajes de programación que gestionan de forma dinámica la
memoria en tiempo de ejecución y con ello, simplifican mucho la labor del programador,
ya que evitan que tenga que ser responsable de ese tipo de tareas, tal y como pasa, por
ejemplo, con el uso de los punteros en los lenguajes C y C++.
Por tanto, no es necesario destruir explícitamente un objeto, ya que Java maneja la
liberación de manera automática. Se llama recolección de basura a estas técnicas de
gestión de la memoria. Si los programas no liberaran la memoria podrían acabar
bloqueándose al quedarse sin memoria disponible en el sistema y se dice que estos
programas tienen pérdidas de memoria.
En Java esa recolección se realiza automáticamente durante toda la vida útil del programa.
De modo que el desarrollador no tiene la obligación de ir liberando la memoria para evitar
Recolector de basura de Java
El recolector de basura es una función que administra la memoria automáticamente logrando
que la liberación de objetos sea gestionada por Java en lugar de por el desarrollador. En el
lenguaje de programación Java, la asignación dinámica de objetos se logra usando el nuevo
operador. Una vez que ha sido creado un objeto utilizará algo de memoria y permanecerá
asignado la memoria mientras haya referencias para el uso de tal objeto. De esta manera,
cuando no quede ninguna referencia a un objeto, se entenderá que este ya no es necesario, y la
memoria, que estaba antes ocupada por el objeto, podrá ser liberada.
problemas de pérdidas de memoria. En cambio, en otros lenguajes, como el lenguaje C, es
una responsabilidad que recae sobre el programador, que será quien deba desasignar la
memoria mediante la función free.
C O NT I NU A R
Actualmente se utiliza Java para prácticamente todos los campos del desarrollo de
software. Gracias a sus características se puede usar en función de los distintos requisitos
de cada negocio, especialmente cuando necesitamos desarrollar una aplicación segura
que sea fácilmente escalable.
Además, gracias a sus potentes funciones de seguridad, que ya has visto en las pantallas
anteriores, puede ejecutarse en cualquier plataforma. De hecho, la seguridad de este
lenguaje le ha convertido en el preferido a la hora de desarrollar aplicaciones bancarias,
que siempre están especialmente preocupadas por este aspecto.
En las siguientes pestañas puedes encontrar los tres tipos de aplicaciones principales que
puedes desarrollar con Java:
Aplicaciones cliente
Se trata de aquellas aplicaciones que desarrollas que tan solo se ejecutarán en tu ordenador.
Bastará con tu ordenador, ya que no será necesaria ningún tipo de conexión a otro equipo
servidor.
Ejemplos de este tipo de aplicaciones podrían ser una hoja de cálculo, un procesador de textos,
el calendario, etc.

Aplicaciones que puedes realizar con Java


A PL ICA CIO N E S CL IE N T E
A PL ICA CIO N E S
CL IE N T E / S E R V IDO R . . .
A PL ICA CIO N E S S E R V IDO R CO N
JA V A
Aplicaciones cliente/servidor con Java
En este caso el programa se ejecutará en tu ordenador pero también se podrá ejecutar si
requiriera de la conexión a otro ordenador que actúe como servidor, mientras que tu propio
ordenador actúa como cliente.
Ejemplos de este tipo de aplicaciones son aquellas conexiones remotas a una base de datos, a
un servidor de descargas o cualquiera de aquellas que impliquen un servicio que vayas a
consumir desde tu ordenador.
Aplicaciones servidor con Java
Generalmente serán aplicaciones web que se ejecutan desde un servidor, el cual devolverá
páginas web a cada uno de los clientes que las soliciten.
A PL ICA CIO N E S CL IE N T E
A PL ICA CIO N E S
CL IE N T E / S E R V IDO R . . .
A PL ICA CIO N E S S E R V IDO R CO N
JA V A
A PL ICA CIO N E S CL IE N T E
A PL ICA CIO N E S
CL IE N T E / S E R V IDO R . . .
A PL ICA CIO N E S S E R V IDO R CO N
JA V A
Ejemplos de este tipo de aplicaciones podrían ser las páginas web hechas en JSP o con servlets
de Java.
C O NT I NU A R
Configurar la plataforma Java afectará fundamentalmente a los servicios que ofrece esta, a
las herramientas que incorpora y a otros aspectos menos visibles, como la manera de
funcionar de la JVM.
Atendiendo a la documentación actual de Oracle puedes apreciar las siguientes cuatro
plataformas que conocerás al pulsar en estas pestañas:
Es la edición estándar y la más difundida de todas las plataforma Java.
Incluye todos los elementos que necesitarás para poder para desarrollar aplicaciones de
escritorio con o sin interfaz gráfica de usuario, el acceso al sistema de archivos, la
comunicación a través de redes, la concurrencia y otros tipos de servicios básicos.

Las distribuciones de Java


JA V A S E JA V A FX JA V A E E JA V A ME
Se trataba de una alternativa a Java SE para desarrollar proyectos de tipo aplicaciones de
Internet enriquecidas (Rich Internet Applications, RIA), con un núcleo más ligero y fácil de
distribuir, capacidad de aceleración 3D aprovechando la GPU, servicios avanzados para
producción de gráficos y animaciones, y un mecanismo simplificado para el diseño de
interfaces de usuario.
Actualmente, JavaFX es parte de Java SE desde su versión 7.
Se trata de la edición empresarial o de negocios y está enfocada hacia el desarrollo de
soluciones software que se ejecutan desde un servidor de aplicaciones.
JA V A S E JA V A FX JA V A E E JA V A ME
JA V A S E JA V A FX JA V A E E JA V A ME
Va mas allá de las capacidades de Java SE y añade funcionalidades muy importantes, como son
los servicios para gestionar la persistencia de objetos en bases de datos, la invocación
remota de métodos, poder crear aplicaciones con interfaz de usuario web, etc.
Es la plataforma Edición Micro.
Está dirigida al desarrollo de aplicaciones que tendrán que ejecutarse en sistemas con
recursos limitados, como pueden ser, por ejemplo, los teléfonos móviles, los
electrodomésticos, los sensores de domótica y los dispositivos para entornos empotrados como
la Rasperry.
JA V A S E JA V A FX JA V A E E JA V A ME
C O NT I NU A R
Hoy en día, la economía y la tecnología crean la necesidad de soluciones de gestión de
información mucho más veloces, eficaces y a mayor escala. La especificación J2EE cubre
estos objetivos proporcionando un modelo de programación que mejora la productividad
del desarrollo; establece un estándar para la plataforma, de modo que sea favorable el
alojar aplicaciones de empresa; y asegura la portabilidad de las aplicaciones.
J2EE da soporte todos aquellos desarrollos basados en componentes de las aplicaciones
de empresa multinivel. Para ello, un sistema de aplicación J2EE debe de contemplar estos
niveles que puedes conocer si pulsas en las siguientes imágenes:

J2EE
Nivel de cliente
Contempla los componentes web
como, por ejemplo, los servlets y JSP
(Java Server Pages) o las aplicaciones
Java autónomas que aportan una
interfaz dinámica para el nivel medio.

Nivel medio
Se trata del lado del servidor, el
nivel medio, donde los enterprise
beans y los servicios web encapsulan
toda la lógica empresarial que es
necesario distribuir para la aplicación.
Todos los componentes a nivel de
Nivel de datos de empresa
Aquí será donde se almacenen y
conserven los datos de la
empresa, generalmente a través de
una base de datos relacional.
Las aplicaciones J2EE se componen de componentes, contenedores y
servicios. Los componentes son a nivel de aplicación. Los componentes web,
como los servlets y los JSP, ofrecen respuestas dinámicas a peticiones
procedentes de clientes de una página web. Por otro lado, los componentes
EJB contienen lógica empresarial y están del lado del servidor en las
aplicaciones de empresa. Los contenedores de componentes web y EJB
alojan servicios que dan soporte a módulos web y EJB.
C O NT I NU A R
A continuación, se muestran varias de tecnologías de la plataforma Java EE. Clica sobre el
texto de las imágenes para acceder a la página oficial de las respectivas plataformas:

Especificaciones de J2EE
Las especificaciones son las normas y detalles de cada una de las tecnologías presentes dentro
de la plataforma Java EE. El conjunto de reglas y normas que establecen el modo de desarrollar el
producto, de modo que garantice el que una aplicación desarrollada siguiendo tales
especificaciones de Java EE pueda desplegarse y ejecutarse sin problemas.
TEnterprise JavaBeans (E JB) Java Servlet JavaServer Page ( JSP) JavaServer Pages Standard
Tag Library ( JSTL)
C O NT I NU A R
JavaServer Faces ( JSF) Java Message Service ( JMS) Java Transaction API ( JTA) JavaMail API y JavaBeans
Activation Framework ( JAF)
Tecnologías XML ( JAXP, JAXRPC,
JAX-WS, JAXB, SAA J,
JAXR)
JPA, JDBC API Java Naming and Directory
Interface ( JNDI)
Java Authentication and
Authorization Service
( JAAS)

Sigue avanzando en el curso para aprender algo más sobre los Java servlets
y las Java Server Pages. Son los últimos elementos que aprenderás en este
epígrafe, así que adelante.
En comparación con los CGI, los servlet son mucho más sencillos de usar. Además, son
más eficientes, ya que se ejecuta un hilo por cada petición y no un proceso completo. Los
servlets son más potentes y al ser desarrollados en Java, son portables. Mediante los
servlets podremos procesar, sincronizar y coordinar las múltiples peticiones de los clientes
o reenviar las peticiones hacia otros servlets o hacia otros servidores.
Generalmente, cuando se habla de servlets, también se habla de las JSP y viceversa. Se
trata de conceptos muy relacionados entre ellos. De modo que, para trabajar con ambos,
se deberán tener en cuenta los recursos siguientes que puedes conocer al pulsar en estas
imágenes:

Servlets
Un servlet es un programa Java que se aloja y se ejecuta desde un servidor web y sirve para
generar o dar servicio desde páginas web. Mediante los servlets se pueden generar páginas
dinámicamente, en base a muy diversas fuentes, como con los datos que proporcione el
usuario a través de la propia web, de otras fuentes de información variable o de interacciones con
bases de datos.
Servidor web
El servidor web será el contenedor
que dé soporte tanto a servlets
como a JSP. Para realizar esos
servidores web puedes usar
herramientas como Apache Tomcat,
GlassFish, Resin, JRun, Java Web Server
o BEA WebLogic.
Las librerías
Tendrás que emplear las librerías de
las clases necesarias para poder
trabajar con servlets y JSP.
Generalmente las encontrarás
en archivos comprimidos de tipo
JAR en un directorio .LIB del
Documentación
No es necesaria la documentación
sobre la API de servlets y JSP, pero es
muy recomendable disponer de tal
información a la hora de programar.
C O NT I NU A R
No dejes de ver este vídeo, ya que te explicará de manera sencilla qué son los servlets, los
niveles de seguridad, cómo ejecutarlos, etc.
Seguro que será de gran ayuda para comprender muchos de los conceptos que has
estudiado hasta ahora en este epígrafe.
Además, en la pantalla siguiente deberás contestar una serie de preguntas sobre su
contenido.
¿Te la vas a perder? ¿No? ¡Pues dale al play!

¿Qué es un servlet?
Fuente de vídeo: https://www.youtube.com/watch?v=tj7w1wFvr7M
C O NT I NU A R
Autoevaluación
Pregunta
01/03
Los servlets son clases de Java pero con propiedades o atributos HTTP.
Verdadero.
Falso.
Pregunta
02/03
¿Qué no podrás encontrar en el fichero xml de mapeo del servlet?
Dónde se almacena el servlet.
Cómo se llama el servlet.
Cómo destruir el servlet.
Cómo puedes referirte al servlet.
Pregunta
03/03
¿Para qué sirve el HttpServletRequest?
Para destruir datos.
Para capturar datos.
Para combinar datos.
Ninguna de las anteriores.
La tecnología JSP se usa para desarrollar aplicaciones web al igual que la tecnología
servlet. Podría considerarse como una extensión de los servlets, ya que proporciona más
funcionalidades que servlet, como lenguaje de expresión, JSTL, etc.
Una página JSP consta de etiquetas HTML y de etiquetas JSP. Las páginas JSP son más
fáciles de mantener que los servlet, ya que es posible separar el diseño y el desarrollo en
ellas. Ofrece varias características adicionales, como el lenguaje de expresión, etiquetas
personalizadas, etc.
JSP es una tecnología que te permitirá desarrollar páginas web dinámicas basadas en
HTML y XML, entre otros tipos de documentos. JSP es parecido a PHP, pero usando el
lenguaje de programación Java.
Necesitarás un servidor de aplicaciones para poder desplegar y ejecutar Java Server Pages
como, por ejemplo, Apache Tomcat, GlassFish o Jetty.
El rendimiento que ofrece una página JSP es similar al que tendría el servlet equivalente,
ya que su código será compilado como cualquier otra clase Java. La máquina virtual
compilará dinámicamente a código de máquina las partes de la aplicación que lo
necesiten. Esto provoca que JSP ofrezca un gran desempeño y sea más eficiente que otro
tipo de tecnologías web que ejecutan el código de un modo puramente interpretado.

JSP
JSP usa Java, que es un lenguaje de propósito general que va más allá del mundo web y
que permite crear clases que manejen la lógica de negocio y el acceso a datos de un modo
muy eficiente. De modo que podrás separar las aplicaciones web en niveles,
separando la parte encargada de generar el documento HTML en el archivo JSP.
JSP hereda la portabilidad de Java, por lo que podrá ser ejecutado en cualquier tipo de
plataforma.
C O NT I NU A R
Este vídeo te explicará qué son los JSP, para qué sirve, en qué se diferencia de los HTML,
como introducir los script, etc.
Atiende a las explicaciones del vídeo porque seguro que te ayudan a asimilar muchos de
los contenidos que has estudiado hasta ahora en este epígrafe.
Además, en las pantallas siguientes deberás responder a una serie de preguntas sobre su
contenido, así que no dejes de verlo.

¿Qué es un JSP?
Fuente de vídeo: https://www.youtube.com/watch?v=au-r5ZCLQsU
C O NT I NU A R
Autoevaluación
Pregunta
01/03
¿Dónde se ejecuta el JSP?
¿Dónde se ejecuta el JSP?
En la máquina virtual de Java.
En un servidor de aplicaciones.
Ninguna de las anteriores.
Pregunta
02/03
Puedes usar código JAVA en un JSP.
Verdadero.
Falso.
Pregunta
03/03
¿Qué símbolos se usan para introducir los scripts?
<% y %>
<< y >>
<jsp> y >/jsp>
Ninguna de las anteriores.

Consejos para un programador


Ya sabes que Java EE es una herramienta muy empleada en las empresas y, por lo tanto, son muy
demandados los programadores que dominan esta materia.
Pues bien, si quieres trabajar desarrollando con Java EE, hay una certificación de Oracle que te
abrirá las puertas de las empresas desarrolladoras de software, se trata del "Oracle Certified
Professional, Java EE 7 Application Developer"
Se trata de un examen de 150 minutos en el que tendrás que acertar el 66% de las preguntas
para aprobar y tiene un coste de 220 €.
El examen Oracle Java EE 7 Application Developer valida la capacidad de programación para el
desarrollo de aplicaciones utilizando la plataforma Java Enterprise Edition 7. Está dirigido a
desarrolladores, arquitectos e ingenieros de software Java frontend y backend de los niveles
intermedio al avanzado, que tengan experiencia utilizando la tecnología Java EE 7 para crear
interfaces de usuario basadas en la web utilizando JavaScript junto con JSP, JSF, servlets y que
manejen la lógica empresarial.
Esta certificación evalúa la competencia en la programación Java EE y evalúa la capacidad de:
C O NT I NU A R
• Comprensión de la arquitectura Java EE.
• Gestión de la persistencia utilizando entidades JPA y validación con Bean.
• Implementación de la lógica de negocios utilizando EJB.
• Uso de la API de Java Message Service.
• Implementación de servicios SOAP utilizando las API JAX-WS y JAXB.
• Creación de aplicaciones web Java utilizando servlets y JSP.
• Implementación de los servicios REST usando la API JAX-RS.
• Desarrollo de aplicaciones Java usando WebSockets.
• Desarrollo de aplicaciones web utilizando JSF.
• Aplicaciones Java EE 7 seguras.
• Uso de CDI Beans, API de concurrencia y API de Batch.
Lograr esta certificación lleva años de trabajo y experiencia, pero es una acreditación de tus
conocimientos que te servirá para posicionarte en el mercado laboral de manera muy ventajosa.

Recapitulación
Hasta este momento has aprendido que Java es un lenguaje de programación de propósito
general orientado a objetos y que fue desarrollado por Sun Microsystems en 1995.
Conoces también ahora que Java es un lenguaje interpretado, aunque para ser precisos,
habría que decir que es interpretado y compilado. La seguridad y portabilidad se deben a que
la compilación final se lleva a cabo en la máquina local.
No solo eso, sino que además conoces ahora que hay dos partes bastante diferenciadas
dentro de la plataforma Java, que son muy interesantes y que debes conocer: entorno de
ejecución de Java y kit de herramientas de desarrollo de Java.
También has aprendido que alguna de las características principales del lenguaje de
programación Java son las siguientes: simpleza, orientación a objetos, distribuido, robustez,
independiente de la arquitectura, seguro, portable, interpretado, multihilo y dinámico.
Además, has visto que el recolector de basura es una función que administra la memoria
automáticamente y que la liberación de objetos será gestionada por Java en lugar de por el
desarrollador.
Supiste que atendiendo a la documentación actual de Oracle puedes apreciar las siguientes
cuatro plataformas: Java SE, JavaFX, Java EE y Java ME.
También sabes ahora que un servlet es un programa Java que se aloja y se ejecuta desde
un servidor web y sirve para generar o dar servicio desde páginas web.
Por último, conociste que JSP es una tecnología que te permitirá desarrollar páginas web
dinámicas basadas en HTML y XML, entre otros tipos de documentos.
CONT I NU A R
Autoevaluación
Pregunta
01/03
¿Cuál de las características de Java es la que permite que pueda ejecutarse en
cualquier
dispositivo?
Seguro.
Portable.
Multihilo.
Distribuido.
Pregunta
02/03
¿Qué plataforma de Java es la más indicada para una Raspberry?
Java SE.
JavaFX.
Java EE.
Java ME.
Pregunta
03/03
¿Dónde se ejecutan los servlets?
En tu máquina local.
En tu propio navegador web.
En un servidor web.
Ninguna de las anteriores.
Tener diseñada correctamente o no tu página web puede hacer que triunfes o
fracases en el negocio. El punto de venta es clave en tu empresa, lo es en el
ámbito presencial y también lo es en su vertiente online.
A continuación podrás aprender cuáles son los elementos de mayor relevancia a los que
tendrás que prestar una atención especial, es muy importante que los conozcas y que
dotes a tu tienda online de todos ellos, tratándolos para que estén optimizados.
¿Te apetece? Pues adelante!
Las tiendas virtuales son proyectos web muy exigentes en cuanto a los requerimientos, ya
que es necesario que estas operen con una eficiencia optimizada al máximo. Los
elementos críticos de las páginas e-commerce exigen el cumplimiento de requisitos
estéticos y funcionales mínimos debido a su enfoque al comercio electrónico.

4. Elementos críticos en páginas e-commerce


Es evidente que disponer de una tienda online ofrece una gran diversidad de ventajas y
posibilidades, lo cual hace que contemples en serio la idea de disponer de una si tienes
algún negocio. Existe una gran variedad de acciones a llevar a cabo desde la tienda virtual,
lo cual hace que también sus componentes sean variados y que éstos tengan un gran
vínculo y una gran influencia entre ellos. Por todo ello, es muy importante que si quieres
vender servicios o productos en Internet, conozcas a fondo todos y cada uno de los
principales elementos que conforman una tienda online.
Tu página de e-commerce deberá disponer de elementos que la hagan más atractiva para
tus visitantes y posibles clientes. Es muy importante que te esfuerces en optimizar tu
tienda online y que los usuarios encuentren muy usable e intuitiva tu web, de modo que
puedan navegar y encontrar fácilmente todo aquello que busquen. Más que hacer tu web
mejor que otras se trata de que el usuario que captes no se vaya a otro sitio web por tus
deficiencias en la usabilidad de tu web.
C O NT I NU A R
Evidentemente, los productos de las tiendas virtuales variarán en función del tipo de
producto que ofrezcas, pero lo que se encontrará en todas las tiendas es la imagen de tu
marca, así como otros muchos elementos críticos que deberán estar presentes siempre. Si
lo haces, podrás garantizar que tus clientes pueden disfrutar de una buena experiencia
en tu tienda virtual y deseen volver para su próxima compra.
No debes olvidar que los requerimientos de una tienda virtual son similares a los de una
tienda física, por lo que debes prestar atención al orden y a la presentación, ya que es
muy importante esa primera impresión por parte del cliente.
Partiendo de la base de que ya has analizado y conoces cuál es el público objetivo, sabes
qué deseas transmitir y vender a tus clientes, es hora de que ocuparse de la tienda online.
Para ello, debes considerar los requisitos imprescindibles para desarrollar un sitio web de
gran productividad para e-commerce:

Componentes esenciales de una tienda virtual


Diseño
Deberá ir en consonancia con la identidad corporativa de la empresa, ser intuitiva y
totalmente accesible.
1
Usabilidad
Debes allanar el camino del comprador para que encuentre el producto con facilidad y
pueda completar el proceso de compra de una forma clara, rápida y sencilla de
entender para el usuario.
2
Indexabilidad
Es importante pensar, además de en los compradores, en las arañas de los buscadores,
que harán que tu página aparezca arriba o abajo en la pantalla de los resultados de
búsqueda.
Piensa que si tu clientela potencial no tiene referencias para comprar en algún sitio web
determinado harán una búsqueda para saber dónde podrían comprar el producto
buscado.
3
Redes Sociales
Establecer vínculos de relación con tus clientes a través de las redes sociales es una
táctica que debe formar parte de la estrategia de tu negocio. Mediante una estrategia
adecuada de uso inteligente de las redes sociales puedes conseguir que tus propios
clientes hagan de comerciales de tus productos y los recomienden a todos sus amigos.
Esto en Internet tiene una gran potencia que no debes despreciar.
4
Accesibilidad
Trata de que tu web sea compatible con cualquier escenario de acceso y que pueda ser
accesible por personas con cualquier tipo de discapacidad o sean de avanzada edad o
tengan un lento acceso a Internet.
Llegar a un mayor número de clientes te ofrecerá obtener un mayor número de compras.
5
Catálogo de productos
Piensa en la importancia que tiene un escaparate en una tienda física.
Pues tu catálogo de productos es la versión online del escaparate físico, cuida el diseño,
su elegancia y su contenido.
6
Carro de compras
Debe ser localizado con facilidad y aportar información clara sobre la cantidad de
productos que están disponibles actualmente para la compra, así como su precio.
7
Gestión de ofertas y promociones
Son el mejor de los ganchos para los clientes, úsalos en la página de inicio.
8
Registro de usuarios
Necesitarás disponer de los datos de tus clientes para poder formalizar una compra, así
como para poder enviar publicidad, siempre con su consentimiento.
9
Motor de búsqueda
Ayuda al cliente a que pueda encontrar con facilidad el producto que desea comprar.
10
Proceso de compras
Te ofrecerá la posibilidad de medir y registrar datos sobre procesos y acciones realizadas
por tus clientes, apóyate en esos datos para adecuarte a sus necesidades y mejorar
constantemente.
11
Métodos de pago
Da una gran variedad de métodos de pago, no pierdas una venta por no ofrecer el
método de pago preferido de tu cliente.
12
Información legal corporativa
La ley de Comercio Electrónico (LSSI) exige que incluyas una serie de datos sobre tu
empresa para poder vender a través de Internet. Comprueba que lo cumples porque las
sanciones son cuantiosas.
13
HTTPS
Nadie compraría en una tienda virtual que no cuente con HTTPS en el proceso de pago,
asegúrate de tenerlo o tu cliente desconfiará de ti.
14
Atención al cliente
Debes mostrarte siempre accesible y disponible. Trata de satisfacer en la medida de lo
posible las consultas de tus clientes.
15
C O NT I NU A R
En este vídeo Christiam Alvarado, experto en marketing digital, explica cuáles son los
elementos esenciales que toda tienda on-line debe tener para vender más y a un mayor
número de clientes.
Comprobarás la importancia de muchos de los elementos que acabas de estudiar y de
otros nuevos.
No dejes de verlo atentamente porque en las siguientes pantallas deberás responder a
una serie de preguntas sobre su contenido.
¡Dale al play!

Elementos esenciales en una tienda online


Fuente de vídeo: https://www.youtube.com/watch?v=A5RZgp2ZitA
C O NT I NU A R
Autoevaluación
Pregunta
01/03
¿Qué es lo primero que suelen mirar los clientes de una tienda online?
El logo de la empresa.
Los descuentos y las ofertas especiales.
La dirección física.
Los medios de pago.
Pregunta
02/03
¿Cómo suelen encontrarse el carrito de compra, la caja de búsqueda y la zona
de inicio
de sesión?
Juntas.
Separadas.
En la zona inferior.
Ninguna de las anteriores.
Pregunta
03/03
La gente toma en cuenta la opinión y experiencia de otras personas con tus
productos.
Verdadero.
Falso.
El catálogo de productos es un elemento fundamental e indispensable en cualquier
tienda online y debe contar con el conjunto de productos que tengas a la venta en tu
tienda online.
Debes facilitar la búsqueda de tus productos en tu catálogo. Para ello debes tener
clasificados y bien estructurados todos los productos de tu catálogo. Del mismo modo
que en un supermercado agrupan productos de un mismo tipo en el mismo pasillo,
deberás clasificar a tus productos en categorías y subcategorías.
Generalmente, suele existir un espacio reservado en la página de inicio donde se
muestran los productos destacados de tu tienda virtual. Ahí podrás poner los productos
que te más te interese vender, por ejemplo, o bien los productos más vendidos o bien los
productos a los que saques un mayor margen.

Catálogo de productos
Al visualizar la página de una categoría concreta de los productos de una tienda virtual se
mostrará una pequeña descripción de lo que podrás encontrar en tal categoría y, claro
está, el conjunto de productos que pertenezcan a tal categoría. Tener clasificados los
productos en categorías beneficiará las búsquedas, ya que las páginas de categorías
generalmente se posicionan bastante bien. Por ello es bueno que escojas
adecuadamente las keywords o palabras clave y trabajes el contenido del texto.
Mientras más niveles de subcategorías tengas, más tedioso será para tu cliente
encontrar el producto buscado. Trata por tanto de que el número de niveles de
subcategorías sea el menor posible. Por otro lado, no es bueno que tengas un
número muy elevado de productos en una misma categoría, si eso pasa es que
necesitas crear un nivel nuevo de subcategorías. Un número adecuado para los productos
de una misma categoría no debe de exceder jamás de 50.
C O NT I NU A R
Tal y como sucede en los supermercados físicos, en la tienda virtual también existe la
figura de un carrito de compra donde tu cliente podrá ir metiendo o sacando productos
en él. Además, el carrito de tu tienda virtual indicará en todo momento al cliente, qué
productos lleva en su interior y cuál es el coste total asociado a tales productos.

Carro de compras
El carrito es la pieza fundamental de cualquier tienda virtual y facilita la compra al
cliente ya que, cuando quieras realizar la compra de algún producto concreto, tan solo
tendrás que clicar en el botón de "Añadir al carrito" correspondiente al producto
deseado. Esa acción hará que el producto pase al interior del carrito virtual y el cliente
podrá optar por seguir comprando o comenzar el proceso de compra efectivo y su
pago, dando por finalizada la búsqueda de productos. Al acceder al pago de los productos,
este se hará efectivo por todo el conjunto de productos que se hallen en el carrito.
Generalmente, el icono del carrito estará en la zona superior derecha de las
tiendas online. Además junto al carrito suele aparecer también un número
que indicará el número de productos que actualmente estén dentro del
carrito. Si clicas sobre el icono del carrito podrás acceder a su contenido
detalladamente y se mostrarán todos y cada uno de los productos, así como
sus unidades y su precio. Desde esta propia página del carro de compras
podrás decidir comenzar el proceso de pago y hacer efectiva la compra.
C O NT I NU A R
El precio siempre es determinante o al menos, muy decisivo a la hora de hacer efectiva
una compra, por lo que debes poner de manera clara cuál es el precio de cada uno de
ellos y si tienen o no aplicados los impuestos relativos. Tu tienda online también debe
permitirte gestionar y mostrar claramente todas las promociones y las
ofertas especiales que estén vigentes en ese momento determinado. Si rebajas un
producto, debes hacer ver el precio real sin el descuento, para que el cliente pueda
realizar una comparación entre el precio anterior y el actual y de ese modo, provocar que
se complete la compra efectiva.
Los descuentos son un modo muy eficaz de incitar a la compra. Por ello es muy interesante
que lleves a cabo un sistema de registro de la actividad de los usuarios en tu tienda, lo
analices y en función de los resultados, puedas ofrecerles ventajas económicas orientadas
a sus propios intereses. Es bueno siempre que los productos gancho con rebajas aplicadas
aparezcan en un lugar visible de la página de inicio.
Usa también los descuentos para fidelizar a tus clientes: premia los que compren
habitualmente o haz algún descuento especial el día de sus cumpleaños. También debes
aprovechar los periodos de rebajas, o las fechas señaladas como los black fridays, que tan
populares se han hecho. Trata de captar clientes en esas fechas de compras masivas, pero
para ello ofrece productos con rebajas tentadoras.

Gestión de ofertas y promociones


C O NT I NU A R
Recuerda que si el usuario se registra en tu tienda online dispondrás de un
sinfín de datos sobre sus gustos y preferencias, ¡empléalos!
Para poder efectuar una compra, normalmente debes registrarte antes. Ese proceso de
registro suele ser muy odiado por los usuarios, pero realmente es imprescindible que
cuentes con los datos de tu cliente para poder formalizar un pedido. Pero esa solicitud
de los datos y sus formularios para cumplimentarlo, a veces desamina al cliente y hace
que no llegue a completar el proceso de registro y abandone tu sitio web.
Gracias a los datos recopilados durante el registro, los usuarios te ofrecen la posibilidad
de establecer una comunicación con tus usuarios registrados en el futuro. Al final,
independientemente de que finalice el proceso de compra, ya contarás con su nombre, su
correo electrónico y su dirección. Para no abrumar al cliente en el proceso de registro, a
veces tan solo se solicita el nombre y el correo electrónico, de modo que, cuando vaya a
efectuar una compra, se le soliciten los datos necesarios, como la dirección de envío para
recibir el pedido y el número de cuenta para realizar el pago.

Registro de usuarios
El usuario podrá tener acceso a toda la información asociada a su futuro pedido sin
necesidad de facilitar previamente todos los datos necesarios para formalizar la compra.
Poder verificar los precios de los productos de forma individual y en conjunto, así como los
descuentos, los gastos de envío, los impuestos asociados, etc. darán confianza al cliente
para poder acabar realizando el pedido y dando todos los datos necesarios para ello.
Algunas tiendas virtuales permiten al usuario efectuar una compra sin necesidad de
registrarse, dando directamente los datos para recibirlo, pero sin llegar a registrarse.
El cliente tendrá la posibilidad de acceder a todos los datos de su cuenta y podrá
modificar toda la información relacionada con su perfil si así lo deseara. Así, será posible
tener actualizados siempre los datos de facturación, de envío, el teléfono, etc.
C O NT I NU A R
La organización y la gestión de los productos se lleva a cabo mediante una base de datos,
que facilitará que el usuario pueda localizar productos de un modo muy sencillo a través
de los campos de búsqueda. Es posible optimizar el proceso de búsqueda incorporando
determinadas características y atributos que el usuario conozca y pueda utilizar a modo
de filtros. Todas estas facilidades mejorarán la experiencia del usuario, que podrá
encontrar con facilidad y rapidez el producto que quiera localizar.
Si el usuario no encuentra en tu tienda virtual el producto deseado, tratará de hacerlo
mediante la herramienta de búsqueda. Si no existe tal herramienta, el usuario casi con
total seguridad buscará el producto en otra tienda virtual de la competencia.
Si el cliente es capaz de encontrar un producto, tan solo tecleando unas palabras clave en el
campo, estará contento de estar en una tienda donde es tan sencillo y rápido encontrar lo
que busca y seguramente acabe comprando.
El motor de búsqueda deberá estar en un lugar muy visible y que esté implementado para
que tenga un funcionamiento de lo más sencillo posible para permitir que el usuario pueda
incluso realizar búsquedas avanzadas. Es recomendable que si la búsqueda no es capaz
de encontrar resultados, al menos se les muestre recomendaciones sobre otros
productos para, al menos, no hacerle ver que ha fracasado en su búsqueda.
Motor de búsqueda
Ten en cuenta que habrá usuarios que solo usan la herramienta del buscador para
localizar sus productos deseados y no navegan a través del menú de categorías de la
tienda virtual para buscarlos.
C O NT I NU A R
Trata de que el proceso de compra sea claro, corto y conciso. Deja que tu usuario tenga
claro todo el proceso de compra; si no le prestas la atención suficiente, puede ser un
proceso tedioso que acabe agotando y aburriendo al comprador y lo conduzca al
abandono. Debes de conseguir que el comprador sea consciente de en qué fase de
compra se encuentra y qué pasos le quedan para finalizarlo.
Cuando acabe, se debe presentar un resumen que indique la compra que se ha
realizado, qué productos, el coste total, los gastos de envío, la dirección de entrega, la
fecha estimada de recepción, etc.
Aprovecha, mediante las diversas herramientas analíticas disponibles, la información
captada del cliente desde que accede a la tienda hasta que compra el producto o finaliza
el proceso sin comprar en algún punto. Todas esas fases del proceso de compra se
pueden representar mediante el concepto del funnel o embudo de conversión, que
cuenta con las siguientes fases que puedes conocer al pulsar en los siguientes botones:

Proceso de compras
Acceso
El usuario accede a la tienda virtual mediante la página de inicio, permaneciendo el tiempo suficiente para
interesarse en la temática.

Navegación
El usuario visita otras páginas de la tienda virtual para ir valorando los productos que desea e ir agregándolos al
carrito de la compra en el mejor de los casos.

Inscripción
El usuario decide acceder a la página de información del carrito para validar los productos, cantidades, precios y
condiciones del pedido.
Compra
El usuario confirma el pedido y posteriormente el pago mediante las plataformas de pago disponibles que
validarán los datos bancarios de su tarjeta.

C O NT I NU A R

Realizar el pago es el momento más crítico y decisivo, debes tratarlo con cautela ya que es
el momento en el que se producen más abandonos. Debes tratar de ofrecer flexibilidad
en los modos de pago y hacer lo propio también en las opciones de entrega del envío.
Cuantas más formas de pago disponga tu web, mayores posibilidades de que la
conversión acabe en éxito tendrás.
Los métodos de pago más empleados en las tiendas virtuales son los siguientes que
puedes conocer al pulsar en estas pestañas:
Terminal de Punto de Venta Virtual (TPV) es un método de pago online y consiste en una
pasarela de pago para que el cliente pueda realizar el pago con su tarjeta de crédito. En
realidad el pago no se lleva a cabo en la tienda online, sino en la plataforma de RedSys.
Para poder disponer de este sistema de pago debes contratar el servicio con un banco y
pactar las comisiones que tendrá tal servicio.

Métodos de pago
T PV CO N T R A R R E MB O L S O
T R A N S FE R E N CIA
B A N CA R IA
PAYPA L
El pago se efectuará a la entrega del pedido y es un modo de pago muy extendido, aunque
pueda suponer para la empresa vendedora un riesgo por falta de pago del cliente.
En ese caso, la empresa de mensajería no llegaría a entregar el producto, pero igualmente
cobraría el servicio.
T PV CO N T R A R R E MB O L S O
T R A N S FE R E N CIA
B A N CA R IA
PAYPA L
T R A N S FE R E N CIA
No se lleva a cabo en el momento, pero es la preferida para muchos compradores online.
Las tiendas online suelen pedir el comprobante de la transferencia para poder servir el
pedido y así disponer de una garantía del pago.
T PV CO N T R A R R E MB O L S O B A N CA R IA PAYPA L
Es un modo de pago gestionado por la empresa PayPal.
El comprador facilita sus datos y paga a Paypal, que hará de intermediaria y será quien realice
pago al comerciante cuando el cliente reciba el producto.
El procedimiento se simplifica mediante Paypal y produce fiabilidad por la seguridad del respaldo
del intermediario en caso de fraude.
T PV CO N T R A R R E MB O L S O
T R A N S FE R E N CIA
B A N CA R IA
PAYPA L
C O NT I NU A R
Este vídeo te explicará el proceso para recibir pagos por Internet y las herramientas
necesarias para implementarlas en tu negocio lo antes posible.
No dejes de visualizarlo porque te ayudará a comprender algunos de los conceptos que
has estudiado hasta ahora.
Además, en la pantalla siguiente deberás responder a una serie de preguntas sobre su
contenido, así que no dejes de verlo.

Cómo aceptar pagos por Internet fácilmente


Fuente de vídeo: https://www.youtube.com/watch?v=-ii4v8LLbCs
C O NT I NU A R
Autoevaluación
Pregunta
01/03
¿Cuál es el componente “extra” que se debe agregar en los pagos a través de
Internet?
El procesador del pago.
El dispositivo móvil.
El mensajero.
Ninguna de las anteriores.
Pregunta
02/03
¿Cuál es el siguiente paso al de la confirmación del pago?
Comprobar la disponibilidad del producto.
El envío al cliente del producto.
Solicitar otra compra.
Ninguna de las anteriores.
Pregunta
03/03
¿Qué comisión suele cobrar Paypal?
Un variable de 0.30% del valor del producto más un fijo de 2.90 dólares.
Un variable de 2.90 % del valor del producto más un fijo de 0.30 dólares.
Un variable de 2.90 % del valor del producto.
Ninguna de las anteriores.
La ley de Comercio Electrónico (LSSI) exige que incluyas una serie de datos en tus web
corporativas que son los que se enumeran a continuación:
1 - Datos de información general.
Nombre o denominación social.
Residencia.
Correo electrónico.
Cualquier otro dato para establecer comunicación directa y efectiva.
2 - Datos de inscripción en el Registro Mercantil u otro, si corresponde.
3 - Autorización administrativa previa (para aquellas actividades sujetas a
autorización administrativa).
4 - Datos de profesión regulada.
5 - Número de identificación fiscal.
6 - Si se hace referencia a precios se dará información clara y exacta del precio del
producto o servicio, indicando si incluye o no los impuestos aplicables y en su caso,
sobre los gastos de envío.

Información legal corporativa


7 - Códigos de conducta. Adherirte a un código de conducta es seguir un código de
buenas prácticas que otros promocionan.
8 - Si las empresas realizan actividades de contratación electrónica, con carácter
previo deberán poner a disposición del usuario la siguiente información: trámites para
celebrar el contrato, archivo del documento electrónico, medios técnicos para identificar y
corregir errores, y lengua o lenguas en las que se formaliza el contrato.
https://search.creativecommons.org/photos/46d2e3be-d787-4e6f-8282-ceb6bcdee548

¿Te suena ver estos datos en las tiendas electrónicas que visitas?
Probablemente si no has tenido ninguna incidencia no recuerdes haberlos
visto.
C O NT I NU A R
El uso de las redes sociales será muy beneficioso para tu tienda virtual. Es hora de que
conozcas el modo óptimo de hacerlo, desde el primer paso de decidir tus resultados u
objetivos que quieres alcanzar hasta monitorizar, controlar y mejorar las acciones que
vayas a llevar a cabo, pasando por la selección de las redes sociales en las que vas a
apoyarte y la planificación de las acciones que realizarás en ellas.
Para seguir estos pasos es recomendable que sigas las siguientes fases que puedes
conocer entrando en las pestañas.
Establece qué resultados u objetivos quieres alcanzar con su uso.
¿Recuerdas cuando veías el plan de marketing y cómo determinar tus metas? Unas metas que
tenían que cumplir con las siglas SMART de específicas, medibles, alcanzables, relevantes y
acotadas en el tiempo. Pues eso es lo que tienes que hacer ahora, pero centrándote en los
objetivos a conseguir cuando uses las redes sociales.
Por ejemplo, ¿deseas desarrollar conciencia de marca, aumentar el número de seguidores,
fortalecer las estrategias de compromiso, etc.?

Uso de las redes sociales


O B JE T IV O S S E L E CCIÓ N PL A N IFICA CIÓ N CO N T R O L
Selecciona las redes sociales en las que vas a apoyarte.
Debes escoger aquellas redes sociales que sean productivas para tu empresa. Ante las gran
variedad de estas, deberás escoger adecuadamente cuáles son las más convenientes. Apóyate
en el target de tu clientela para seleccionar las redes sociales más apropiadas a él.
O B JE T IV O S S E L E CCIÓ N PL A N IFICA CIÓ N CO N T R O L
Planifica las acciones que llevarás a cabo en ellas.
Debes crear contenidos atractivos para darte a conocer y que te sigan en las redes sociales.
Para ello puedes comenzar haciendo uso de tu cartera de clientes y preguntar en qué redes
sociales están para poder comunicarte con ellos allá donde estén. Incluye tus perfiles en las
redes sociales en tu sitio web, en tus tarjetas de visita y en el pie de los correos electrónicos.
Preocúpate en que tus contenidos coincidan con tus intereses. Ponte en el lugar de tus
clientes y escúchalos; en base a ello crea algo relevante y de calidad que les sirva de ayuda.
Piensa en tales contenidos como la herramienta que te permitirá captar clientes y realizar ventas.
O B JE T IV O S S E L E CCIÓ N PL A N IFICA CIÓ N CO N T R O L
Monitoriza, controla y mejora las acciones desarrolladas.
Recuerda realizar la mejora continua. Apóyate en las herramientas de monitorización de
redes sociales para ello. Mira que se produzcan los resultados planificados y si no es
así, modifica tus estrategias para mejorar los resultados.
O B JE T IV O S S E L E CCIÓ N PL A N IFICA CIÓ N CO N T R O L
C O N T I NU A R
El protocolo seguro de transferencia de hipertexto (Hypertext Transfer Protocol Secure,
HTTPS) es la versión segura del HTTP. La “S” final se refiere a un protocolo adicional que
agrega cifrado a la comunicación que lleva a cabo el protocolo el HTTP. Tal cifrado se lleva
a cabo con Secure Sockets Layer (SSL), que permite que la comunicación viaje encriptada
por Internet, ocultando tal información y permitiendo que únicamente sea el receptor y el
emisor quienes puedan ver los datos. Esto evita que terceras personas, no invitadas a la
comunicación, puedan leer nuestros mensajes, ver los sitios web a los que accedemos, y
saber nuestros nombres de usuario y contraseñas.

Asegurar el proceso de compras con HTTPS


Una de las principales aplicaciones del protocolo HTTPS es la de proteger las
compras en tiendas virtuales o las operaciones bancarias. No obstante,
además de estas webs, son cada vez más los sitios web que incorporan el
HTTPS para ofrecer una mejor protección a sus visitantes. Todas las
entidades bancarias o financieras lo tienen integrado, así como redes
sociales como Facebook, Twitter y todos los servicios de Google ya trabajan
con él.
C O N T I NU A R
Es importante proteger la información que circula por Internet ya que existen
herramientas de monitorización de redes que permiten controlar cada paquete de
información que circula por la red. La imagen que se muestra es de una herramienta muy
usada por hackers llamada Wireshark. Se trata de una aplicación de muy fácil uso que
permite ver en vivo, o incluso grabar toda la información que circula en la red que desees
monitorizar, tan solo tienes que estar conectado a ella.
Por eso, debes andar con precaución en las redes públicas ya que son muy frecuentadas
por hackers que usan herramientas como esta.

Importancia del uso de HTTPS


Si deseas saber más sobre la monitorización del tráfico de información en
redes con Wireshark, te recomiendo la lectura del siguiente manual
realizado por el Instituto Nacional de Tecnología de la Comunicación
(INTECO)
analisis_de_trafico_wireshark.pdf
2.5 MB
C O NT I NU A R
A pesar de las amenazas que acabas de conocer sobre la monitorización de la red donde
estés trabajando o navegando, puedes estar seguro con ciertas acciones. La primera de
ella podría ser el uso de HTTPS para proteger tu privacidad y lograr que, a pesar de que
intercepten tus datos, estos no puedan ser entendidos al estar cifrados.
Ya has visto que HTTPS funciona exactamente igual que el HTTP habitual, pero incluyendo
una capa de protección. Mediante esta capa se cifrará tu conexión entre tu ordenador y
el servidor al que estés conectado, de modo que los datos que envíes por la web estén
protegidos. El cifrado que usa es el SSL/TLS.
El uso de HTTPS es, por lo tanto, fundamental en aquellas webs en las que gestiones tus
datos, donde realices alguna compra usando tus datos bancarios o trates algún otro tipo
de información sensible.
Mediante HTTPS se consiguen dos importantes objetivos que puedes conocer al pulsar en
estos dos botones:

Comprobación del uso de HTTPS


Asegurar la conexión
HTTPS certificará que estás usando
una conexión segura y cifrada con
la página web.
C O NT I NU A R

Asegurar la identidad
HTTPS certifica también que la
página web es de quien dice ser,
eso lo determinará a través del
certificado SSL.
Para gozar de esas protecciones, tan solo debes asegurarte de que las
páginas web a las que accedas usen HTTPS. Pero si el gestor de la página
web no lo tiene implantado en su página web, evidentemente no podrás
usarlo.
La atención al cliente es fundamental en una tienda física y también en una online. Es vital
el contar con los sistemas de atención al cliente más indicados en función del tipo de
cliente que mayoritariamente frecuente tu tienda virtual. Debes evitar en todo momento
tener clientes disgustados, que además puede que tengan razón, pues esta situación es
posible que con las explicaciones pertinentes o con la simple devolución del dinero se
podrían solucionar. Un cliente satisfecho puede volver a comprar, un cliente enfadado
ten por seguro que no.
Existe una gran variedad de sistemas para atender las dudas o incidencias procedentes
de tus clientes y derivadas de posibles incertidumbres o errores en tu tienda online. Pulsa
en estos botones para conocerlas:
Atención al cliente
Contacto por email
Puedes usar el correo electrónico para responder a las peticiones o dudas de tus clientes que no sean de
carácter urgente.

Contacto telefónico
Es posible que tengas que asesorar en tiempo real sobre el funcionamiento del sitio o interfaz de las páginas.
Para ello es mejor un sistema como el telefónico.

Contacto por Whatsapp


Todo el mundo se siente cómodo usando esta app para comunicarse, por lo que debes estar presente también
en ella.

Atención mediante las redes sociales


Hoy en día las redes sociales son muy usadas como canal de comunicación con los clientes, úsalas para obtener
una buena imagen de tu empresa.

Chat online en tiempo real


Casi todas las web empresariales disponen de chats online para poder atender a usuarios en tiempo real.

Formularios de contacto en la propia web


Pide al cliente que indique el correo electrónico donde enviar la respuesta a la duda que indique en el
formulario.

Generadores de tickets
Puedes gestionar las incidencias producidas por aquellos problemas ocasionados por devoluciones o derivados
de la falta de entendimiento de los servicios.

C O NT I NU A R

Mientras más opciones ofrezcas a tus clientes, mayor será la confianza que
ellos depositen en tu empresa. Eso sí, si decides crear un medio de atención
al cliente, responsabilízate de que siempre esté disponible.
Realizar una actividad de negocio de venta de productos a través de Internet no es
sencillo. No todas las empresas llegan a triunfar, debido a que cada vez hay más
competencia tanto en cantidad como en la calidad de los servicios ofrecidos, por su
variedad de opciones y por la cantidad de artículos a comercializar.
Por lo tanto, te será muy útil para diferenciarte de la competencia y dar un servicio de
calidad que sigas las siguientes recomendaciones que puedes conocer pulsando en las
flechas laterales:

Consejos para una óptima tienda online


Categorías de productos
Clasifica tus productos usando categorías como novedades para tus productos nuevos,
productos más vendidos para tus productos de mayor éxito en ventas, productos en
oferta para tus productos con rebajas, productos más votados para tus productos mejor
valorados, etc.
Esto simplificará la búsqueda y elección de productos que añadir a la cesta de la
compra de tus clientes.
1
Precios
Pon el precio claramente añadiendo y especificando los impuestos incluidos.
Justifícalo si es que lo consideras necesario.
2
Negociación
Debes planificar cada detalle sobre la negociación de los precios con los proveedores, el
stock y el almacenaje, la venta y la distribución de los productos, ya que influirán en el
precio final.
Trata siempre de emplear la mejora continua sobre todo en este apartado.
3
Planificación
También debes estudiar la evolución del desarrollo de la actividad. Para ello deberás
realizar varios ajustes y pruebas.
Planifica para poder permitir que tu negocio siga creciendo a medida que crezca el
número de clientes y, por tanto, de ventas, sin descuidar en lo más mínimo la calidad del
servicio. En los negocios no hay muerte más dolorosa que morir de éxito.
4
Organización
Lleva a cabo estimaciones económicas en términos de beneficios a medio y largo plazo,
ya que estarán directamente relacionadas con las capacidades y recursos para apoyar el
negocio, y para gestionarlo y optimizarlo progresivamente.
5
Posicionamiento
Preocúpate de mejorar el posicionamiento de tu tienda virtual. Para ello identifica las
palabras clave de tu tienda apoyándote en Google Keyword Tool.
Mejora la descripción de cada producto. Trata de conseguir enlaces que apunten a tu
web. Adquiere dominios libres que contengan palabras clave en su interior.
6
Blogging
Crea un blog sobre los productos de tu tienda, en el que, más allá de dar publicidad a
tus productos, des información de valor de cómo usarlos o cualquier tipo de noticia al
respecto que pueda interesar al cliente.
Responde también mediante el blog a cualquier tipo de dudas o sugerencias. Anexa
también las redes sociales a tu tienda para ello.
7
En caso de añadir el Slider predeterminado de la herramienta en la pantalla
de bloques, tenemos que fijarnos en la pantalla de edición y ocultar tanto
la 'Introducción' como las 'Conclusiones'. De todas formas se puede copiar
esta pantalla de curso a curso.
C O NT I NU A R
En este vídeo se analizan las principales razones que pueden explicar porqué fracasan la
mayoría de las tiendas online y cómo evitarlo.
No dejes de visualizarlo atentamente porque te servirá para repasar muchos de los
conceptos que has podido estudiar en este epígrafe y comprobar su aplicación práctica.
Además, en la pantalla siguiente contestarás a algunas preguntas sobre su contenido.
¡Dale al play!

¿Por qué fracasan la mayoría de las tiendas


online?
Fuente de vídeo: https://www.youtube.com/watch?v=hLg8UJusm80
Fuente de vídeo: https://www.youtube.com/watch?v=hLg8UJusm80
C O NT I NU A R
Autoevaluación
Pregunta
01/03
¿Cuántas tiendas virtuales suelen alcanzar el éxito?
2 de cada 100 tiendas online.
2 de cada 50 tiendas online.
50 de cada 100 tiendas online.
Ninguna de las anteriores.
Pregunta
02/03
Google Adwords puede ser un gran generador de ventas para tu tienda online,
pero mal
usado puede ser un devorador de dinero.
Verdadero.
Falso.
Pregunta
03/03
Para tener una tienda online de éxito es imprescindible tener un plan y saber
usar la
redes sociales con un ROI positivo.
Verdadero.
Falso.

Paypal como herramienta para recibir pagos


on-line
Paypal es una empresa que puede ofrecerte distintas soluciones profesionales de pago. Si
quieres incluir un medio para recibir los pagos de tus productos a través de Internet o disponer
de una pasarela de pago completa o bien simplemente poder emitir facturas, puedes hacerlo por
medio de Paypal.
Además es uno de los medios favoritos de los clientes a la hora de pagar, debido a su comodidad
y a la fiabilidad que ofrecen todos los años que lleva ofreciendo sus servicios.
Utilizar PayPal es muy sencillo, para poder comenzar a hacer uso de su modalidad empresarial
debes dar los siguientes pasos:
1. Crea tu cuenta Business de Paypal.
2. Escoge la solución con la que quieras empezar a vender online (pago estándar, pasarela
integral o PayPal Checkout) tal y como puedes ver en este enlace. Podrás modificar la elección
más adelante si lo deseas.
3. Integra PayPal de forma sencilla en tu tienda online, o bien pide ayuda a un partner o a un
programador.
C O NT I NU A R
No olvides que las tarifas de PayPal son 2,90 % + 0,35 € por transacción.
¿Quieres saber cómo funciona Paypal para tus clientes?
1. Tus clientes visitan tu tienda online y seleccionan tus productos.
2. A la hora de pagar, escogen PayPal como forma de pago.
3. Inician sesión en su cuenta PayPal en una ventana emergente.
4. Después volverán a tienda online, revisarán el pedido y confirmarán la compra.
Como ves es una opción sencilla, directa y muy cómoda para los compradores, lo que facilita el
que completen el funnel de ventas.

Recapitulación
Hasta este momento has aprendido que las tiendas virtuales son proyectos web muy
exigentes en cuanto a los requerimientos que deben cumplir para su correcto
funcionamiento, ya que es necesario que operen con una eficiencia optimizada al máximo.
Los elementos críticos de las páginas e-commerce exigen el cumplimiento de requisitos
tanto estéticos como funcionales mínimos debido a su enfoque particular.
Conoces también ahora que los elementos críticos con los que siempre debes contar en
todas tus páginas e-commerce son los siguientes: catálogo de productos, carro de compras,
gestión de ofertas y promociones, registro de usuarios, motor de búsqueda, proceso de
compras, métodos de pago, información legal corporativa, uso de las redes sociales, HTTPS y
atención al cliente.
No solo eso, además conoces ahora que el catálogo de productos es un elemento
fundamental e indispensable en cualquier tienda online y debe de contar con todo el
conjunto de productos que tengas a la venta en tu tienda online.
Además, conociste también que el carrito de compra es la pieza fundamental de cualquier
tienda virtual y facilita la compra al cliente porque cuando este quiera realizar la compra de
algún producto concreto tan solo tendrá que clicar en el botón de "Añadir al carrito"
correspondiente al producto deseado.
También has aprendido que los métodos de pago más empleados en las tiendas virtuales
son los siguientes: terminal de punto de venta virtual (TPV), contrarrembolso, transferencia
bancaria y PayPal.
Por último, supiste que realizar una actividad de negocio de la venta de productos a través
de Internet no es sencillo, no muchas empresas llegan a triunfar debido a que cada vez son
más este tipo de empresas, tanto por su variedad como por la cantidad de artículos a
comercializar.
CONT I NU A R

Autoevaluación
Pregunta
01/03
¿Qué cualidad permitirá que personas con cualquier tipo de discapacidad o de
avanzada
edad o las que tengan un lento acceso a Internet puedan navegar sin problemas
por tu
sitio web?
Diseño.
Usabilidad.
Accesibilidad.
Indexabilidad.
Pregunta
02/03
¿Con qué método de pago no tienes que realizar el pago hasta la recepción del
pedido?
Terminal de punto de venta virtual.
Contrarrembolso.
Transferencia bancaria.
Paypal.
Pregunta
03/03
Debes planificar cada detalle sobre la negociación de los precios con los
proveedores, el
stock y el almacenaje, la venta y la distribución de los productos, ya que
influirán en el
precio final.
Verdadero.
Falso.
Cuando Internet comenzó tan solo había texto y enlaces, nada de imágenes.
¿Puedes imaginar una página web hoy en día con tan solo texto y enlaces?
Realmente, las imágenes además de mucha información aportan un estilo y un
diseño que hacen que los sitios web sean acogedores y sean capaz de ilustrar
con claridad la información que tratan de trasmitir los textos.
A continuación, descubrirás en profundidad aspectos relacionados con la imagen digital
para que seas capaz de entender cada una de sus diversas características y propiedades,
¿te apetece? ¡Pues adelante!
Es evidente lo mucho que enriquecen las imágenes digitales a nuestros sitios web. Sirven
para ampliar o explicar en detalle la información que a veces no se es capaz de trasmitir
usando tan solo texto.

5. Imágenes Digitales
La primera imagen subida a Internet data de 1992, desde entonces un aluvión de
imágenes han conquistado cada una de las páginas web distribuidas en Internet, de modo
que es muy extraño, a día de hoy, encontrar una página web que no contenga ninguna
imagen en su interior.
Para hacer uso de imágenes digitales en tus sitios web es muy importante que conozcas
aspectos como los tipos de imágenes, los tipos de compresión, la resolución, la
profundidad del color, el modo del color, el tamaño del archivo y las licencias de uso.
C O NT I NU A R
Existe un artículo muy interesante escrito por el Dr. Pedro Monteagudo que
hace un repaso exhaustivo sobre la imagen digital que sería interesante que
leyeras aquí si quieres saber más.
Hoy en día, todas las formas de la información están sufriendo un proceso de
digitalización. Las imágenes, la fotografía, el cine, la televisión, el diseño gráfico han
sucumbido también ante este proceso. De modo que son producidas innumerables
imágenes digitales, que son almacenadas en algún soporte físico o bien enviadas por un
medio de transmisión electrónico, vistas en alguna pantalla o impresas en papel.
La imagen digital también es conocida como gráfico digital y es una representación
bidimensional de una imagen mediante una matriz numérica que almacena la
información en lenguaje binario, es decir, a través de unos y ceros. En función de que la
resolución de la imagen sea estática o dinámica, estarás ante una imagen matricial o de
mapa de bits o gráfico rasterizado, o bien ante un gráfico vectorial.

La imagen digital
C O NT I NU A R
¿Te estás preguntando qué diferencia estos formatos? La principal diferencia
que presentan ambos es que los gráficos vectoriales tienen la posibilidad de
ampliar el tamaño de la imagen sin perder su escala ni calidad. Por su parte,
el mapa de bits o gráfico rasterizado, es más empleado en informática.
Como acabas de estudiar en la pantalla anterior, para comenzar, si deseas realizar una
imagen digital, la primera decisión que deberás tomar es si quieres una imagen vectorial o
bien una imagen de mapa de bits.
Según sea tu elección podrás usar diferentes programas para crearlas y editarlas y
estos programas tendrán funcionalidades distintas. Por lo tanto, antes de continuar debes
aprender bien en qué se diferencian y cuáles son las ventajas e inconvenientes de cada
una.

Mapa de bits o imagen vectorial


C O NT I NU A R
No olvides que las imágenes digitales podrán ser manipuladas mediante
una aplicación informática y que tienen las siguientes características:
Pueden provenir de una fuente digital, como una cámara digital o un
escáner.
Pueden ser mostradas en una pantalla.
Pueden ser procesadas y modificadas con ayuda del software
específico.
Pueden ser almacenadas en una diversidad de dispositivos de
almacenamiento masivo tales, como memorias USB, discos duros, CD o
DVD, etc.
Pueden ser impresas.
Este vídeo te muestra mucha información sobre la imagen digital y algunos conceptos
como la resolución, la profundidad de color y los formatos de imágenes.
Seguro que te aporta una información realmente valiosa, ¿te la vas a perder? ¿No? Pues
dale al play, porque en la siguiente pantalla deberás responder algunas preguntas sobre
su contenido.

Imagen digital
Fuente de vídeo: https://www.youtube.com/watch?v=6dwI_aZBtJ8&t=417s
C O NT I NU A R
Autoevaluación
Pregunta
01/03
¿Qué colores puede tener una imagen a un bit por pixel?
Blanco y negro.
Escalado de grises.
Rojo, verde y azul.
Ninguna de las anteriores.
Pregunta
02/03
¿Qué resolución necesitarás para un trabajo de imprenta?
Entre 72 y 150 puntos por pulgadas.
Entre 300 y 600 puntos por pulgadas.
Entre 600 y 1000 puntos por pulgadas.
Ninguna de las anteriores.
Pregunta
03/03
¿Cuál es el formato más común para las imágenes digitales?
BMP.
JPG.
PSD.
Ninguna de las anteriores.
Las imágenes de mapa de bits se construyen mediante un conjunto de pequeños
cuadraditos, llamados pixeles. Cada uno de los píxeles tiene un color determinado, pero
la sensación que obtienes es de la integración visual en la retina, de las variaciones
de color y luminosidad entre el pixel y sus píxeles vecinos.
Este tipo de imágenes de mapa de bits son la alternativa ideal para reproducir objetos
sutilmente iluminados o escenas en las que haya una gran variación tonal. Son muy
adecuadas en escenarios donde existe una gama de colores que va cambiando
sutilmente. Por eso se emplean en el campo de la fotografía y el cine. La calidad de la
imagen dependerá del número de píxeles utilizados para representarla.

Mapa de bits
Ten en cuenta que cada uno de estos pequeños puntos de color o píxeles
que forman parte de la imagen cuentan con su respectiva información de
color y que esta también podrá presentar transparencias.
C O NT I NU A R
Las imágenes de mapa de bits están determinadas por su altura y por su ancho de
píxeles y además, por la profundidad del color que determina el número de colores
diferentes que se pueden almacenar en cada punto. Así, la imagen en mapa de bits no
puede modificar su dimensión sin que tal acción la afecte y provoque una pérdida de
calidad. Al suceder un cambio de escala será importante el deterioro de la calidad de la
imagen.
Al ampliar la imagen enseguida se produce pixelación haciéndose evidente los
cuadrados. El efecto de pixelado se notaría sobre todo en las líneas curvas y en aquellas
zonas en las que hubiese cambios bruscos de luminosidad.

Mapa de bits II
C O NT I NU A R
Aun así, el mapa de bits es un formato muy extendido y es el más empleado
en fotografías digitales y grabaciones en vídeo. La captación de imágenes se
lleva a cabo a través de dispositivos que admiten la conversión de analógico
a digital como, por ejemplo, los escáneres o las cámaras digitales.
Las imágenes vectoriales están compuestas por entidades geométricas simples, es decir,
por la unión de segmentos y polígonos básicamente. El estar compuestas por entidades
geométricas simples les aporta a las imágenes vectoriales la capacidad de cambiar de
escala, tanto ampliar como reducir, sin que la imagen pierda calidad.
Esa es la gran ventaja de este tipo de imágenes, que funcionará a la perfección siempre
con imágenes de colores planos con contornos limpios, sin importar el tamaño en el que
se muestren.

La imagen vectorial
Las imágenes vectoriales se utilizan para la elaboración de imágenes sencillas, tales
como logos, interlineados, ríos, márgenes y otras composiciones tipográficas nada
complejas. Los gráficos vectoriales son muy adecuados por tanto para representar figuras
geométricas.
Las imágenes vectoriales son ideales para su uso en tareas de impresión, es decir,
productos referidos a cartelería, diseño de envases, imagen corporativa, logotipos etc.
Suelen llevarse a cabo todos con imágenes vectoriales.
Con este tipo de imágenes, un mismo diseño puede aplicarse a todas aquellas situaciones
en las que tal imagen, hecha con una gama reducida de tintas planas, podrá ser
reproducida en distintos soportes y con distintos tamaños.
C O NT I NU A R
Además de estos dos tipos de formatos, existen otros para imagen digital y que son
empleados para pantallas. Por lo tanto, podrán ser empleados en los sitios web, tanto en
las tablets como en los móviles como en los diversos monitores.
Pulsa en las siguientes pestañas para conocerlas:

Tipos de formatos de imagen digital para


pantallas
JPEG / JPG –
JPEG / JPG (Joint Photographic Experts Group).
Es el formato más empleado en todos los medios, de hecho es el que empleas con tu móvil
al realizar fotos. Usa un sistema de compresión de imagen pero manteniendo intacta su
calidad, al solo escoger los píxeles que capta, sin variantes. Por tanto, captura degradados y
detalles de la imagen con el peso mínimo.
Es ideal para la fotografía y los degradados, aunque tiene la desventaja de ser más pesado
que los formatos GIF y PNG. Es el formato adecuado para imágenes en edición de vídeo.

GIF –
GIF (Graphics Interchange Format).
Es usado en el diseño web y es bastante útil poner el logo de una empresa o para iconos de
pocos colores. Es el formato estrella para imágenes animadas de pocos frames.

PNG –
PNG (Portable Network Graphics).
Tiene mayor capacidad de compresión que el GIF con ilustraciones de pocos colores, pero
no tiene la capacidad de crear animaciones. Existen versiones PNG de 18 y 24, siendo la
versión de 24 muy buena para transparencias, superando en ello al formato GIF.

WBMP –
WBMP (Wireless Application Protocol Bitmap Format).
Se trata de un formato monocromo para la web. Es el menos usado de todos pero permite
convertir una imagen en una trama en blanco y negro. Es el más adecuado para iconos
mínimos de un solo tono, aunque lo más común es emplear los formatos GIF o PNG.

BMP –
BMP (Bit MaP).
Aunque ya conoces este formato es importante que lo puedas comparar con los otros formatos.
BMP el formato nativo de Microsoft y se utiliza en todas sus aplicaciones. Usa un formato de
compresión sin pérdidas y admite cualquier tipo de resolución y una profundidad de color
máxima de 24 bits. Su tasa de compresión es ridículamente baja y tan solo es soportado
por los navegadores web de Microsoft.
C O NT I NU A R
La calidad de las imágenes dependerá del uso que vayas a darles. Si se van a usar para
mostrar en pantalla se usará generalmente el modo RGB y la calidad de 72 ppp (píxeles
por pulgada). Pero si van a ser usadas para imprimirlas en imprenta se requerirá el modo
CMYK y una calidad de 300 ppp generalmente.
Los diversos formatos de imagen empleados en imprenta son los siguientes:

Tipos de formatos de imagen digital para


imprenta
RAW (crudo)
Es el captado con las cámaras profesionales y se usa por periodistas en entrevistas,
moda, publicidad, paisajismo, etc. Aunque para el fotoperiodismo es más habitual usar
JPG ya que se procesa más rápido, siendo capaz de captar el instante.
1
PSD (Power Spectral Density)
Es el archivo propio de Adobe Photoshop, conserva las capas y puede mantener la
transparencia para ser editado en otros programas. Conserva los tonos originales y
permite su edición.
2
TIFF (Tagged Image File Format)
Era el más empleado en las editoriales por lo bien que conserva los colores originales. Va
dejándose de utilizar por la rapidez en el trabajo de edición, que suele emplear cada vez
más el formato JPG.
3
JPEG/JPG
Los fotógrafos profesionales emplean JPG en sus cámaras y ha pasado a ser el más usado
en las editoriales e imprentas, para trabajos rápidos y para bajar el peso de numerosas
ediciones. Consigue una mayor rapidez en los programas de diseño, es importante
cambiar el modo de color y resolución para su uso.
4
PDF (Portable Document Format)
Es el tipo de documento más extendido, ya que podrás leerlo en cualquier dispositivo.
Puede contener imágenes y formas vectoriales. Se emplea en la preparación del archivo
para imprenta.
5
EPS (Encapsulated PostScript)
Se trata de un formato creado antes que el PDF, con la misma utilidad de poder contener
en un archivo las imágenes, vectores y texto originales. Su peso es mayor que el del
formato PDF.
6
CONT I NU A R
La resolución de una imagen digital es la cantidad de píxeles que la componen. Se
suele medir en píxeles por pulgada (ppi) o píxeles por centímetro (pcm). Mientras mayor
sea la resolución de una imagen más calidad tendrá su presentación, pero con el coste de
un mayor espacio ocupado en disco del archivo gráfico que la contenga.
Por ejemplo, en las páginas web es común el uso de imágenes con una resolución de 72
ppi, es decir, necesitará 5184 píxeles para un cuadrado de 2,54 centímetros de lado. Esa
resolución de 72 ppi es la empleada en las imágenes mostradas en el monitor de un
ordenador. Posee una nitidez suficiente de los detalles y ofrece una reproducción de las
distintas tonalidades correcta. En cambio, esta resolución es insuficiente para el ámbito de
imprenta, ya que se requiere una mayor resolución a la hora de realizar la impresión en
papel.
Ten en cuenta que mientras más alta sea la resolución de una imagen, más fielmente
reproducirá los detalles y los degradados sutiles de tonalidad, pero hará que el archivo
sea más pesado.

La resolución de una imagen digital


La resolución es la capacidad de reproducir fielmente los detalles de una imagen. Es un
término válido tanto para las propias imágenes digitales, como para una impresora, un monitor,
una cámara o un escáner. Es un concepto fundamental con diferentes acepciones según el
contexto en el que lo emplees.
C O NT I NU A R
En este vídeo el fotógrafo Eduard Selva aclara la diferencia entre el tamaño de una imagen
y su resolución.
Estos dos conceptos son dos términos frecuentemente confundidos y que conviene que
tengas claro cuando trabajes con imágenes digitales. Seguro que verlo te aporta una
información realmente valiosa. Además, en la siguiente pantalla deberás responder una
serie de preguntas relacionadas con su contenido.
¿Te lo vas a perder? ¿No? ¡Pues dale al play!

Tamaño vs resolución de una imagen


Fuente de vídeo: https://www.youtube.com/watch?v=6Ch28jakr7s
CONT I NU A R
Autoevaluación
Pregunta
01/03
Si hablamos de resolución, estamos hablando de…
Tamaño.
Densidad.
Formatos.
Ninguna de las anteriores.
Pregunta
02/03
¿Cómo se mide la resolución?
En píxeles.
En puntos por pulgada.
En pulgadas.
Ninguna de las anteriores.
Pregunta
03/03
Si tienes una imagen con unas dimensiones reales en píxeles, al aumentar la
resolución,
su tamaño bajará.
Verdadero.
Falso.
Cada pixel de una imagen tiene un color homogéneo de modo que el archivo que
contenga la imagen deberá contener la información acerca del color que tenga de
cada uno de sus píxeles. Al número de bits empleados en almacenar la información
referente al color que tenga cada pixel es lo que se conoce como profundidad de color
de una imagen. Es decir, la profundidad del color será el número de bits empleados en
almacenar la información sobre el color de cada pixel de la imagen.
Mientras mayor sea la profundidad de color de una imagen, con un mayor número
de colores contará la paleta, por lo que la representación de la realidad tendrá más
matices, con colores más sutiles y tenues degradados.

La profundidad del color


https://mott.pe/noticias/conoce-un-poco-mas-sobre-la-profundidad-de-color-en-fotografia/

Fíjate, según lo que acabas de estudiar, si tan solo dispones de 1 bit para
describir el color de cada pixel, tan solo tendrás dos opciones posibles:
blanco y negro. Las imágenes con una profundidad tan baja tendrán el
aspecto de una fotocopia de mala calidad.
C O NT I NU A R
Según lo que acabas de estudiar, si para describir el color de cada pixel tan solo dispones
de 1 bit, esto se traducirá en una imagen en blanco y negro. Pero si dispones de 8 bits
para la profundidad de color, ya podrás optar a 256 colores. Esto significa que ya puedes
manejar una profundidad de color suficiente para ofrecer cierta calidad, con imágenes
construidas en escala de grises, al poder ofrecer 256 tonos posibles de grises.
Ahora bien, si esos 8 bits disponibles para la profundidad se usan también para designar
colores, se empleará una tabla con los 256 colores más frecuentes, que también incluirán
el negro, el blanco y varios tonos de gris, para poder componer la imagen. A este tipo de
imágenes se les conoce como de color indexado y es uno de los más usados en Internet.

La profundidad del color II


http://pixelnauta.com.ar/sitio_anterior/curso2011/photoshop1/clase1/index4.html

¿Te das cuenta de que 1 bit de profundidad de color permite 2 colores


distintos, 4 bits de profundidad permiten 16 colores, 8 bits 256 colores, 16
bits 65.636 colores y 32 bits 4.294.967.296 colores?
C O NT I NU A R
Hay una gran diversidad de modos de color, siendo los más usados RGB y CMYK. A
continuación se muestran algunos de los más importantes y empleados en imágenes
digitales. Pulsa en los botones para descubrirlos:

El modo del color


Modo CMYK
Emplea los colores cyan, magenta, amarillo y negro, obteniendo los mismos colores que los del espectro
empleado en imprenta.

Modo RGB
Es el empleado en las pantallas de PC y móviles, y se basa en los 3 colores básicos, como lo son el rojo, el verde y
el azul. Mediante la mezcla de estos tres colores se podrá lograr cualquier otro color.

Modo color indexado


Emplea hasta 256 colores en un solo archivo de unos 8 bits.

Modo escala de grises


Usa hasta 256 tonalidades distintas de grises desde el negro hasta el blanco.

Modo monocromático
Tan sólo usa el blanco y el negro exclusivamente.
https://helpx.adobe.com/es/photoshop/using/color-modes.html
C O NT I NU A R

En este vídeo de la empresa de diseño gráfico Marco Creativo podrás conocer de manera
sencilla y amena las diferencias principales que hay entre los dos modos de color
principales por su uso, es decir, el RGB y el CMYK.
Además, podrás descubrir para qué es usado por los diseñadores el modo de color HSB,
uno de los modos de color más intuitivos para buscar colores. Seguro que te aporta una
información realmente valiosa.
No dejes de visualizarlo porque en las siguientes pantallas deberás responder a una serie
de preguntas sobre su contenido.

Modos de color en diseño gráfico, RGB, CMYK y


HSB
Fuente de vídeo: https://www.youtube.com/watch?v=tvKq1zKc5oY
C O NT I NU A R
Autoevaluación
Pregunta
01/03
¿Cuál es el modo de color empleado para todas las pantallas, monitores,
televisores o
terminales móviles ?
CMYK.
RGB.
HSB.
Ninguna de las anteriores.
Pregunta
02/03
¿Cuál es el modo de color sustractivo o de colores pigmento?
CMYK.
RGB.
HSB.
Ninguna de las anteriores.
Pregunta
03/03
¿Cuál es el modo de color que trabaja con el tono, la saturación y el brillo de los
colores?
CMYK.
RGB.
HSB.
Ninguna de las anteriores.
El tamaño del archivo se mide en bits o en bytes, e indica la cantidad de memoria que
requiere para almacenar la información que contiene sobre la imagen en un soporte que
podrá ser un disco duro, un pendrive, un CD, una tarjeta de memoria, etc. El tamaño del
archivo se verá influido por varios aspectos. Sobre todo es determinante la resolución (R),
pero también influirán sus dimensiones de alto (H) y ancho (W) así como la profundidad
de color (P).
Es posible saber cual será el tamaño de un archivo sabiendo todas esas características a
través de la siguiente fórmula:
Tamaño = R²*H*W*P

El tamaño del archivo


Fíjate en el siguiente ejemplo, que te ayudará a entender mejor el funcionamiento que se utiliza
para calcular el tamaño de un archivo de imagen:
Si tienes una imagen de 10 pulgadas de ancho, 5 pulgadas de alto, una profundidad de color de
32 bits y una resolución de 96 píxeles por pulgada su tamaño será el siguiente:
9216 x 10 x 5 x 32 = 14.745.600 bits.
C O NT I NU A R
Ahora bien, si divides por 8 obtienes el tamaño en bytes: 1.843.200 bytes.
Y, si vuelves a dividir, en este caso por 1024, obtienes en tamaño en kilobytes: 1.800 KB.
Y, si vuelves a dividir, de nuevo por 1024, obtienes en tamaño en megabytes: 1,75 MB.
Si el tamaño del archivo que contiene la imagen es excesivamente grande podrás optar
por su compresión. Los sistemas de compresión emplean un algoritmo matemático
propio para poder reducir la cantidad de bits necesarios para la descripción de la imagen
y tienen extensiones características: JPG, GIF, PNG, BMP, WMF, etc.
Muchos de esos algoritmos están patentados, y son propiedad de una empresa, por lo que
tendrás que pagar para poder utilizarlos. Otros algoritmos son de dominio público y
podrás utilizarlos gratuitamente.

Compresión de imagen
¿Te estás preguntando por la relación entre bits, bytes, kilobytes y
megabytes? Recuerda que 8 bits equivalen a 1 byte, que 1024 bytes
equivalen a 1 kilobyte y que 1024 kilobyte equivalen a 1 megabyte. Seguro
que la siguiente medida, terabyte, ya te suena de las potentes memorias
actuales. Pero, ¿sabrías definir un petabyte o un exabyte?
C O NT I NU A R
¿Crees que puedes usar libremente en tu web las imágenes que encuentres en Internet o
que simplemente basta con mencionar al autor de la imagen para poder hacer uso de
ella? La respuesta es muy clara: no.
No es posible usar libremente las imágenes que obtengas a través de Internet sin correr el
riesgo de que tengas que rendir cuentas al autor que ostente los derechos de autor de la
misma, independientemente de que figure su nombre al pie de la foto. La Ley de
Propiedad Intelectual protege los derechos de autoría de las obras y por tanto, de las
imágenes.

El uso de la imagen en Internet


C O NT I NU A R
La Ley de Propiedad Intelectual (R.D. legislativo 1/1996, de 12 de abril)
protege al autor de una imagen por el mero hecho de su creación,
ostentando la plena disposición y el derecho exclusivo a la explotación de la
obra, sin más limitaciones que las establecidas en la Ley. Tan solo hay dos
supuestos que recoge la Ley y que nos permitiría el uso de imágenes sin el
consentimiento del autor: la docencia y la parodia.
Según acabas de estudiar en la pantalla anterior no podrás utilizar libremente todas las
imágenes que encuentres en Internet. Es más, los autores de las imágenes no tienen la
obligación de especificar su autoría (aunque es muy recomendable) o los permisos que
conceden a su uso.
De hecho, existen alternativas al copyright que han ido apareciendo sucesivamente.
Además del copyright existe una serie de licencias orientadas a dar permiso a que cada
persona que reciba una copia de la obra pueda usar, modificar y redistribuir la misma, así
como las versiones que se realicen de la misma, siempre respetándose la voluntad del
autor de la obra.

Copyright y copyleft
C O NT I NU A R
Quizás la licencia alternativa al copyright más conocida sea la creative
commons (CC), pero existen otras muchas. Cada una de ellas te permite
usar todas las imágenes que tengan este tipo de licencias llamadas de
copyleft, pero cumpliendo siempre fielmente los límites de uso o
explotación que sean dictados por tales licencias.
Se suele confundir el término fotograma con el de vídeo “cuadro”. Y es que ambos tienen
el mismo objetivo, dar la sensación de movimiento, pero mientras que el fotograma es
un trozo de película, el cuadro consiste en un pedazo de cinta magnética. Con la
entrada masiva de los medios digitales, el cine y la televisión pasaron a emplear la misma
tecnología y se graban, o al menos, se editan con tecnología digital, aunque inicialmente
ambos usaban tecnologías distintas, unos recogidos por un proceso químico y otros por un
proceso eléctrico.
Las imágenes, para transmitir movimiento serán presentadas a la velocidad constante que
ya conoces, pero también se podrá variar tal velocidad con el objetivo de crear
varios efectos: si capturas imágenes a velocidades altas o, por el contrario, muy bajas y
después las muestras a una única velocidad constante provocarás efectos importantes en
la percepción de las mismas.

Título de división de pantallas


¿Te suena el efecto de time bullet? Lo has visto popularizado en películas
como Matrix, y consiste precisamente en utilizar esas variaciones de velocidad
para lograr diversos efectos. No dejes de ver esta escena en la que podrás
apreciar el resultado de la variación de velocidad en las películas.
C O NT I NU A R
Existen muchos sitios web donde podrás recurrir en busca de imágenes digitales
profesionales para usar en tus sitios web: los bancos de imágenes.
A continuación se muestran varios de los bancos de imágenes más importantes. Pulsa
sobre estas imágenes para acceder a la página oficial de los respectivos bancos de
imágenes:

Bancos de imágenes
Pixabay Morguefile ImageBase
Picography OpenPhoto Splitshire
Stock Vault Freepik Free Digital Photos
New Old Stock Life Of Pix Gratisography
UnSplash Jay Mantri SCX
Shutterstock Blue vertigo
C O NT I NU A R
Caso práctico
Ya sabes la importancia que tienen algunas de las características del archivo que contiene
una imagen digital, como por ejemplo, la resolución, el tamaño y la profundidad del color.
La importancia de estas características radica principalmente en que son determinantes
en el tamaño del archivo. ¡No olvides que la fórmula para calcular el tamaño es:
Tamaño = R²*H*W*P
En base a lo anterior, se te pide que calcules el tamaño en bits, kilobytes y megabytes de
cada uno de los archivos que contendrá las siguientes imágenes:
1. Una imagen 8 pulgadas de ancho, 3 pulgadas de alto, una profundidad de color de 8
bits y una resolución de 70 píxeles por pulgada.
2. Una imagen 10 cms de ancho, 5 cms de alto, una profundidad de color de 16 bits y
una resolución de 96 píxeles por pulgada.
3. Una imagen 10 cms de ancho, 5 pulgadas de alto, una profundidad de color de 8 bits
y una resolución de 300 píxeles por pulgada.
En el botón inferior puedes encontrar la solución, pero antes de consultarla no dejes de
tratar de encontrarla por ti mismo.

Solución –
1.
4900 x 8 x 3 x 8 = 940.800 bits.
Y si divides por 8 obtenemos el tamaño en bytes: 117.600 bytes.
Y si vuelves a dividir, en este caso por 1024, obtienes en tamaño en KB: 114,84 KB.
Y si vuelves a dividir, de nuevo por 1024, obtienes en tamaño en MB: 0,11 MB.
(Recuerda que 1 byte son 8 bits, que 1 kilobyte equivale a 1024 bytes y que 1 MB equivale a
1024 KB).
2.
Debes pasar primero el tamaño de cm a pulgadas (1 cm es equivalente a 0,3937 pulgadas): 3,93
pulgadas de ancho y 1,97 pulgadas de alto.
9.216 x 3.93 x 1.97 x 16 = 1.141.619,09 bits.
C O NT I NU A R
Y si divides por 8 obtenemos el tamaño en bytes: 142.702,38 bytes.
Y si vuelves a dividir, en este caso por 1024, obtienes en tamaño en KB: 139,36 KB.
Y si vuelves a dividir, de nuevo por 1024, obtienes en tamaño en MB: 0,136 MB.
(Recuerda que 1 byte son 8 bits, que 1 kilobyte equivale a 1024 bytes y que 1 megabyte equivale
a 1024 kilobytes).
3.
Debes pasar primero el tamaño de cms a pulgadas (1 cm es equivalente a 0,3937 pulgadas):
3,93 pulgadas de ancho.
90000 x 3,93 x 5 x 8 = 14.148.000 bits.
Y si divides por 8 obtenemos el tamaño en bytes: 1.768.500 bytes.
Y si vuelves a dividir, en este caso por 1024, obtienes en tamaño en KB: 1.727,05 KB.
Y si vuelves a dividir, de nuevo por 1024, obtienes en tamaño en MB: 1,686 MB.
(Recuerda que 1 byte son 8 bits, que 1 kilobyte equivale a 1024 bytes y que 1 megabyte equivale
a 1024 kilobytes).

Recapitulación
Hasta este momento has aprendido que la imagen digital también es conocida como
gráfico digital y que es una representación bidimensional de una imagen mediante una
matriz numérica en la que se almacena la información en lenguaje binario, es decir, a
través de unos y ceros.
No solo eso, sino que además conoces ahora que las imágenes de mapa de bits se
construyen mediante un conjunto de pequeños cuadraditos, llamados píxeles. Cada uno de
los píxeles tiene un color determinado, pero la sensación que obtienes es la de la
integración visual en la retina, de las variaciones de color y luminosidad entre el pixel
y sus píxeles vecinos.
Conoces también ahora que las imágenes vectoriales están compuestas por entidades
geométricas simples, es decir, por la unión de segmentos y polígonos, básicamente. El
estar compuestas por entidades geométricas simples les aporta a las imágenes vectoriales
la capacidad de cambiar de escala sin que la imagen pierda calidad.
Además aprendiste qué tipos de formatos de imagen digital son los más empleados para
pantallas y que, por tanto, podrán ser empleados en los sitios web, tanto en las tablets como
en los móviles como en los diversos monitores: JPEG/JPG, GIF, PNG, WBMP y BMP. También
conociste que los diversos formatos de imagen empleados en imprenta son los
siguientes: RAW, PSD, TIFF, JPEG / JPG, PDF y EPS.
Por si fuera poco, has visto que la resolución es la capacidad de reproducir fielmente los
detalles de una imagen. Así, ya sabes que la profundidad del color será el número de bits
empleados en almacenar la información sobre el color de cada pixel de la imagen. Para
finalizar, aprendiste que hay una gran diversidad de modos de color, los más usados son RGB
y CMYK.
CONT I NU A R
Autoevaluación
Pregunta
01/03
Las imágenes vectoriales se emplean para el campo de la fotografía y el cine.
Verdadero.
Falso.
Pregunta
02/03
¿Cuál es el formato de imagen más adecuado para las trasparencias?
JPG.
PNG.
BMP.
Ninguna de las anteriores.
Pregunta
03/03
¿Crees que puedes usar libremente en tu web las imágenes que encuentres en
Internet
o que simplemente basta con mencionar al autor de la imagen para poder hacer
uso de
ella?
Sí.
No.
Solo si compruebas que tenga una licencia de libre uso.
Ninguno de ellos.
La edición multimedia es un área muy creativa donde se conjuga el diseño
gráfico y web, y está basado en la capacidad de combinar el diseño gráfico con la
animación para crear e integrar en la web sonidos, películas, animaciones y
presentaciones.
A continuación, en este epígrafe, descubrirás en profundidad aspectos relacionados con la
edición multimedia que te permitirán crear sitios web que empleen combinaciones de
audios, animaciones, textos y películas. ¿Te apetece? ¡Pues adelante!
Multimedia es un término que hace alusión tanto a las técnicas usadas para presentar
contenidos como a los propios contenidos en sí. Y sus contenidos pueden ir desde la
creación de un sitio web hasta una app para un dispositivo móvil.

6. Edición multimedia. Definición


Se trata de una disciplina novedosa y en auge, impulsada por las posibilidades que
ofrecen las nuevas tecnologías emergentes de los nuevos medios e Internet.
Fred Hoffstetter, profesor de Educación especializado en Tecnología Educativa en la
Universidad de Delaware, manifiesta que "Multimedia es el uso del ordenador para
presentar y combinar: texto, gráficos, audio y vídeo con enlaces que permitan al usuario
navegar, interactuar, crear y comunicarse".
El concepto multimedia se refiere, por lo tanto, al tipo de objeto o sistema que use
múltiples medios de expresión ya sean físicos o digitales para presentar o para
comunicar una determinada información.
El diseño multimedia combina los distintos soportes para la transmisión de la
información: el texto, el sonido, la imagen, la fotografía, la animación gráfica y el vídeo,
empleándolos de un modo interactivo, creando una vinculación que permita al usuario
participar e interactuar.
C O NT I NU A R
La edición multimedia integra estratégicamente tanto los conceptos básicos de la
comunicación como la interactividad como aquellos aspectos del diseño de la
imagen en sus diversos soportes. Trata de llevar a cabo un desarrollo innovador de
contenidos apoyados en un dinamismo visual para llamar la atención del usuario con
el objetivo principal de transmitir una determinada información.
Podrás encontrarlo en diversos soportes como el contenido de un sitio web o bien en un
formato físico como un pendrive al cual el usuario pueda acceder y recibir fácil y
dinámicamente la información y el mensaje que transmite de un modo muy visual.

La edición multimedia
¿Sabes en qué ámbitos se puede utilizar la edición y diseño multimedia? Se
emplea en diversas áreas como el arte, la educación, el entretenimiento, los
entornos virtuales y los videojuegos, entre otras. Destaca en cada uno de
estos campos por el uso del diseño digital, el diseño web, la imagen gráfica,
la ilustración y la animación digital.
C O NT I NU A R
Cuando un sitio web o un aplicación te ofrece libertad de movimiento para recorrer la
presentación de una determinada información, se dice que se está frente a un contenido
multimedia interactivo, muy innovador y diferente a las presentaciones lineales en las que
la visualización es lineal y rígida.
Un contenido multimedia interactivo permite que seas tú quien decida lo que vas a ver o
leer, cuándo, en qué orden y de qué modo. Un ejemplo de un contenido multimedia
interactivo sería una visita virtual a un museo.
Así, el diseñador multimedia será capaz de llevar a cabo el desarrollo de un sitio
web o bien cualquier otro tipo de interfaz. También podría realizar cambios
innovadores en el diseño de imagen corporativa de alguna empresa.

Contenido multimedia interactivo


C O NT I NU A R
Lo que caracteriza al diseño multimedia es que siempre mantiene ese modo
innovador de presentar contenidos al cliente mediante estímulos
visuales y un proceso de interacción para realizar una transmisión del
mensaje mediante la aplicación estratégica llevada a cabo en distintos
formatos.
En este vídeo el profesor de Gestión y desarrollo de nuevos medios (MEGEC), de la
Universidad de Navarra, Ramón Salaverría, te enseña qué es la hipertextualidad, la
interactividad y la multimedialidad.
Por medio de esta breve explicación aprenderás cómo explotar esas posibilidades por
parte de todo tipo de profesionales.
Seguro que te aporta una información realmente valiosa, ¿te la vas a perder? ¿No? ¡Pues
dale al play, porque en la pantalla siguiente te haremos algunas preguntas sobre su
contenido!

Hipertextualidad, interactividad y
multimedialidad
Fuente de vídeo: https://www.youtube.com/watch?v=dbSUca9X9kE
C O NT I NU A R
Autoevaluación
Pregunta
01/03
Un periódico podría ser considerado un objeto hipertextual.
Verdadero.
Falso.
Pregunta
02/03
¿Cuántos niveles tiene la interactividad en Internet?
1.
3.
5.
Ninguna de las anteriores.
Pregunta
03/03
Un periódico podría ser considerado un multimedia, aunque sea de una manera
muy
limitada.
Verdadero.
Falso.
Entre las diversas tareas que debe desempeñar un diseñador multimedia están las
siguientes:
Como puedes suponer por esta lista de obligaciones, llevar a cabo la producción de
servicios o productos multimedia no es una tarea sencilla. Se trata de una labor
compleja, ya que combina distintas tecnologías, y debe guiarse adecuadamente la gestión
del proyecto desde su conceptualización hasta el lanzamiento y quizás más allá.

Tareas de un diseñador multimedia


En la siguiente pantalla podrás conocer en profundidad este proceso de
producción y sus fases.
C O NT I NU A R
La producción multimedia contiene cada uno de los aspectos a tener en cuenta en la
creación de un producto multimedia y dependerán de tal producto o servicio, sus fases,
responsabilidades y dominios de acción serán distintas tanto en contenido como en orden
y sincronía.
A veces se confunden los términos desarrollo y producción, y realmente, un desarrollo
multimedia es parte del proceso de producción de un producto o servicio. Es decir, una
producción multimedia es el conjunto de todas aquellas tareas que estén relacionadas
con el proyecto desde la gestión presupuestaria hasta la gestión del equipo de
producción, pasando incluso por tareas de marketing.
Generalmente, una producción multimedia implica llevar a cabo una serie de tareas de
desarrollo y programación informática, y en otros casos solo implican algunas de tales
fases. Las fases de producción más habituales son estas que puedes conocer pulsando en
las siguientes pestañas:

Fases de la producción multimedia


Análisis preliminar –
Se lleva a cabo la definición de los objetivos con todos los implicados. Se lleva a cabo tanto el
sumario de proyecto, como una evaluación preliminar de necesidades y termina dándole
forma a un equipo de desarrollo.

Definición y planificación –
En esta fase se produce una declaración de objetivos y requisitos en detalle y una
planificación para realizar el proyecto. Se seleccionan tecnologías a usar, la estrategia de
contenidos, el equipo humano y la definición de requisitos técnicos. Aunque en la fase
anterior se realiza un trabajo preliminar de análisis de mercado, es en esta en donde resulta
necesario profundizar en él.

Diseño y desarrollo –
Las tareas de diseño son realizadas por el personal creativo o técnico-creativo.

Despliegue –
El despliegue del producto se encuentra en las tareas de desarrollo. En función del tipo de
proyecto, el despliegue se podrá llevar una vez que el producto ha sido finalizado o a veces
se deberá terminar el desarrollo en la infraestructura definitiva en la que será usado por
los usuarios finales.

Mantenimiento –
En esta fase se lleva a cabo el análisis y la elaboración de informes pertinentes de
resultados, y se determinan los requisitos para su gestión y mantenimiento.
C O NT I NU A R
Las herramientas de edición multimedia son aplicaciones que se encuentran en las
computadoras o de manera online, donde puedes darle uso y realizar todo tipo de
actividades para modificar, retocar y mejorar los productos.
A continuación se muestran herramientas relacionadas con el vídeo, sonido, imágenes,
imágenes vectoriales y modelado 3D. Pulsa en las pestañas para describirlas:

Herramientas de edición multimedia


Vídeo –
A veces necesitarás grabar bien la pantalla de ordenador o la webcam, modificar diversos
archivos de vídeo, sonido e imagen, recortar y dividir vídeos, así como poder agregar efectos,
transiciones y textos, y acabar exportando los resultados en distintos formatos y calidades. Para
ello tienes a tu disposición los siguientes programas:
AVS Video. Programa de pago completo con una gran capacidad y diversas funcionalidades
para la edición de vídeo.
Adobe Premiere Pro. Es un software de edición de vídeos para películas, TV y la web.
iMovie. Es el editor de vídeo de Apple
Y muchas más, entre la que cabe destacar VirtualDub, una herramienta muy completa de
software libre.

Sonido –
Con las herramientas multimedia especializadas en sonido podrás grabar, recortar, dividir,
exportar en diversos formatos y añadir efectos. Tienes estas a tu disposición:
Audacity y Lame. Son herramientas gratuitas. Audacity es un programa muy sencillo y
completo para la edición de sonido. Requiere de la aplicación Lame para poder exportar a
MP3.
Soundation. Interesante herramienta online para componer música.
Free audio editor. Editor de audio gratuito de libre descarga.

Imagen –
Estas herramientas permiten la edición de imágenes con bastantes herramientas con las que
podrás escalar, recortar, seleccionar áreas, etc. Las más conocidas son las siguientes:
Adobe Photoshop. Es de pago y en las últimas versiones se ha convertido en una
herramienta online. Podrás hacer absolutamente de todo con esta herramienta, sobre todo
es muy indicada para el retoque fotográfico.
Adobe Fireworks. Herramienta de pago. Posee una interfaz muy parecida a la de
Photoshop, aunque es bastante distinto.
Gimp. Editor de imágenes de software libre.

Imagen vectorial –
Las imágenes vectoriales, como ya sabes, no tienen píxeles, sino líneas y figuras geométricas
que permiten que una imagen pueda variar su tamaño sin perder calidad. Las siguientes
herramientas permiten editar las imágenes vectoriales y exportarlas a SVG:
Adobe Illustrator. Es de pago y en las últimas versiones se ha convertido en una
herramienta online. Quizás sea el programa más cómodo y empleado para editar imágenes
vectoriales.
Inkscape. Editor gratuito de imágenes vectoriales de software.

Modelado 3D –
Las herramientas multimedia de modelado 3D permiten editar de objetos 3D y exportar a
COLLADA.
Blender. Se trata de una herramienta gratuita de software libre. Programa muy completo
empleado tanto de manera profesional como amateur.
SketchUp. Herramienta de pago para el modelado 3D.
C O NT I NU A R
En este vídeo el profesor de Ingeniería de la Construcción y de Proyectos de Ingeniería
Civil de la Escuela Técnica Superior de Ingeniería del Diseño, Ignacio Despujol Zabala, te
enseña qué es la creación multimedia y te dará a conocer algunas herramientas de
creación multimedia.
No dejes de verlo porque en las siguientes pantallas deberás responder a una serie de
preguntas sobre su contenido.

La creación multimedia
Fuente de vídeo: https://www.youtube.com/watch?v=UQjrPTrQDT8
C O NT I NU A R
Autoevaluación
Pregunta
01/03
Para grabar el audio de un vídeo basta con el propio micro del ordenador.
Verdadero.
Falso.
Pregunta
02/03
¿Cuál de las siguientes herramientas permite grabar lo que sucede en la pantalla
del
ordenador mientras hablas de fondo?
CamStudio.
Jing.
Camtasia.
Todos ellos lo son.
Pregunta
03/03
¿Qué herramienta recomienda el vídeo para editar vídeos desde el punto de
vista
profesional en Windows?
Vegas Movie.
Screencast.
Virtualdub.
Ninguno de ellos
Como ejemplo de diferentes ámbitos en los que puedes encontrar recursos de diversa
índole en Internet se pueden destacar:
Música – Jamendo.
Fotos - Flickr, Panoramio, Picasa.
Vídeos – YouTube, Vimeo.
Pulsa en las siguientes imágenes para saber un poco más de cada uno de ellos:

Recursos multimedia. Ejemplos


Música
También se comparten archivos de
audio en Internet. ¿Has oído hablar de
Jamendo? Es una web en la que
solistas y grupos musicales pueden
subir sus canciones y determinar sus
licencias como creative commons

Fotografías
Muchos fotógrafos usan portales para
compartir sus obras, algunas de ellas
también con licencia creative
commons. Podrás encontrar páginas
como Flickr o Instagram. Además de
ello existen una gran cantidad de
Vídeos
Cada vez son las redes sociales que
permiten subir vídeos, aunque hay
algunas redes sociales que están
centradas únicamente en el uso de
archivos de vídeo como, por ejemplo,
YouTube y Vimeo.
¿Recuerdas las diferencias entre copyright y copyleft que aprendiste en el
epígrafe anterior? Tenlo presente en este caso porque lo que aprendiste no
se refiere únicamente a las imágenes, sino a cualquier creación en cualquier
formato.
C O NT I NU A R
En este vídeo Elena Pelejero Ibáñez, desarrolladora de soluciones audiovisuales en
Max/MSP en la Universitat Politècnica de València, te mostrará una serie de recursos
multimedia.
Te enseñará de manera sencilla y amena sitios web donde podrás descargar vídeos y
audios, así como editores de vídeo y de audio fáciles y gratuitos.
Seguro que te aporta una información realmente valiosa. No dejes de visualizar el vídeo
para poder contestar a las preguntas que sobre él se plantearán en las siguientes
pantallas.

Recursos multimedia
Fuente de vídeo: https://www.youtube.com/watch?v=n6_DMIxsyNk
C O NT I NU A R
Autoevaluación
Pregunta
01/03
¿Cuál de las siguientes es un sitio web para descargar sonidos que recomienda
el vídeo?
Freesound.org.
Unsplash.com.
Sonidos.org.
Ninguna de las anteriores.
Pregunta
02/03
¿Qué opción hay que escoger para unir dos vídeos?
Unsplash.com.
videos.pexels.com.
Videos.org.
Ninguna de las anteriores.
Pregunta
03/03
¿Qué herramienta recomienda el vídeo para la edición de audio?
Sony Vega.
Audacity.
SoundEditor.
Ninguna de las anteriores.

Recursos multimedia agrupados para el


desarrollo web: Blue Vertigo
Existe un sitio web muy completo que agrupa una gran serie de diversos tipos de productos
multimedia que, sin duda, te resultarán de gran ayuda cuando tengas que desarrollar un sitio web
por ti solo: Blue vértigo.
Aquí, moviéndose por el enorme scroll horizontal, podrás encontrar miles de enlaces a páginas
que contienen productos multimedia agrupadas por temática. Está información es
frecuentemente actualizada y te indicará si la web ha sido agregada hace poco o si la web está
inoperativa temporalmente. Podrás encontrar las siguientes categorías:
• Imágenes y fotografías.
• Vídeos.
• Imágenes vectoriales.
• Herramientas para esbozos o mockups.
• Fuentes de texto.
C O NT I NU A R
• Logotipos.
• Brochas de Photoshop.
• Presents de Lightroom.
• Imágenes 3D.
• Plantillas y temas para sitios web.
• Iconos.
• Sonidos.
• Herramientas para generar colores.
• Miscelánea.
Sin duda es un sitio web muy recomendable que te servirá de ayuda para encontrar ese apoyo
con el que poder comenzar y disponer de innumerables productos multimedia que harán que tu
sitio web tenga una presencia mucho más profesional.

Recapitulación
Hasta este momento has aprendido que multimedia es un término que hace alusión
tanto a las técnicas usadas para presentar contenidos como a los propios
contenidos en sí.
No solo eso, sino que además, ahora conoces que la edición multimedia integra
estratégicamente tanto los conceptos básicos de la comunicación como la
interactividad como aquellos aspectos del diseño de la imagen en sus diversos
soportes.
Conoces también ahora las diversas tareas que debe desempeñar un diseñador
multimedia.
Además aprendiste que las fases de producción más habituales son las siguientes:
análisis preliminar, definición y planificación, diseño y desarrollo, despliegue y
mantenimiento.
Para finalizar, aprendiste que las herramientas de edición multimedia son
aplicaciones que se encuentran en las computadoras o de manera online, a las que puedes
dar uso y realizar todo tipo de actividades para modificar, retocar y mejorar los productos.
C O NT I NU A R
Autoevaluación
Pregunta
01/03
Multimedia es un término que hace alusión tanto a las técnicas usadas para
presentar
contenidos como a los propios contenidos en sí.
Verdadero.
Falso.
Pregunta
02/03
El proceso de producción de un producto o servicio es parte del desarrollo
multimedia.
Verdadero.
Falso.
Pregunta
03/03
¿Cuál de las siguientes no es una herramienta de edición de vídeos?
AVS Video.
Adobe Premiere Pro.
Audacity.
iMovie.
Es muy importante que conozcas cada detalle sobre el vídeo digital para poder
generar contenidos audiovisuales de calidad.
Así, en este epígrafe descubrirás aspectos que deberás tener en cuenta para producir,
grabar y editar vídeos actualmente.
Todos estos conceptos te resultarán muy útiles para el desarrollo de cualquier vídeo, ¿te
apetece conocerlos? ¡Pues sigue leyendo!
El vídeo digital, a diferencia del analógico, representa las imágenes en movimiento
mediante la codificación de datos digitales en lugar de utilizar señales. Es decir, el vídeo
digital guarda un serie de imágenes en movimiento a través de datos digitales
codificados, mientras que el vídeo analógico que lo hace mediante señales analógicas.

7. El vídeo digital
Algunas de las ventajas que esto presenta son la posibilidad de realizar copias sin perder
calidad, la variedad de diferentes soportes (DVD, Blu-Ray, pendrives o discos sólidos) y sus
posibilidades a la hora de una edición no lineal de la película.
El primer formato de vídeo en cinta data de 1956. El sistema de Ampex Quádruplex ha ido
evolucionando hasta los formatos digitales actuales. Es posible reproducir un vídeo en
formato digital en una infinidad de dispositivos, ha habido un gran número de cambios e
innovaciones. En 1984, surge H.120, el primer estándar de vídeo digital y, cuatro años
después, en 1988, llegaría el H.261, considerado como la base de todos los estándares
modernos.
C O NT I NU A R
A continuación repasarás una buena cantidad de herramientas de edición
de vídeo que podrás usar para trabajar con vídeos digitales y en los
siguientes apartados conocerás muchos más aspectos relacionados con
ellos.
El video te permite ofrecer una mayor cercanía con su contenido que una web con
contenido meramente textual. Esto además transmitirá a tus clientes mucha más
confianza y credibilidad, por lo que es un recurso imprescindible para el marketing de
cualquier empresa. Ayudará a mejorar los índices de conversión tal y como indican
algunos estudios de marketing.
Conscientes de la importancia de los vídeos, a partir de este momento podrás realizar un
repaso a algunas herramientas de edición de vídeos, alguna de ellas gratuitas.
Encontrarás que el interfaz de varios de esos programas son muy intuitivos y que están
adaptados a personas sin ningún conocimiento en la materia.
A continuación podrás ver algunas de las estas herramientas y pulsando sobre estas
imágenes accederás a su web oficial:

Herramientas para la edición de vídeos


Sony Vegas Pro Avidemux Windows Movie Maker
OpenShot VirtualDub Lightworks

No dejes de avanzar en las siguientes pantallas si quieres conocer en


profundidad cada una de estas herramientas. Descubrirás detalles de su
funcionamiento y sus características que te ayudarán a escoger entre ellos.
C O NT I NU A R
Aunque sea un programa de edición de vídeo pensado para profesionales, su interfaz es
fácil y práctica, incluso para los que no tienen mucha experiencia.
Con Sony Vegas Pro podrás realizar ediciones de gran calidad. Si te cuesta comenzar,
debes saber que puedes contar con innumerables tutoriales a tu disposición en el
propio sitio web oficial. También dispondrás de tutoriales realizados por artistas
independientes en la siguiente página web.
Dispone de varias versiones, desde la más económica, la Vegas Pro 17 Edit, por 399 €, hasta
la más completa, que tiene un valor de 799 €, la Vegas Pro 17 Suite. También existe la
posibilidad de usar la aplicación en la nube con la versión Vegas Pro 365 por 11,67 € al
mes.
Sony Vegas Pro
C O NT I NU A R
Avidemux es una aplicación de software libre para la edición y el procesado de vídeo
multipropósito. Podrás editar vídeos pero también agregarles distintos efectos que
aporta el propio programa. Ofrece además una variedad de codecs para codificar el vídeo
con mejor calidad. Es competencia directa del líder de las aplicaciones de este tipo de
software libre: Virtualdub.
Avidemux es bastante rápido y de un uso muy simple. Ofrece una serie de herramientas
que te permitirán cambiar la resolución y los cuadros por segundo, además de variar la
calidad y codificar vídeos con distintos formatos de archivos.

Avidemux
¿Te estás planteando utilizar este programa? Pues debes saber que la
interfaz de Avidemux es de uso muy sencillo, aunque al principio puede
parecer un poco abrumadora al contar con muchas pestañas y opciones.
Pero si te aplicas en su aprendizaje no tardarás en hacerte con ella después
de probarla por un rato.
C O NT I NU A R
Los códecs de Avidemux
Avidemux funciona con códecs, como la mayoría de los editores. En función de si se trata
de un archivo de audio o de vídeo, ofrecerá un listado de las posibilidades para emplear
de códecs con los que codificar el vídeo o el audio. También dispone de una gran cantidad
de efectos y herramientas para poder editar y modificar el vídeo. De hecho, tu primera
impresión seguramente sea de asombro por la gran cantidad de herramientas que
tendrás para usar.
El codificador principal de vídeo que usa Avidemux es LavCodec. De ahí es de donde
proviene la gran calidad de codificación que ofrece este programa. LavCodec destaca por
su gran velocidad y calidad de codificación.
Un códec es un programa informático que utiliza la compresión para reducir un archivo de vídeo.
El códec codifica, comprime los datos para almacenarlos o enviarlos, y luego los descomprime
para reproducirlos o editarlos.
C O NT I NU A R
Windows Movie Maker es un software de edición de vídeo creado por Microsoft.
Microsoft indica desde su página oficial que Windows Movie Maker, ya no está disponible
para su descarga. Además advierte que los sitios web que ofrecen descargas gratuitas de
este programa, no ofrecen la auténtica versión y además, podrían incluir malware, virus o
costes ocultos. Microsoft sugiere usar la aplicación para fotos que viene con Windows 10
para crear películas ya que permite crear y editar vídeos con música, texto, movimiento,
filtros y efectos 3D.
De hecho, aunque es menos popular que el ya establecido Windows Movie Marker, el uso
de ambos programas es prácticamente el mismo. De todos modos, si usaste Windows
Movie Maker y quieres seguir haciéndolo no tendrás problema en encontrarlo en Internet.
Se trata de un programa con el que podrás crear, editar y compartir tus propios montajes
con vídeo, imágenes y sonido. Su uso es tan fácil que tan solo tendrás que arrastrar los
elementos que desees, ya sean vídeos, sonidos o imágenes. Podrás emplear cualquiera de
los 60 efectos que ofrece y podrás obtener montaje muy profesional.
Algunas de las funcionalidades más importantes que ofrece Windows Movie Maker son:

Windows Movie Maker


C O NT I NU A R
OpenShot Video Editor es un programa diseñado para crear y editar vídeos. Es un
programa de software libre y totalmente gratis para los principales sistemas operativos.
Con esta aplicación podrás combinar fácilmente distintos vídeos, sonidos e imágenes en
un único proyecto. Al concluir la edición, podrás exportar el vídeo resultante a varios de
los formatos más comunes de vídeo.
Se trata de un editor no lineal de vídeo, es decir, podrás acceder a cualquier fotograma de
vídeo cuando desees. Además, es posible superponer, mezclar y ordenar las secuencias
del vídeo de un modo sencillo y muy creativo. Ninguna edición de las secuencias de vídeo
es destructiva, de modo que siempre podrás volver a acceder a las secuencias de vídeo
originales sin ninguna modificación previa.

Openshot
¿Te estás planteando utilizar el OpenShot para tus trabajos de vídeo? Si es
así, debes saber que con OpenShot puedes generar desde presentaciones
de diapositivas, editar vídeos caseros o incluso, crear anuncios para tu
propia empresa, tu imaginación es el único límite.
C O NT I NU A R
OpenShot ofrece soporte para una enorme diversidad de formatos de vídeo, audio e
imágenes. Incluye herramientas básicas de corte y edición de vídeo, transiciones,
composiciones e incluso ofrece inserción de títulos en 3D. La interfaz de OpenShot es muy
sencilla, y permite el típico arrastrar y soltar, podrás determinar cada parámetro del
proyecto, crear títulos y añadir otros archivos.
Actualmente es una aplicación madura contando ya con varios años en el mercado,
aunque ha sido últimamente cuando el equipo de desarrollo apoyado en el crowdfunding
ha podido hacerle dar un salto cualitativo interesante.

Usabilidad de OpenShot
Es una muy buena opción de uso si quieres empezar a editar tus propios
vídeos. Aunque, evidentemente, no llegará al nivel de otros programas como
Adobe Premiere o Final Cut Pro, si tan solo requieres las funcionalidades
básicas y quieres un producto gratuito puede ser una buena elección.
C O NT I NU A R
VirtualDub es una herramienta de captura y procesamiento de vídeo válida para
plataformas de 32 y 64 bits de Windows (98/ME/NT4/2000/XP/Vista/7), de software libre.
No tiene tanta potencia de edición como un editor de propósito general, como puede ser
Adobe Premiere, pero viene a ser más eficiente con las operaciones lineales.
Posee capacidad de procesamiento por lotes para grandes cantidades de archivos y
puede ampliarse con filtros de vídeo de terceros.
VirtualDub está orientado principalmente hacia el procesamiento de archivos
AVI, aunque también puede leer pero no escribir MPEG-1 y también gestionar conjuntos
de imágenes BMP.
Permite recortar y limpiar vídeos de modo sencillo. Si buscas un editor de vídeo sencillo y
no quieres gastar dinero, esta es tu elección idónea.

Virtualdub
C O NT I NU A R
Este vídeo te enseñará cómo usar uno de los editores de vídeo más usados en el ámbito
del software libre: Virtualdub.
Visualízalo con atención, porque te aportará una información realmente valiosa de manera
sencilla y didáctica.
Además, en las pantallas siguientes deberás responder a una serie de preguntas sobre
sus contenidos.
¡Dale al play!

Edición de vídeo con Virtualdub


Fuente de vídeo: https://www.youtube.com/watch?v=PR0zejrA4HQ
C O NT I NU A R
Autoevaluación
Pregunta
01/03
¿Qué nos indica al principio el vídeo que hay que hacer para para no volver a
comprimir
nuestro archivo?
En la pestañas superiores, hay que escoger "Vídeo" y cambiar "Full processing mode" por "Direct
stream copy ".
En la pestañas superiores, hay que escoger "Vídeo" y cambiar "Direct stream copy " por "Full
processing mode“.
En la pestañas superiores, hay que escoger "Vídeo" y marcar “Normal recompress”.
Ninguna de las anteriores.
Pregunta
02/03
¿Qué opción hay que escoger para unir dos vídeos?
En la pestaña “File” selecciona “Save as AVI”.
En la pestaña “Append” selecciona “new AVI segment”.
En la pestaña “File” selecciona “Append AVI segment”.
Ninguna de las anteriores.
Pregunta
03/03
Si vamos a unir varios vídeos, ¿qué deben cumplir los vídeos?
Que tengan la misma duración.
Que tengan las mismas características.
Que no sean iguales.
Ninguna de las anteriores.
Lightworks es un editor de vídeo no lineal muy potente que fue usado en multitud de
películas, algunas famosas como Braveheart, Batman, Mission Imposible o Pulp Fiction.
Pasó a ser una herramienta de software libre en 2010. Actualmente se encuentra
disponible para Windows, Mac OS X y Linux.
Fue creado en 1989, es decir, que es todo un pionero en la edición de vídeo en ordenador.
Desde entonces, este editor de vídeo profesional ha sido usado para editar y masterizar
películas con resoluciones de hasta 4096×2160 (8.8 megapixeles) y en producciones para
televisión en PAL, NTSC y HD.

Lightworks
LightWorks da soporte a una gran cantidad de formatos, alguno de ellos de
tipo profesional como MXF, Pro Res, Avid DnxHD, DVCPRO HD. Según dicen los
desarrolladores de Lightworks, este programa ofrece la potencia de edición
de un estudio de Hollywood al alcance de cualquiera.
C O NT I NU A R
Los controles de edición de LightWork son simples, pero muy potentes, con una línea
de tiempo en la que podrás fácilmente cortar trozos de un vídeo y ordenar a tu gusto, sin
demasiadas complicaciones ni opciones secundarias que enrevesan la funcionalidad.
Además, este programa te ofrece la posibilidad de modificar las velocidades de los
vídeos, los volúmenes de los audios, y agregar efectos y transiciones en tiempo real.
Te permite también usar efectos innovadores, como editar filmaciones con múltiples
cámaras en tiempo real o hacer uso de la edición estereoscópica y montar tu propia
película en 3D.
Usabilidad de LightWorks
C O NT I NU A R
Con esta herramienta podrás usar efectos en tiempo real con resoluciones
de infarto de modo que, aprovechando la potencia de las actuales GPUs, te
permitirá gestionar composiciones y efectos como correcciones de colores,
efectos de difuminado o fundidos sin problema y sin importar el tipo de
formato de vídeo que uses.
Este vídeo te mostrará cinco alternativas gratuitas a Premiere y Vegas Pro de software
libre: Openshot, Da Vinci Resolve, Shotcut, Hitfilm Express y Lightworks.
Realizado por Pedro Terrero, de Creatubers, analiza de manera amena y sencilla estos
programas que podrás empezar a utilizar al momento en tu mismo equipo.
Dale al play y visualiza su contenido porque en las siguientes pantallas deberás responder
algunas preguntas sobre su contenido.

Cinco programas de edición de vídeo gratuitos


Fuente de vídeo: https://www.youtube.com/watch?v=NBXqdBU3bE0
C O NT I NU A R
Pregunta
01/03
Openshot es una herramienta de edición de vídeo orientada a…
Profesionales.
Aquellos que estén comenzando en el mundo de la edición.
Solo a los usuarios de GNU/Linux.
Ninguna de las anteriores.

Autoevaluación
Pregunta
02/03
¿En qué ámbito profesional es muy empleado Lightworks?
En el cine.
En la edición de presentaciones.
En la radio.
Ninguna de las anteriores.
Pregunta
03/03
¿Cuáles de las siguientes herramientas de software libre de edición de vídeo
tiene un
interfaz similar al de Adobe Premier?
Openshot.
Da Vinci Resolve.
Hitfilm Express.
Lightworks.

Pasos para la realización de la edición de video


Después de ver el vídeo anterior, ¿te animas a realizar tu propia edición de vídeo? ¿Qué programa
es el que te ha llamado más la atención? ¿Es el mismo con el que te animas a empezar? ¿O e que
mejor se adapta a tus necesidades?
Sea cual sea el programa que hayas solucionado, ten en cuenta que las diversas etapas que
deberás llevar a cabo para hacer una edición completa de vídeo son las siguientes:
• Selección de las secuencias a emplear. Lo primero que debes hacer es revisar el vídeo para
decidir cuáles serán las secuencias que quieras usar. Anota las secuencias y los momentos de
comienzo y de finalización de cada una de ellas.
• Importación o captura de las secuencias seleccionadas previamente en el programa de
edición.
• Edición. Podrás actuar con las secuencias seleccionadas, uniéndolas y agregando títulos,
efectos y transiciones al resultado.
• Exportación del producto final. Podrás obtener el resultado final en multitud de formatos
posibles como .AVI o .MOV.
C O NT I NU A R
Cuando realizas la edición, esta se lleva a cabo tanto en la imagen como en el sonido. Las últimas
cámaras digitales de vídeo poseen un disco duro integrado donde guardan directamente los
vídeos. Para trabajar con ellos después debes obtenerlos. Para esto basta con conectar la cámara
de vídeo a un ordenador mediante un puerto USB y transferir las secuencias deseadas.
Lo que sí debes hacer siempre es verificar la compatibilidad de la cámara tanto con tu programa
de edición como con el sistema operativo de tu ordenador.

Recapitulación
Hasta este momento has aprendido que el vídeo digital, a diferencia del analógico,
representa las imágenes en movimiento mediante la codificación de datos digitales en
lugar de utilizar señales.
No solo eso, sino que además conoces ahora que el vídeo te permite ofrecer una mayor
cercanía con su contenido que una web con contenido meramente textual, y esto además
transmitirá a tus clientes mucha más confianza y credibilidad, por lo que es un recurso
imprescindible para el marketing de cualquier empresa.
Conoces también ahora también que Sony Vegas Pro es un programa de edición de vídeo
pensado para profesionales, su interfaz es fácil y práctica, incluso para los que no tienen
mucha experiencia.
Además aprendiste que Avidemux es una aplicación de software libre para la edición y el
procesado de vídeo multipropósito.
Ahora sabes que Windows Movie Maker es un software de edición de vídeo creado por
Microsoft, pero ya no está disponible para su descarga.
Eres conocedor de que OpenShot Video Editor es un programa diseñado para crear y
editar vídeos. Es un programa de software libre y totalmente gratis para los principales
sistemas operativos.
También has conocido VirtualDub, que es una herramienta de captura y procesamiento de
vídeo válida para plataformas de 32 y 64 bits de Windows, de software libre.
Para finalizar, aprendiste que Lightworks es un editor de vídeo no lineal, pero muy
potente, que fue usado en multitud de películas, algunas famosas como Braveheart,
Batman, Misión Imposible o Pulp Fiction.
C O NT I NU A R
Autoevaluación
Pregunta
01/03
¿En qué año surge el primer formato de vídeo en cinta?
1956.
1972.
1980.
1983.
Pregunta
02/03
¿Cuál es el codificador principal de vídeo que usa Avidemux?
VHS.
LavCodec.
PAL.
Ninguno de los anteriores.
Pregunta
03/03
¿Qué editor de vídeo de los siguientes ha sido usado en algunas famosas como
Braveheart, Batman, Misión Imposible o Pulp Fiction?
Avidemux.
Virtualdub.
Lightworks.
Ninguno de los anteriores.
Ya has visto que el pixel es el componente más pequeño dentro de una imagen digital.
La unión de un buen número de ellos forman una imagen completa. Es decir, que cada
uno de ellos muestra un único color, de modo que la unión de todos esos colores que
ofrecen los píxeles dará como resultado la imagen completa.
En este epígrafe aprenderás en profundidad aspectos relacionados con los píxeles y su
historia. Sigue leyendo para conocerlo.
Si ampliaras muchísimo una imagen digital, se apreciarían con facilidad cada uno de los
píxeles que la componen. Cada uno de los píxeles es cuadrado o rectangular y podrán
tomar cualquier color. Los colores y sus tonalidades son muchas y dependerán, como ya
sabes, de la profundidad del color.

8. Historia. Píxel
El término píxel se remonta a los años 30 y hace referencia a un elemento de imagen del
cine (picture element), de ahí su nombre. En la década de los setenta, se empieza a
pensar en el píxel como la célula menor que compone el complejo sistema de una
imagen digital, aplicada a la televisión antes que a las computadoras.
Incluso se habla de “elemento de imagen” en los primeros días de la televisión y se
introduce tal término en la patente alemana de 1888 de Paul Nipkow (“bildpunkt”,
traducido como “punto de imagen”). La primera publicación de la misma como elemento
de imagen se realizó en la revista Wireless World en 1927, a pesar de ya haber sido usado
anteriormente en varias patentes estadounidenses presentadas desde 1911.
C O NT I NU A R
Resumiendo, puedes definir un píxel o pixel (que ambas formas son correctas y tienen uso
indistinto más allá de elucubraciones estéticas) como la menor unidad homogénea en color que
forma parte de una imagen digital, con independencia de si se trata de una fotografía, un
fotograma de vídeo o un gráfico.
La primera imagen digital realizada en una computadora fue tomada en 1957 y mostraba
al hijo del investigador Russell Kirsch. Era una imagen granulada de un bebé, de tan solo 5
centímetros por 5 centímetros.
Hace ya más de 60 años, Russell Kirsch, pionero informático de la Oficina Nacional de
Estándares (NBS, ahora conocido como el Instituto Nacional de Estándares y Tecnología, o
NIST) se preguntaba "¿qué pasaría si las computadoras pudieran ver imágenes?". Kirsch y
sus colegas de NBS, que ya habían desarrollado la primera computadora programable de
la nación, se propusieron crear un escáner de tambor giratorio que permitía generar
imágenes. Y la primera imagen escaneada fue una toma del hijo de Kirsch, Walden, de tres
meses.

Historia: la primera imagen digital


Esa foto en blanco y negro fantasmal solo medía 176 píxeles de lado, muy lejos de las
instantáneas digitales de megapíxeles de la actualidad. En 2003, los editores de la revista
Life honraron la imagen de Kirsch al nombrarla como "una de las 100 fotografías que
cambiaron el mundo".
Kirsch y su esposa Joan, historiadora del arte, ahora residen en Oregón. Juntos, emplean
las computadoras para el análisis de las pinturas y poder definir los procesos artísticos
mediante el que fueron creadas. Su retratado hijo, Son Walden, cuyo imagen fue la
primera de la era de la fotografía computarizada, trabaja hoy en día en comunicaciones
para Intel tras realizar una exitosa carrera como reportero de noticias en televisión.
C O NT I NU A R
Las imágenes digitales procesadas resultan del procesamiento de imágenes, que consiste
en almacenar digitalmente recursos visuales previos como imágenes o vídeos, para
trabajar posteriormente sobre ellos y modificarlos de varios modos. Es decir, se trata de
imágenes obtenidas a partir de dispositivos de conversión analógica/digital, como los
escáneres o las cámaras digitales y que podrán ser editadas digitalmente mediante
aplicaciones, pero sin intervenir directamente en su creación.

Imágenes digitales procesadas (IDP) vs.


Imágenes digitales de síntesis (IDS)
Por otro lado, las imágenes digitales de síntesis, conocidas también como infografías,
se sitúan en el ámbito de la computación gráfica. Se generan mediante software y son
producidas mediante algoritmos y sin necesidad de disponer de un referente real.
Por ejemplo, realizar dibujos con el ratón o con una tableta digitalizadora. Esas imágenes
generadas de ese modo también se pueden modificar de varios modos. Las imágenes
digitales de síntesis entran en el ámbito de la simulación digital.
C O NT I NU A R
¿Sabías que el desarrollo tecnológico que permitió el procesamiento de
imágenes dio paso al desarrollo de la imagen de síntesis? Y es que las
imágenes de síntesis no hubieran sido posibles sin muchos de los
desarrollos tecnológicos que se produjeron en el campo del procesamiento
visual.
Todas estas innovaciones y avances en el procesamiento de imágenes y las mejoras en los
métodos para transmitir imágenes electrónicas no cesaron y continuaron durante toda la
primera mitad del siglo XX. Aunque el verdadero salto cualitativo se produjo con la
combinación de los primeros grandes ordenadores y los intereses de la exploración
espacial y los avances médicos de la década de 1960. En estos años se realizaron pruebas
de manipulación de imágenes electrónicas empleando ordenadores para optimizar las
imágenes recibidas por las sondas espaciales.
En la década de los años setenta se produce una nueva gran evolución en la tecnología de
la imagen digital con el desarrollo de los microprocesadores, con los que se mejoró la
capacidad de procesamiento y el almacenamiento de las imágenes.

Imágenes digitales procesadas (IDP) vs.


Imágenes digitales de síntesis (IDS) II
El salto más importante lo supuso el desarrollo del dispositivo de carga
acoplada (CCD), un sensor con diminutas células fotoeléctricas capaz de
registrar la imagen. El CCD fue un gran hito en el desarrollo de las cámaras
digitales y aún hoy en día, se trata de un componente fundamental en ellas.
C O NT I NU A R
Kodak lanza su primera cámara digital en 1975 y un año después se inventa la matriz de
filtros de color, que posibilita captar los pixeles de la imagen en color. Este invento
implica que la base de las cámaras fotográficas digitales, tal y como son conocidas hoy en
día, estaba establecida desde 1976. En cuanto a las videocámaras, sus inicios datan del
principio de la década de los 80, pero no es hasta 1988 que Fuji no lanza la primera
videocámara digital.
Apoyado en la evolución de los ordenadores que se dio a lo largo de la década de los años
ochenta y en las grandes mejoras producidas respecto a la calidad visual, que permiten ya
en esos años alcanzar nuevos hitos, posibilitó que las herramientas de procesamiento de
imágenes digitales pudieran tener una demanda real de mercado, disparando su
producción y abaratando en gran medida los costes.

De Kodak a Apple
¿Recuerdas cuál fue la primera cámara digital que obtuvo un éxito masivo
de ventas? Sucedió en el no tan lejano año de 1994, cuando Apple lanza la
Apple Quick Take, que fue la primera cámara digital vendida masivamente.
C O NT I NU A R
El termino píxel procede del vocablo inglés pixel y surge como acrónimo entre los términos
pix (imagen) y element (elemento). Se emplea en la informática para indicar la superficie
homogénea más pequeña que forma parte de una imagen.
Los mapas de bits son un conjunto de píxeles que muestran distintos colores en función
de su profundidad de color, es decir, a través de un grupo de bits de longitud
determinada. El número de bits determinará el número de variaciones de color que
podrá mostrar cada píxel. Se habla de color verdadero cuando se sirven de tres bytes,
es decir, 24 bits para establecer un color, y podrá ofrecer 16.777.216 opciones distintas de
colores.

Píxeles
Es decir, el píxel es la unidad más pequeña de color homogéneo que compone una imagen
digital. Si amplias mucho una imagen digital, podrás observar cada uno de los píxeles que la
componen. Tal y como aprecias en la imagen presentada en esta pantalla, los puedes observar
como pequeños cuadrados o rectángulos que se servirán de los colores básicos para mostrar el
color final deseado.
C O NT I NU A R
Existe un término conocido como píxel muerto, que denotará todo aquel
píxel que no funcione y aparezca apagado. A veces se suele solucionar ese
problema haciendo una leve presión con el dedo sobre el área de la pantalla
donde esté ese píxel defectuoso.
Este vídeo te responderá a la pregunta “¿qué estamos viendo cuando miramos una imagen
en la computadora, en la pantalla de las cámaras de fotos o en la televisión?”
No dejes de verlo porque te explica de manera sencilla muchos de los conceptos que has
podido estudiar hasta ahora. Además, en la pantalla siguiente deberás responder a una
serie de preguntas sobre su contenido.
¡Dale al play!

¿Qué es un Pixel?
Fuente de vídeo: https://www.youtube.com/watch?v=Aeu-f9Ye0tQ
C O NT I NU A R
Autoevaluación
Pregunta
01/03
Cada pixel tiene un color y una posición en la pantalla.
Verdadero.
Falso.
Pregunta
02/03
Mientras menos píxeles tenga una imagen mayor calidad tendrá.
Verdadero.
Falso.
Pregunta
03/03
¿En qué medida indican la calidad de las fotos las cámaras fotográficas
digitales?
En megahercios.
En megapíxeles.
En megabytes.
Ninguno de los anteriores.
Las imágenes digitales se miden en megapíxeles (Mpx). Ten en cuenta que, al contrario
que con otras medidas empleadas en la computación, no se usa la base de 1024, sino que
en este caso se trata de un millón de píxeles.
A través de la cantidad de megapíxeles que ofrezca la cámara digital quedará
determinado el tamaño de las fotografías que permite realizar y el tamaño de las
impresiones. Aunque hay que tener en cuenta que la calidad de la imagen no crece
proporcionalmente con la cantidad de megapíxeles que tenga la cámara.
Si quieres saber cuál es el número total de píxeles de tu cámara digital, tan solo debes de
multiplicar el ancho por el alto en píxeles de la imagen máxima que sea capaz de tomar.

Múltiplos
Generalmente, se usan los megapíxeles para indicar la resolución de la imagen captada por las
cámaras digitales.
Por ejemplo, si dispones de una cámara con una resolución de 8 megapíxeles podrás hacer fotos
de 3264 X 2448 píxeles. Mientras que si tiene 3,1 megapíxeles, podrá hacer fotos de 2048 ×
1536.
Otra medida muy empleada es el gigapíxel (Gpx), que equivale a mil millones de píxeles
(recuerda siempre usar la base 1000 de los prefijos del sistema internacional, en este caso
en lugar de la base 1024 usual del ámbito informático).
C O NT I NU A R
¿Cómo escoger una buena cámara fotográfica
digital?
Comprar la cámara idónea para cada uno no es una tarea fácil. Además, debes partir de que no
hay cámaras buenas o malas sino cámaras adecuadas en función del uso que vayas a darle. Pero
es buena idea que a la hora de escoger una, te dejes guiar por los siguientes consejos:
• Prueba la cámara antes de comprarla si es posible. Comprueba que estés a gusto con ella,
que tenga un menú sencillo, un agarre adecuado, etc.
• Compara los precios cuando decidas el modelo a comprar. Investiga en las tiendas online, por
lo general te ofrecerán precios más baratos que las tiendas físicas.
• No busques la mejor cámara. Es complicado encontrar una cámara que sea la mejor en todo,
por lo que trata de que sea la mejor para tus necesidades reales.
• Ninguna especificación concreta te dirá cuál es la mejor.
• ¿Cámaras digitales DSLR, EVIL o compactas avanzadas? La réflex digital o DSLR tiene un
espejo que refleja la imagen de la lente, generalmente mediante un prisma hacia un visor
óptico. Mientras que la cámara EVIL o CSC, en lugar de tener un espejo que refleje la luz, envía
la imagen directamente desde el sensor hasta el visor o a la pantalla LCD trasera.
C O NT I NU A R
Básicamente es como la tecnología de una cámara compacta, pero permitiendo el cambio de
lentes.
• Escoge la resolución que necesites. Generalmente se mide en megapíxeles. Comprueba sus
lentes. Hay dos características importantes en relación con los objetivos: la apertura y la
longitud focal.
• Analiza los sensores. CMOS es el más popular. Una variante, BSI CMOS, es muy popular para
las cámaras compactas y permite una mayor sensibilidad con poca luz sobre una parte
relativamente pequeña del sensor. Las cámaras compactas más baratas usan sensores CCD.
Los CCD no ofrecen una calidad de imagen tan buena como los CMOS, pero los CMOS son más
caros.

Recapitulación
Hasta este momento has aprendido que el pixel es el componente más pequeño
dentro de una imagen digital. La unión de un buen número de ellos forman una
imagen completa. No solo eso, además, conoces ahora que si ampliaras muchísimo una
imagen digital se apreciarían con facilidad cada uno de los píxeles que la componen.
Conoces también ahora que la primera imagen digital realizada en una computadora fue
tomada en 1957 y mostraba al hijo del investigador Russell Kirsch. Además, aprendiste que el
término píxel procede del vocablo inglés “pixel” y surge como acrónimo entre los términos
pix (imagen) y element (elemento).
Ahora sabes que las imágenes digitales procesadas resultan del procesamiento de
imágenes, que consiste en almacenar digitalmente recursos visuales previos como
imágenes o vídeos, para trabajar posteriormente sobre ellos y modificarlos de varios modos.
Eres conocedor de que las imágenes digitales de síntesis, conocidas también como
infografías, se sitúan en el ámbito de la computación gráfica, se generan mediante
software y son producidas mediante algoritmos sin necesidad de disponer de un referente
real.
Para finalizar, aprendiste que las imágenes digitales se miden en megapíxeles (Mpx). Ten en
cuenta, que al contrario con otras medidas empleadas en la computación, no se usa la base
de 1024, sino que, en este caso, se trata de un millón de píxeles. Otra medida muy empleada
es el gigapíxel (Gpx), que equivale a mil millones de píxeles.
CONT I NU A R
Autoevaluación
Pregunta
01/03
¿De quién es la primera imagen digital que realiza a través de una computadora
Russell
Kirsch?
Su mujer.
Su hijo.
Un autorretrato.
Ninguno de los anteriores.
Pregunta
02/03
Un pixel puede emitir más de un color simultáneamente.
Verdadero.
Falso.
Pregunta
03/03
¿En qué año lanzó Kodak su primera cámara digital?
1975.
1980.
1985.
Ninguno de los anteriores.
Un fotograma es cada una de las imágenes que se suceden en una película de
cine y se consideran de manera aislada. Seguramente sepas que el vídeo es la
sucesión de esas imágenes estáticas o fotogramas que si son reproducidas con
una determinada frecuencia engañarán a tu visión y te harán crear la ilusión de
movimiento.
A lo largo de este epígrafe podrás descubrir en profundidad aspectos relacionados con los
fotogramas y sus tipos.
No dejes de avanzar en las pantallas si quieres aprender más sobre estos conceptos.
Fotograma es cada una de las imágenes una vez que han sido impresas en un papel. Una
película fotográfica es capturada por una cámara con altas capacidades de resolución y
velocidad para poder ofrecer una secuencia exacta.

9. Frame (fotograma)
Si una secuencia de fotogramas fuera visualizada con una determinada frecuencia de
imágenes por segundo podrás obtener sensación de movimiento. Esa es la base de las
películas cinematográficas.
Los primeros cineastas aprendieron mediante ensayo y error a crear la percepción del
movimiento. Se estableció una frecuencia de fotogramas por segundo de entre 12 y 16.
Con frecuencias más bajas, simplemente se percibirían una sucesión de fotografías fijas.
Esa ilusión funciona a 16 fotogramas por segundo, pero se optimiza a frecuencias más
altas. De hecho, Thomas Alva Edison llegó a la conclusión que la frecuencia óptima era de
46 fotogramas por segundo.
C O NT I NU A R
¿Sabías que Thomas Alva Edison patentó el kinetoscopio el 24 de agosto de
1891 para presentarlo posteriormente en la Feria Mundial de Chicago en
1893? Si quieres saber algo más de este suceso accede a este enlace.

Fotograma
El fotograma es una imagen fotográfica conseguida sin el uso de una cámara fotografía, sino
mediante la colocación de objetos por encima de una superficie fotosensible y
posteriormente a la exposición de la luz directa. Cada una de las imágenes impresas
químicamente en un tira de celuloide cinematográfico será un fotograma.
C O NT I NU A R
El tamaño de un fotograma de película varía en función de su formato. El
formato de aficionado es más pequeño y es de 8 mm, con unas medidas
aproximadas de 4,8 x 3,5 mm. En cambio, el formato imax es más grande y
mide aproximadamente 69,6 x 48,5 mm. Al ser más grande el fotograma, más
precisa y nítida será la imagen que proyecte.
Se suele confundir el término fotograma con el de vídeo “cuadro”. Y es que ambos tienen
el mismo objetivo, dar la sensación de movimiento, pero mientras que el fotograma es
un trozo de película, el cuadro consiste en un pedazo de cinta magnética. Con la entrada
masiva de los medios digitales, el cine y la televisión pasaron a emplear la misma
tecnología y se graban o al menos, se editan con tecnología digital, aunque inicialmente
ambos usaban tecnologías distintas, unos recogidos por un proceso químico y otros por un
proceso eléctrico.
Las imágenes, para transmitir movimiento serán presentadas a la velocidad constante que
ya conoces, pero también se podrá variar tal velocidad con el objetivo de crear varios
efectos: si capturas imágenes a velocidades altas o, por el contrario, muy bajas y después
las muestras a una única velocidad constante provocarás efectos importantes en la
percepción de las mismas.
C O NT I NU A R
Título de división de pantallas
¿Te suena el efecto de time bullet? Lo has visto popularizado en películas
como Matrix, y consiste precisamente en utilizar esas variaciones de
velocidad para lograr diversos efectos. No dejes de ver esta escena en la que
podrás apreciar el resultado de la variación de velocidad en las películas.
Este vídeo realizado por la productora cinematográfica Fredega Producciones te explica
brevemente la historia de cómo nació la imagen en movimiento y qué son los fotogramas y
los fotogramas por segundo.
No dejes de verlo porque en las siguientes pantallas deberás responder algunas
preguntas sobre su contenido.
¿Te lo vas a perder? ¿No? ¡Pues dale al play!
¿Qué son los fotogramas o frames por segundo?
La imagen en movimiento
Fuente de vídeo: https://www.youtube.com/watch?v=YC_hTkZzVjU
C O NT I NU A R
Autoevaluación
Pregunta
01/03
La velocidad de obturación de las primeras cámaras fotográficas era muy lenta.
Verdadero.
Falso.
Pregunta
02/03
¿Quién dio la primera sensación de movimiento con doce fotogramas de un
caballo?
Thomas Alva Edison.
Eadweard Muybridge.
Phil Collins.
Ninguna de las anteriores.
Pregunta
03/03
¿Qué frecuencia en fotogramas por segundo se usa actualmente en el cine?
24 fotogramas por segundo.
12 fotogramas por segundo.
36 fotogramas por segundo.
Ninguno de los anteriores.
Entre los fotogramas hay diversos tipos en función de sus propiedades. Estos tipos se
utilizan en diferentes herramientas, aunque suelen usarse los mismos tipos
genéricamente. Por ejemplo, a continuación se presentan algunos de los más usuales
usados en Flash:

Tipos de fotograma
C O NT I NU A R
Haz tu propio folioscopio
Un folioscopio no es más que una pequeña pila de hojas con imágenes que, pasadas con rapidez,
mostrarán una animación. Es fácil hacer tu propio folioscopio, tan solo necesitarás los materiales
adecuados y algo de tiempo.
A continuación se te facilitan los pasos que deberás llevar a cabo para crear tu folioscopio:
1. Hazte con una pila gruesa y pequeña de papel para hacer el folioscopio. Te valdrá una libreta o
un bloc de notas adhesivas. Procura que sea un papel liviano para poder pasar las hojas con
facilidad.
2. Comienza dibujando una imagen a lápiz en la esquina inferior derecha de la última hoja de la
pila. Esta imagen será la primera secuencia de la animación.
3. Pinta la misma imagen en la penúltima hoja, en el mismo lugar de la página que la primera, pero
cámbiala un poco. Será la segunda secuencia de la animación.
4. Sigue dibujando sucesivas imágenes con pequeños cambios en cada una de las hojas. Una
encima justo de la otra con pequeños cambios, de modo que se genere la animación cuando
pases rápidamente las hojas del folioscopio.
C O NT I NU A R
5. Agrégale si quieres color a la animación para que se vea mas profesional. Pero emplea los
mismos colores en todas las secuencias.
6. Haz dibujos más complejos si quieres llamar la atención con tu folioscopio.
7.Al terminar, pasa rápidamente las hojas del folioscopio para ver la animación terminada.
Puedes ver un ejemplo de un folioscopio ya realizado en el siguiente enlace.

Recapitulación
Hasta este momento has aprendido que un fotograma es cada una de las imágenes
que se suceden en una película de cine y se consideran de manera
aislada. Seguramente sepas que el vídeo es la sucesión de esas imágenes estáticas o
fotogramas que, si son reproducidas con una determinada frecuencia, engañarán a tu
visión y te harán crear la ilusión de movimiento.
No solo eso, sino que además conoces ahora que el fotograma es una imagen fotográfica
conseguida sin el uso de una cámara de fotografía, sino mediante la colocación de
objetos por encima de una superficie fotosensible y posteriormente a la exposición
de la luz directa.
Conoces ahora también que se suele confundir el término fotograma con el de vídeo
cuadro. Y es que ambos tienen el mismo objetivo, dar la sensación de movimiento, pero
mientras que el fotograma es un trozo de película, el cuadro consiste en un pedazo de
cinta magnética.
Además, aprendiste que entre los fotogramas hay diversos tipos en función de sus
propiedades. Para finalizar, aprendiste a realizar tu propio folioscopio.
CONT I NU A R
Autoevaluación
Pregunta
01/03
¿En qué año patentó Thomas Alva Edison el kinetoscopio?
1891.
1936.
1981.
Ninguno de los anteriores.
Pregunta
02/03
¿Cual era la frecuencia óptima en fotogramas por segundo según Thomas Alva
Edison?
12.
24.
36.
46.
Pregunta
03/03
Un fotograma es lo mismo que un vídeo cuadro.
Verdadero.
Falso.
La relación de aspecto, también llamada “razón de aspecto”, es la proporción
existente entre el ancho y la altura de una imagen digital o de una impresión o
de una pantalla o bien de una proyección. Son proporciones provenientes de las
diversas industrias, ya sea la televisión, el cine, los dispositivos de salida o la
papelería.
Si quieres obtener la relación de aspectos tan solo tendrás que dividir el largo
por el ancho en base a las unidades que posea la superficie.
En este epígrafe podrás aprender todo los relacionado con la razón de aspecto, así como
los tipos más comúnmente empleados.
Esta relación dimensional, llamada relación de aspecto, ratio, ratio de aspecto,
proporción de aspecto o razón de aspecto indican, como ya sabes, la proporción entre su

10. Relación de Aspecto (Aspect Ratio)


ancho y su altura. Normalmente se expresarán como "X:Y" siendo X la medida del ancho e
Y la medida del alto.
La relación de aspecto puede ser un elemento que, sumado a la regla de los tercios, muy
empleada en pintura, fotografía y cine para ordenar la disposición de los objetos, puede
servir para componer una imagen.
Mucha gente deja la relación de aspecto que está por defecto en sus cámaras y después,
al editar la imagen o el vídeo, lo recortan para ajustar la imagen a las dimensiones
requeridas. El resultado realizado de ese modo no será el mismo que si manipulamos
adecuadamente la relación de aspecto previamente en la cámara. Hay cámaras que,
cuando modificas la relación de aspecto en sus ajustes, tan solo recortan la imagen, pero
existen otras que, en función de la relación de aspecto, modifican su ángulo de visión para
aprovechar de mejor forma el sensor de tu cámara.
C O NT I NU A R
¿Sabías que algo así ocurre con los papeles que usas para escribir? Existen
estándares en sus medidas, conocidas por la letra "A" seguida de un
número: A0, A1, A2, A3, A4, A5, A6, A7, A8… Son los estándares para definir los
tamaños de papel y fueron creados en 1922 por la Deutsches Institut für
Normung (Instituto Alemán de Normalización), abreviado con sus siglas DIN.
La variedad de relaciones de aspecto hace que exista una gran variedad de dimensiones
posibles. Los fotógrafos apuestan por el formato 16:9, que es generalmente el empleado
en las televisiones de alta definición, para transmitir un efecto más cinematográfico a
tus imágenes.
En otras ocasiones, quizás el formato 1:1 sea el más adecuado para poder ofrecer una
mayor simetría y poder establecer el punto de atención en el centro de la instantánea.
Hoy en día está de moda este formato y está siendo muy usado en redes sociales como
Facebook, Instagram, WhatsApp, Twitter y demás, donde es necesaria para la foto de
perfil.
Algo a tener en cuenta también es si la toma va a ser horizontal o vertical. Puede parecer
extraño usar el formato 16:9 para una imagen vertical, ya que nuestra visión es horizontal,
así como la mayoría de pantallas. Aunque puede suceder que en algunas ocasiones la
toma vertical será más apropiada para, por ejemplo, realizar un retrato. Aun así, es
recomendable que la relación de aspecto sea similar a 3:2, que no es demasiado estrecha.
C O NT I NU A R
La relación de aspecto
A continuación se mostrarán algunas de las relaciones de aspecto más comúnmente
empleadas:

Las relaciones de aspecto más comunes


1:1
Se trata de un formato cuadrado, popularizado hoy en día por su generalizado uso en las redes
sociales.
Suele usarse para focalizar la atención en su centro y dar sensación de simetría.

5:4
Formato casi cuadrado, aunque con una diferencia entre la anchura y la altura. Es el usado por
algunas
cámaras analógicas como las Polaroid.

4:3
Se usaba sobre todo en los televisores antiguos y provocaba que se incorporaran dos bandas
negras
en las películas panorámicas procedentes del cine.
3:2
Es un formato muy popular, que se equipara con las dimensiones de la película analógica de
35mm.
Muchas cámaras réflex han decidido incorporar este sistema, aunque las que no tienen un sensor
fullframe
usan un factor de recorte.

16:9
Es el formato utilizado en los televisiores actuales o monitores de alta definición. Se ha ido
implantando este formato panorámico en una gran cantidad de dispositivos actuales. Es el más
adecuado
especialmente en paisajes o encuadres muy amplios.

2.35/2.40:1
Es el que se emplea en el cine, y es bastante más panorámico que el 16:9. Es el adecuado si deseas
dar un aspecto cinéfilo a la toma que estés capturando, aunque resulta demasiado panorámico
para
poder ser usado en la fotografía.

C O NT I NU A R
Este vídeo te explica la relación de aspecto con seis ejemplos utilizados en la industria
audiovisual.
No olvides que, cuando aprendes la parte técnica de cualquier arte, es importante tener
en cuenta cuáles son las bases formales que se usan normalmente, aunque esto no
significa que sean de uso obligatorio.
Depende de qué es lo que quieres transmitir y cómo quieres hacerlo. No dejes de ver este
vídeo porque puede aportarte información realmente valiosa para tu actividad profesional
y personal.
Además, en la siguiente pantalla deberás responder una serie de preguntas sobre su
contenido.

¿Qué es la relación de aspecto? (Las 6 relaciones


de aspecto más usadas)
Fuente de vídeo: https://www.youtube.com/watch?v=eRIfQavVy1g
C O NT I NU A R

Autoevaluación
Pregunta
01/03
¿Cuál es la relación de aspecto que usa Instagram?
1:1.
5:4.
4:3.
Ninguna de las anteriores.
Pregunta
02/03
¿Cuál es la relación de aspecto que usan los televisores, los monitores de
ordenadores o
en el propio YouTube?
5:4.
4:3.
16:9.
Ninguna de las anteriores.
Pregunta
03/03
¿Cuál es la relación de aspecto que se usa en el cine?
2.35:1.
2.40:1.
Las dos anteriores.
Ninguna de las anteriores.
La relación de aspecto ha cambiado con el paso del tiempo en la industria
cinematográfica. Cambios sociales, tecnológicos, culturales e intereses económicos han
influido en esta evolución. Pulsa sobre los botones para conocer algunos de los hitos más
relevantes en este desarrollo.

La evolución de la relación de aspecto en el cine


1894
Cine mudo
Al principio de la historia del cine, durante el cine mudo, el tamaño del fotograma era
de 35 mm con una proporción 4:3 o 1,33:1.
1932
Cine sonoro
Después, al llegar el cine sonoro, el tamaño del fotograma cambió. La Academia de Cine
estadounidense establece en 1932 una relación de aspecto más apaisada, la llamada
“académica” de 1,37:1, que es la empleada en películas como “El gran dictador” (1940),
“Casablanca” (1942) o “El crepúsculo de los dioses” (1950).
1950
Expansión de la televisión
La televisión se empieza a extender por Estados Unidos y Hollywood ideó hacer algo
para que la gente tuviera la necesidad de ir al cine y no se contentará con ver las
películas en los televisores.
1952
Cinerama
Se creó Cinerama, que era un formato de proyección que usaba tres cámaras de 35 mm
proyectadas de modo simultáneo en una pantalla curva. Su relación de aspecto pasa a
ser de 13:5.
1953
Formato académico
La Paramount pasa a rodar en formato académico 4:3, pero proyectando con una
relación de aspecto de 1,66:1 ampliando la imagen y recortándola por arriba y por
abajo. Esto se acercaba mucho a la relación de aspecto de 16:9 de la actualidad.
1953
Cinemascope
El famoso Cinemascope con una proporción de 2,55:1 o 23:9, muy cercana a la relación
de aspecto anamórfica, de 2,39:1, llamada así por proceder de las ópticas anamórficas
ideadas por Henri Chrétien allá por los años veinte.
1956
Vistavisión
Otra relación de aspecto del campo del cine fue la Vistavision, de 17:9 con la que fueron
rodadas películas como “Los diez mandamientos” (1956).
1956
Rodaje en Vistavisión
Se rueda “Vértigo” (1959) con el sistema Vistavision.
S. XXI
Formato cine
Hoy en día, la relación de aspecto más generalmente usada en el cine es la 16:9.
C O NT I NU A R
Existen una gran variedad de relaciones de aspecto para pantallas, televisores, cine,
monitores, etc. A continuación puedes ver una tabla con muchas de las relaciones de
aspecto más usadas. Observa que las proporciones pueden usarse con números enteros o
estableciendo el valor 1 para el ancho y en base a este valor, calcular el largo con
decimales:
Relación de
aspecto con
enteros
Relación de
aspecto con
decimales
Nombre del formato
3:2 ó 15:10 1,50:1 Televisión NTSC.
4:3 ó 12:9 1,33:1 Televisión PAL, wide.
5:4 1,25:1 Pantallas 17”.
14:9 1,55:1 Creado para la adaptación con 4:3 y 16:9.
16:9 1,77:1 Estándar para TV HD, wide screen.
16:10 u 8:5 1,60:1 Portátiles de 15,4”.
17:9 1,88:1 Empleado en resoluciones de 2K, 4K y 8K.

Relación de aspectos en las pantallas


Relación de
aspecto con
enteros
Relación de
aspecto con
decimales
Nombre del formato
21:9 2,33:1 Formato cine, Cinemascope mejorado.
23:9 2,55:1 Formato original del Cinemascope.
13:5 2,59:1 Cinerama en altura completa.
8:3 ó 24:9 2,66:1 Formato cine.
11:4 - Ultra Panavision 70.
2,76:1 Formato cine antiguo.
4,00:1 Polyvision.
12,00:1 Visión 360º de Walt Disney Company.
C O NT I NU A R
En la siguiente tabla se podrán observar las distintas relaciones entre relaciones de
aspecto, resoluciones de pantalla y los formatos que puedas escoger. Ten presente esta
pantalla siempre que debas tomar decisiones respecto al formato que desees utilizar pata
tus fotografías o vídeos:
Formato
Resolución de
pantalla
Relación de
aspecto
Megapíxeles
480i 720 X 480 1.333:1 (4:3) 0,3456
576i 720 X 576 1.333:1 (4:3) 0.41472
SVGA 800 X 600 1.333:1 (4:3) 0.48
XGA 1024 X 768 1.333:1 (4:3) 0.786432
720p (HD) 1280 X 720 1.77:1 (16:9) 0.9216
768p (HD+) 1366 X 768 1.77:1 (16:9) 1.049088
1024p 1280 X 1024 1.25:1 (5:4) 1.310720
Relación de aspectos, resoluciones de pantallas
y formatos
Formato
Resolución de
pantalla
Relación de
aspecto
Megapíxeles
900p (HD+) 1600 X 900 1.77:1 (16:9) 1.44
1080p (Full HD) 1920 X 1080 1.77:1 (16:9) 2.0736
R1080p (2K) 2048 X 1080 1.85:1 (17:9) 2.21184
WQHD (+2K HD) 2560 X 1440 2.00:1 (18:9) 3.6864
2160p (4K UHD) 3840 X 2160 1.77:1 (16:9) 8.2944
4320p (8K UHD) 7680 X 4320 1.77:1 (16:9) 33.1776
8640p (16K UHD) 15360 X 8640 1.77:1 (16:9) 132.7104
C O NT I NU A R
C O NT I NU A R
Practica la relación de aspecto con tu propio
televisor
Todos los televisores ofrecen el modo de variar la relación de aspecto con el que muestran las
imágenes. Busca en el menú de tu televisor y busca la opción de cambio del formato.
Seguramente te proponga varias alternativas. El formato seleccionado por defecto suele ser 16:9,
pero también suele permitir cambiar a otras proporciones como 4:3, 14:9 o Cinemascope.
También es posible determinar que se tome el propio formato de la señal de la emisión. Fíjate
que al mostrar cualquiera de estas dos opciones aparecerán sendas barras negras laterales para
completar la imagen del televisor.
Algunos mandos a distancia tienen un botón para cambiar el formato de pantalla para que se
ajuste a la emisión. Suele ser un cuadrado con flechas de redimensionamiento sobre él.
Realiza pruebas con los distintos formatos que estén presentes para que puedas apreciar el
cambio de proporción en cuanto a la imagen que realizarían.

Recapitulación
Hasta este momento has aprendido que la relación de aspecto, también llamada razón
de aspecto, es la proporción existente entre el ancho y la altura de una imagen
digital o una impresión o una pantalla o una proyección.
No solo eso, sino que además conoces ahora que los fotógrafos apuestan por el formato
16:9, que es generalmente el empleado en las televisiones de alta definición, para transmitir
un efecto más cinematográfico a tus imágenes.
Conoces también ahora también que el formato 1:1 es el más adecuado para poder ofrecer
una mayor simetría y poder establecer el punto de atención en el centro de la instantánea.
Hoy en día está de moda este formato y está siendo muy usado en redes sociales como
Facebook, Instagram, WhatsApp, Twitter y demás, donde es necesaria para la foto de perfil.
Además, aprendiste algunos de las relaciones de aspectos más comúnmente empleadas:
1:1, 5:4, 4:3, 3:2, 16:9 y 2.35/2.40:1.
Para finalizar, aprendiste que hoy en día la relación de aspecto más generalmente usada en
el cine es la 16:9.
CONT I NU A R
Autoevaluación
Pregunta
01/03
¿Cuál es la relación de aspecto de moda en las redes sociales?
1:1.
5:4.
4:3.
Ninguna de las anteriores.
Pregunta
02/03
¿Cuál es la relación de aspecto que emplean las cámaras Polaroid?
5:4.
4:3.
1:1.
Ninguna de las anteriores.
Pregunta
03/03
¿Cómo se llamó la relación de aspecto del cine, de 17:9 con la que se rodaron
películas
como “Los diez mandamientos” (1956) o “Vértigo” (1959)?
Cinemascope.
Vistavision.
Cinerama.
Ninguna de las anteriores.
Cuando trabajes con vídeos es fundamental que comprendas a la perfección el
modo en el que la velocidad de los fotogramas influye en la calidad del aspecto
final del producto visual.
Para ayudarte a comprender esta relación, en este epígrafe descubrirás en profundidad
aspectos relacionados con las velocidades de muestreo y conocerás los aspectos de mayor
relevancia sobre los fotogramas por segundo.
Sigue avanzando en las pantallas para aprenderlo.
Ya sabes que los vídeos son secuencias de fotogramas reproducidas uno detrás de otro,
mediante una velocidad determinada. Esa frecuencia o velocidad de fotogramas es la
cantidad de veces que una cámara captura una imagen para crear un vídeo y se mide en

11. FPS (Frames per second)


fotogramas por segundo (FPS). Esta medidad además de en los vídeos se suele emplear en
los gráficos de computadora y de los vídeojuegos.
A la frecuencia de imágenes o tasa de fotogramas además se le conoce también como
“frame rate” o fotogramas por cuadro o por segundo. Se expresan también en hercios
(Hz).
Los fotogramas por segundo se emplean tanto en los vídeos como en el cine o en los
gráficos por ordenador. Puedes llevar a cabo una grabación con velocidades distintas de
fotogramas por segundo, en función de cuál será el tipo de vídeo que se va a grabar o
donde se reproducirá.
C O NT I NU A R
¿Sabías que los teléfonos móviles tienen una gran capacidad como
vídeocámaras digitales? Por ejemplo, el iPhone 11 Pro Max es capaz de
grabar vídeos con formato 4K a 60 fotogramas por segundo o bien vídeos
con formato 1080p a 2240 fotogramas por segundo.
El significado de los fotogramas por segundo no es otro que la frecuencia de imagen, es
decir, el número de imágenes que se muestran durante un segundo para poder
transmitir la ilusión de movimiento. Si conoces el número de fotogramas por segundo del
vídeo, sabrás el tipo de formato de tal vídeo.
Normalmente el número de fotogramas por segundo es 24, aunque existen excepciones
como, por ejemplo, "El hobbit", cuya versión extendida va a 48 fotogramas por segundo.
Los fotogramas por segundo son aplicables a cualquier dispositivo, como un televisor, un
teléfono móvil, una tablet o un monitor. Los vídeos a cámara lenta (slow motion) se
graban con una frecuencia entre los 60 y 120 fps. Esa frecuencia también es propia de
los videojuegos, ya que requieren movimientos más rápidos para su óptima visualización.
A continuación verás los tipos de frecuencias más habituales que existen:
C O NT I NU A R
Fotogramas por segundo
Este vídeo de Casanova Fotografía va a contestar preguntas como ¿qué es un fotograma y
cuántos tipos existen?, ¿cómo ajustarlos en nuestra cámara y cuándo utilizarlos? Además
te presentará los fotogramas más conocidos.
Su contenido es un estupendo complemento a los conceptos que has estudiado hasta
ahora. No dejes de visualizarlo porque en las pantallas siguientes deberás contestar a una
serie de preguntas sobre la información que te aporta.
¡Dale al play!

¿Cómo utilizar los fotogramas en vídeo?


Fuente de vídeo: https://www.youtube.com/watch?v=vuLFYn832kg
C O NT I NU A R
Autoevaluación
Pregunta
01/03
¿Cuál era la velocidad que se utilizaba normativamente en los primeros años de
la
industria cinematográfica?
12 fotogramas por segundo.
24 fotogramas por segundo.
No existía una velocidad base uniforme.
Ninguna de las anteriores.
Pregunta
02/03
¿Cuál de los siguientes es uno de los juguetes precursores del cine?
El coche teledirigido.
El taumatropo.
El tiovivo.
Ninguna de las anteriores.
Pregunta
03/03
¿Cuál de las siguientes no es una ventaja de grabar a resoluciones bajas?
Los archivos en bruto pesarán menos.
Los vídeos resultados tendrán mayor nitidez.
El flujo de trabajo será más fluido.
Ninguna de las anteriores.
No todos tenemos la misma calidad de visión, en cada persona puede ser diferente. Pero
de media se pueden procesar aproximadamente 150 fotogramas por segundo

Percepción visual de los fotogramas


percibiéndolas como movimiento o entre 10 ó 12 imágenes percibidas individualmente.
Existe una frecuencia de actualización que determina el tiempo que está siendo
visionado cada uno de los fotogramas. Esa frecuencia es medida en hercios (Hz) y,
mientras mayor sea, mayor será el realismo que tendrá lo proyectado. Este concepto
de la frecuencia de actualización surge en las salas de cine antiguas, donde se hacía
repetir varias veces cada fotograma para ayudar a aminorar la irregularidad del
movimiento.
C O NT I NU A R
Esta frecuencia de actualización significa que si una película está a 24
fotogramas por segundo, esa cantidad va referida a los fotogramas únicos
mostrados, no a sus repeticiones. De tal modo que, si de esa misma
película de 24 fotogramas por segundo, te indican que su frecuencia de
actualización es de 72 Hz, podrás concluir que cada uno de los fotogramas
es proyectado tres veces (24 X 3 = 72).
Percibes el movimiento debido a que, cuando recibes un estímulo muy pequeño de tan
solo un milisegundo, hasta tu cerebro se reporta una duración entre 100 ms y 400 ms
gracias a la persistencia de la visión en el córtex visual. Esto conlleva que varias
imágenes percibidas durante esa duración de persistencia se mezclen y parezcan
un único estímulo.
De este modo, si recibes una proyección amarilla de 10 ms justo después de otra
proyección roja de 10 ms, lo que percibirás será una única proyección de color naranja.
Esa persistencia en el córtex visual no solo ayuda a la conformación de colores, sino que
también ayuda en la ilusión de movimiento, de continuidad.

Persistencia de la visión
C O NT I NU A R
Esta persistencia puedes observarla también en tu vida cotidiana, por
ejemplo, cuando algo se mueve a gran velocidad alrededor de ti. No es
necesario ir demasiado lejos, basta con balancear un bolígrafo ante tus ojos
para que este parezca que se dobla como la goma.
Cualquier sistema de captura de imagen lleva a cabo un muestreo del mundo real, es
decir, va capturando secuencias de imágenes con una velocidad determinada, con unos
fotogramas por segundo. Cuando después se reproduzca esa secuencia, tendrás la ilusión
de ver el movimiento como si fuese natural. Pero se trata simplemente de una ilusión que
cuenta con la persistencia en el córtex visual y la interpolación de imágenes que realiza
tu cerebro. Como cualquier otro sistema de captura, las cámaras analógicas o digitales
capturan imágenes a una determinada tasa de muestreo.
El teorema de Nyquist-Shannon establece que, si la tasa de muestreo es inferior a una
determinada tasa, la señal reproducida no será fiel a la señal real y podrás apreciar cosas
extrañas como que las ruedas giren hacia atrás, al contrario de como lo deberían hacer.
Habitualmente, las tasas de muestreo de los aparatos digitales son insuficientes, ya que
son inferiores a la tasa necesaria para fidelizar la señal muestreada con la real.

Teorema de muestreo de Nyquist-Shannon


El fenómeno de la persistencia de la visión no es siempre tan lineal como
puede parecer. Por ejemplo, ¿te has fijado en que a veces percibes como las
ruedas de los coches giran en el sentido contrario al que lo hacen
realmente? Sigue leyendo si quieres entender la razón.
También tu visión funciona de modo similar al que lo pueda hacer una videocámara y su
persistencia de valor fijo no conseguirá que todas las imágenes que proceses
sean fieles a la realidad. Eso es lo que causa la rareza de percibir a veces que las
ruedas de un coche giren en el sentido contrario al natural.
C O NT I NU A R
Este vídeo va a explicarte de manera sencilla por qué a veces parece que las ruedas de las
diligencias del Oeste giran al revés.
Estate atento porque podrás entender mejor algunos de los contenidos que has estudiado
hasta ahora.
Además, después deberás responder algunas preguntas sobre su contenido.
¡Dale al play!
¿Por qué las ruedas de los carros giran al revés?
Fuente de vídeo: https://www.youtube.com/watch?v=aBbWPgi6Pho
C O NT I NU A R
Autoevaluación
Pregunta
01/03
Gracias al estroboscopio se puede explicar por qué las ruedas de las diligencias
del Oeste
giran al revés.
Verdadero.
Falso.
Pregunta
02/03
La rueda cambia frecuentemente de velocidad.
Verdadero.
Falso.
Pregunta
03/03
¿Qué puedes conseguir aparentemente variando la velocidad del
estroboscopio?
Variar la velocidad de giro de la rueda.
Detener la rueda.
Hacerla girar hacia atrás.
Todas las anteriores.
Durante los primeros años del nacimiento de la industria cinematográfica, se usaban
entre 12 y 16 fotogramas por segundo. Si la frecuencia fuera menor, tu cerebro te
mostraría una sucesión de fotografías fijas en percibir movimiento. Si ese movimiento
funciona para los 16 fps, ofrecerá mucha mayor nitidez en velocidades de 30, 48 ó 50 fps.
De hecho, el famoso inventor Thomas Edison tenía la convicción de que la frecuencia
óptima para percibir el movimiento era de 46 fotogramas por segundo. Pensaba que
una velocidad más lenta sería incomodo y proporcionaría fatiga visual.

Evolución histórica de la velocidad de los


fotogramas
C O NT I NU A R
Si aumentas los fotogramas por segundo, mejora la calidad y nitidez del
movimiento, ¿por qué motivo no se utilizan muchos más fotogramas por
segundo en todas las películas? Sigue avanzando hasta la próxima pantalla
para descubrirlo.
El motivo por el que se utiliza un determinado número de fotogramas por segundo en el
cine es, además de la nitidez de la imagen, el aumento del precio del sistema. Así, las
primeras películas rodadas en el cine, es decir, la mayoría de las películas mudas, se
rodaron en velocidades comprendidas entre los 16 y 18 fps, aunque después eran
proyectadas a una velocidad de entre 20 y 24 fps.
Este aumento de velocidad de aproximadamente un 15% aportaba una aceleración del
movimiento en estas películas mudas que les dan ese aspecto tan cómico. Pero al
incorporar el sonido en los años 20, esa diferencia de frecuencia entre la grabación y la
reproducción distorsionaba las voces, lo que evidentemente era un problema. Por ello se
comenzó a emplear la misma frecuencia para la grabación y para la reproducción, y esta
fue de 24 fps.
Velocidad de los fotogramas en el cine mudo
C O NT I NU A R
Algo parecido sucede en el caso de las películas de cine que se transmiten
por televisión. Cuando se transmiten estas películas, lo hacen a 23,976 fps.
¿Sabes por qué? Pasa a la siguiente pantalla si quieres descubrirlo.
En los años cincuenta el sistema NTSC funcionaba en blanco y negro con una frecuencia
de 30 fps. En el momento en el que llegaron las pantallas con tubos de rayos catódicos
(Cathode Ray Tube, CRT) se componía la imagen mediante el haz de electrones en dos
pasadas. Pero la frecuencia de la red eléctrica en Estados Unidos era de 60 Hz y era la que
se empleaba para sincronizar la imagen. Al requerirse dos pasadas para una imagen, la
imagen del NTSC se definió a 30 fps.
El problema está en que en Europa la frecuencia de la red es de 50 Hz, por lo que se
adoptó el estándar PAL que funciona a 25 fps.
Al realizar las pruebas de color se comprobó que se producían interferencias en la
señal de luminancia por culpa de la nueva señal de los colores, aunque ese problema
se solucionó. Pero aun así se produjeron interferencias entre el color y el sonido, que se
solucionó haciendo un pequeño cambio en la tasa de imagen (de 30 a 29,97 fps).
Las imágenes en un televisor CRT, como ya sabes, se hacían en dos pasadas y se
conseguían 30 fotogramas por segundo a una frecuencia de refresco de 60 Hz. Tras el
cambio, la velocidad es de 29,97 fps mientras que la frecuencia de refresco pasa a ser de
59,94 Hz.

Evolución histórica de la velocidad de los


fotogramas II
C O NT I NU A R
Pero ya has visto que el cine se graba a 24 fps con una frecuencia de 60 Hz.
De modo que la nueva frecuencia se calculará de una regla de tres: 24fps /
60Hz = X / 59,94Hz. Y de ahí salen los 23,976 fps a los que se reproducen las
películas en casa. Un pequeño cambio apenas apreciable, que hace que una
película en casa dure aproximadamente 4 segundos más que en el cine.
C O NT I NU A R
Películas a cámara lenta
Se está poniendo de moda el uso de la cámara lenta o slow motion en la elaboración de
efectos especiales de películas o, incluso, en grabaciones desde el móvil. Ya en la película Matrix
(1999) se usó la cámara lenta en una de sus escenas más representativas y desde entonces
muchas películas han incorporado estos efectos.
Pero conseguir realizar la cámara lenta requiere de una alta tasa en la frecuencia de
fotogramas por segundo durante la grabación de las escenas. Al grabar con un número elevado
de fotogramas, ese efecto se consigue proyectando a una velocidad menor. Mientras menor
sea en relación a la frecuencia de la grabación más lentamente se desarrollará la acción.
Observa el siguiente vídeo con ejemplos de grabación a cámara lenta.
Y para concluir, puedes ver este otro vídeo que te indica el modo de usar los fotogramas por
segundo para hacer uso de la cámara lenta.

Recapitulación
Hasta este momento has aprendido que a la frecuencia de imágenes o tasa de
fotogramas se le conoce también como frame rate o fotogramas por cuadro o por
segundo. Se expresan también en hercios (Hz).
No solo eso, sino que además, conoces ahora que el significado de los fotogramas por
segundo, no es otro que la frecuencia de imagen, es decir, el número de imágenes que
se muestran durante un segundo para poder transmitir la ilusión de movimiento.
Conoces también ahora también que algunos de los tipos de frecuencias más habituales que
existen son el formato del cine, PAL, SISTEMA SECAM, NTSC, Formato HDTV, UHDTV, HFR y
FEMTO.
Además aprendiste que no todos tenemos la misma calidad de visión, en cada persona
puede ser diferente, pero de media se pueden procesar aproximadamente 150
fotogramas por segundo percibiéndolas como movimiento o entre 10 ó 12 imágenes
percibidas individualmente.
También sabes ahora que el teorema de Nyquist-Shannon establece que si la tasa de
muestreo es inferior a una determinada tasa, la señal reproducida no será fiel a la señal real y
como consecuencia podrás apreciar cosas extrañas, como que las ruedas giren hacia atrás, al
contrario de como lo deberían hacer.
Para finalizar, aprendiste que al principio se usaban en el cine entre 12 y 16 fotogramas por
segundo. Si la frecuencia fuera menor tu cerebro te mostraría una sucesión de fotografías
fijas en lugar de percibir movimiento. Si ese movimiento funciona para los 16 fps, ofrecerá
mucha mayor nitidez en velocidades de 30, 48 ó 50 fps.
CONT I NU A R
Autoevaluación
Pregunta
01/03
¿A cuántos fotogramas por segundo fue grabado El hobbit?
12 fps.
24 fps.
48 fps.
Ninguno de los anteriores.
Pregunta
02/03
¿A que frecuencia permiten las cámaras High Frame Rate (HFR) realizar las
grabaciones?
48 fps.
96 fps.
120 fps.
Ninguno de los anteriores.
Pregunta
03/03
El teorema de Nyquist-Shannon establece que si la tasa de muestreo es inferior
a una
determinada tasa, la señal reproducida no será fiel a la señal real y podrás
apreciar cosas
extrañas como que las ruedas giren hacia atrás, al contrario de como lo
deberían hacer.
Verdadero.
Falso.
Existen dos modos de mostrar las imágenes en una pantalla, bien mediante un
barrido entrelazado bien mediante un barrido progresivo. A lo largo de este
epígrafe descubrirás en qué consiste cada una de estas técnicas y cómo funcionan,
además de cuáles son sus diferencias.
Sigue avanzando en el contenido porque aprenderás una serie de conceptos que sin duda
te servirán para poder tomar las decisiones adecuadas en tu ámbito profesional y
personal.
Hasta hace poco solamente existían televisores en los que podías escoger las distintas
técnicas de barrido o bien televisores entrelazados o bien progresivos, siendo más
económicos los de entrelazado. Los televisores que emplean la técnica de barrido
entrelazado se identifican por tener la letra “i” al final de la resolución, por ejemplo, 1080i;
mientras que los televisores progresivos hacen lo propio con la letra “p”.

12. Vídeo progresivo/entrelazado


Hoy en día, todos los televisores y monitores son de barrido progresivo, por lo que, aunque
la señal a emitir sea entrelazada, la televisión, antes de emitirla, hará una conversión de
la imagen en barrido progresivo para mostrarla en pantalla.
El escaneo progresivo indica que se dibujarán todas las líneas de un fotograma de forma
secuencial. Es decir, que cada fotograma contiene una imagen completa.
En el escaneo entrelazado, el fotograma se divide en dos campos: uno con todas las
líneas pares del fotograma y otro con las impares, de modo que se mostrarán primero el
impar y después el par. En esta técnica la imagen nunca se muestra completa y la unidad
de procesamiento gráfico (GPU) mostrará ambos campos de un modo tan rápido que tu
cerebro no se dará cuenta y las notará mezcladas, por lo que la imagen será completa.
C O NT I NU A R
El barrido o escaneado entrelazado (interlaced scanning) es una técnica creada por
Randall C. Ballard en 1932 que consiste en dividir un fotograma en dos mitades, una
compuesta por las líneas pares y otro por las líneas impares.
Si un monitor con una resolución de 1920 píxeles horizontales por 1080 pixeles verticales
usa el escaneado entrelazado para mostrar los fotogramas, mostrará primero las 540
líneas pares horizontales (la mitad de las 1080 líneas que tiene el fotograma) y después las
otras 540 líneas horizontales que ocupan las posiciones impares. Cada mitad se muestra
durante un espacio de tiempo tan breve que tu cerebro las verá como mostrándose
simultáneamente por lo que se percibirá la imagen completa, es decir, el sistema es capaz
de engañar al ojo, que no percibe esos cambios tan rápidos, y se transmite la ilusión de
una imagen completa.
Así, siempre se muestran primero todas las líneas que ocupen posiciones pares y luego
todas las líneas que ocupen posiciones impares. Este proceso se repetirá continuamente,
por cada uno de los fotogramas que compongan el vídeo.

Vídeo entrelazado
El objetivo del escaneo entrelazado, implantado en los televisores analógicos, era el de
reducir el ancho de banda y también solucionar el problema del parpadeo o
flickering cuando la señal de televisión se acoplaba las señales eléctricas de la
casa.
Pero el sistema entrelazado tiene un grave inconveniente cuando se producen
imágenes con un movimiento muy rápido, ya que deja ver un efecto de rayas en
las imágenes.
C O NT I NU A R
El barrido o escaneo progresivo es más sencillo, ya que se transmite todo el fotograma a
la vez. Esto simplifica el proceso y soluciona los problemas que tiene el escaneo
entrelazado con las imágenes en movimientos rápidos, además de crear una imagen más
nítida y atenuar con el parpadeo o flickering de la imagen.
El inconveniente del barrido progresivo es que necesita de un mayor ancho de
banda para poder transmitir que el requerido por el método de entrelazado. A veces las
emisoras escogen transmitir sus contenidos en formato 1080i, es decir, de manera
entrelazada, ya que la compresión del vídeo es menos pesada que el formato progresivo.
Pero si ves alguna película en un sistema Blu-ray o mediante streaming con algún
operador de vídeos a la carta como Netflix, se empleará una transmisión en 720p o 1080p.
El barrido progresivo escanea el fotograma completo línea a línea cada 1/16
segundos. Es decir, los fotogramas no se dividirán tal y como ocurre con el barrido
entrelazado. Los monitores de ordenador no necesitan emplear el modo entrelazado para
mostrar las imágenes en la pantalla y, por tanto, no tendrá los problemas asociados de
parpadeo.
222 de 248

Vídeo progresivo
C O NT I NU A R
Este vídeo de la productora de vídeo Balamh se te van a explicar los dos tipos de escaneo
de imagen que existen para vídeo: progresivo y entrelazado.
Analizará las diferencias, ventajas y desventajas que tienen estas dos modalidades y cómo
usarlas a tu favor en el momento en el que te toque elaborar tus propios vídeos.
Seguro que te aporta una información realmente valiosa. No dejes de verlo porque
después deberás responder a una serie de preguntas sobre su contenido.

Vídeos entrelazados y progresivos


Fuente de vídeo: https://www.youtube.com/watch?v=P4Ro5M7EePQ
C O NT I NU A R

Autoevaluación
Pregunta
01/03
¿Qué ocurre si detienes un vídeo entrelazado en algunos monitores?
Nada.
Solo se ve la mitad de la imagen.
La imagen tiembla.
Falso.
Pregunta
02/03
¿Con qué letra terminan los formatos que se escanean con la técnica
entrelazada?
Con la letra “p”.
Con la letra “e”.
Con la letra “i”.
Ninguno de los anteriores.
Pregunta
03/03
¿Es posible convertir un vídeo de entrelazado a progresivo?
No, de ningún modo.
Sí, y se verá igual de nítida la imagen.
Sí, pero la imagen se verá más borrosa.
Ninguna de las anteriores.

C O NT I NU A R
Ventajas e inconvenientes del escaneo
entrelazado
C O NT I NU A R
Ventajas e inconvenientes del escaneo
progresivo
Edición de un vídeo entrelazado
Cuando trabajes con vídeos entrelazados debes hacerlo con algún monitor apropiado para la
visualización de este tipo de vídeos. Hoy en día, todos los monitores de ordenador trabajan en
modo progresivo y no mostrarán adecuadamente las tomas entrelazadas. Por ello, deberás dar la
salida de la señal entrelazada mediante un monitor de vídeo CRT o visualizarla en un aparato de
TV antiguo.
Si no consigues monitorizar correctamente el entrelazado a través de todo el proceso, podrás
encontrarte con los siguientes problemas cuando realices la copia máster.
1. Problemas de dominancia. La dominancia se refiere al modo en que el sistema ordena los
campos o líneas cuando los reproduce. Ya sabes que los fotogramas entrelazados están
compuestos por dos bloques de líneas pero, ¿cuál debe ser la primera línea que reproduzca el
sistema, las pares o las impares?
Al no estar estandarizado, variará según el sistema de vídeo y el hardware que uses. Si usas
una dominancia distinta a la del material capturado, se producirá un desagradable efecto de
parpadeo.
C O NT I NU A R
2. Problemas de resolución en las conversiones. El pasar de analógico a digital conlleva
diferentes problemas. Al pasar las líneas de vídeo analógico a pixeles digitales podrás aplicar
a la nueva imagen digital cualquier transformación o filtro que nos aporte tu software. Pero al
editar las líneas entrelazadas se provocarán efectos de dientes de sierra muy pronunciados.
Por ello, si quieres editar una imagen entrelazada, deberás aplicarle previamente efectos de
escalado y rotación para “desentrelazarla”. Puedes desentrelazar interpolando y obtendrás una
imagen con la resolución original, con la mitad de resolución horizontal y un efecto de interpolado
entre líneas que no mejora la resolución. O bien desentrelazar el campo par y el impar por
separado, de modo que obtendrás dos imágenes a la mitad de su resolución. Tendrás que aplicar
a ambas las mismas transformaciones y volverlas a entrelazar.
También se provocan parpadeos en los gráficos, habitualmente en imágenes con detalles finos, ya
que la línea es demasiado fina y justo coincide con el escaneo de una única línea. Al suceder
esto, la verás en un campo sí y en otro no.

Recapitulación
Hasta este momento has aprendido que existen dos modos de mostrar las imágenes en
una pantalla o bien mediante un barrido entrelazado o bien mediante un barrido
progresivo.
No solo eso, sino que además conoces ahora que el barrido o escaneado entrelazado
(interlaced scanning) es una técnica creada por Randall C. Ballard en 1932 y que consiste
en dividir un fotograma en dos mitades, una compuesta por las líneas pares y otro por las
líneas impares.
Conoces también ahora también que el barrido o escaneo progresivo es más sencillo,
ya que se transmite todo el fotograma a la vez. Esto simplifica el proceso y soluciona los
problemas que tiene el escaneo entrelazado con las imágenes en movimientos rápidos,
además de crear una imagen más nítida y atenuar el parpadeo o flickering de la imagen.
Además aprendiste las ventajas e inconvenientes que ofrecen las técnicas de escaneado
entrelazado y progresivo.
Para finalizar, aprendiste algunas pautas a tener en cuenta a la hora de editar un vídeo
entrelazado.
CONT I NU A R
Autoevaluación
Pregunta
01/03
¿Qué tipo de técnica de escaneo ofrece una mayor nitidez en las imágenes, la
progresiva
o la entrelazada?
La progresiva.
La entrelazada.
Ambas por igual.
Ninguno ofrece imágenes nítidas.
Pregunta
02/03
¿En cuantas partes se descompone el fotograma en el escaneo entrelazado?
En una parte, no lo descompone.
En dos partes.
En tres partes.
Ninguno de los anteriores.
Pregunta
03/03
¿Qué técnica de escaneo ofrece muchas facilidades para la conversión de la
resolución?
Progresivo.
Entrelazado.
Ambos.
Ninguna de las anteriores.
A veces, poder lograr difundir grandes cantidades de información audiovisual se
hace complicado por su tamaño. Es por eso que se han desarrollado algoritmos de
compresión de vídeo, que ofrecen grandes tasas de compresión y un muy bajo
deterioro de la calidad de la imagen.
¿Quieres saber cómo funcionan estos sistemas de compresión? En este epígrafe
descubrirás multitud de aspectos relacionados con las compresiones de vídeo, sus
formatos, y las ventajas que ofrecen, ¿te apetece? ¡Pues adelante!
Mediante técnicas de compresión de vídeo es posible reducir y eliminar datos
redundantes del vídeo para conseguir de ese modo que el archivo que contenga el vídeo
digital pueda ser enviado a través de la red y se almacene en discos informáticos.

13. Compresión de vídeo


Las técnicas de compresión reducen considerablemente el tamaño del archivo sin
disminuir la calidad de la imagen. No obstante, si reduces en exceso el tamaño del
fichero, la calidad del vídeo puede verse afectada, por ello no se debe abusar del nivel de
compresión de la técnica empleada.
A día de hoy, son muchas las distintas técnicas de compresión existentes, algunas de ellas
se encuentran patentadas. Actualmente, la mayoría de los proveedores de vídeo en red
usan técnicas de compresión estándar.
Disponer de estándares siempre es importante ya que garantizan la compatibilidad y la
interoperabilidad. También en el campo de la compresión del vídeo tienen un papel muy
relevante puesto que se emplea en varias finalidades. Por ejemplo, en aplicaciones de
videovigilancia, los vídeos capturados deberán poderse visualizar durante varios años
después de su grabación. Los estándares permiten a los usuarios que puedan escoger
cualquier proveedor, en lugar de solo poder optar a un único sistema de videovigilancia.
Algunos de los estándares de compresión de vídeo más difundidos son Motion JPEG,
MPEG-4 Parte 2 (MPEG-4) y H.264.
C O NT I NU A R
De cara a un mejor entendimiento de este tema, es necesario presentar una serie de
conceptos básicos para que tengas una más sencilla asimilación del conocimiento. Debes
conocer qué son y cuáles son las diferencias entre un contenedor, el esquema de

Conceptos básicos
compresión y un códec. A través de unas analogías esquemáticas verás de un modo
muy simple qué son cada uno de ellos de modo que lo entiendas a la perfección.
Para empezar, la primera analogía es la que hará ver un archivo de vídeo como un
álbum de fotos. La pasta dura, lo que es el bloc del álbum en sí, será el contenedor
el cual, del mismo modo que un álbum contiene dentro todas las fotos que sea necesario,
podrá hacer lo propio con una gran variedad de pistas de vídeo y audio.
C O NT I NU A R
Ahora que ya comprendes un poco mejor qué es un contenedor, recuerda
que algunos de los formatos de contenedores más comunes son MOV, AVI
y MXF.
Continuando con la analogía que empezaste a descubrir en la pantalla anterior, podemos
considerar el modo de agrupar las fotos en una misma página del álbum para que
quepan más como el esquema de compresión. Además, la información existente en cada
una de las pistas de vídeo y audio tendrá un formato de compresión. Entre los más usados
puedes encontrar H.264, Mpeg2, DNxHD o ProRes.
La persona que administra el álbum de fotos en base al modo determinado de agrupar
las fotos será el códec. El códec podrá ser o bien hardware o software que permita
interpretar o descifrar una señal de audio o vídeo y comprimirla. Cada esquema de
compresión es implementado de un modo distinto, lo cual permite que haya varios códecs
que usen un mismo esquema de compresión.

Analogía del álbum


C O NT I NU A R
Resumiendo, un archivo de vídeo vendría a ser el álbum de fotos, la pasta
dura, lo que es el bloc del álbum en sí sería el contenedor, el modo de
agrupar las fotos sería el esquema de compresión, mientras que el
administrador del álbum sería el códec.
La compresión de las secuencias de vídeo tiene las mismas motivaciones y necesidades
que también presentan otro tipo de fuentes de información, como el audio o cualquier
otro tipo de componentes. Pero este caso es especial, ya que se trata de información con
carácter tridimensional, puesto que abarca tanto el dominio espacial como el temporal.
Esto hará que se requieran técnicas y estrategias de compresión de mayor complejidad
y coste computacional.
Uno de los factores más determinantes de la codificación de vídeo es su relación de
compresión, que dependerá del volumen de información inicial de la fuente de vídeo,
de la capacidad del canal de transmisión, así como del espacio de
almacenamiento disponible.
Compresión de vídeo
¿Sabías que la cantidad de información de la secuencia de vídeo está
determinada tanto por la resolución espacial de la imagen, calculada por los
píxeles de ancho y de alto, así como su resolución temporal determinada
por su frecuencia en fotogramas por segundo?
C O NT I NU A R
Los formatos de vídeo han ido evolucionando a lo largo del tiempo y se han ido
incrementando tanto las resoluciones espaciales como las temporales. Tal evolución ha
pasado desde el formato QCIF, con 176×144 píxeles y 15 fotogramas por segundo, hasta
los formatos emergentes de Ultra Alta Definición o UHDTV, denominados 4K y 8K, que
comprenden resoluciones de hasta 7680×4320 píxeles con elevadas tasas temporales
o HFR (High Frame Rates) que pueden alcanzar los 120 fotogramas por segundo.

Evolución de la compresión de vídeo


Pero mejor que veas un ejemplo práctico para que aprecies la necesidad de comprimir los
vídeos:
Un vídeo sin comprimir podría ocupar un megabyte de espacio de almacenamiento por cada
uno de sus fotogramas. Si está grabado en un formato con una frecuencia de 25 fps (frames
por segundo), cada uno de los segundos del vídeo ocuparía 25 megabytes, por lo que ya
puedes ir entendiendo claramente que necesitarás de bastante espacio para almacenar este
vídeo de, pongamos, un minuto. Es por ello que después de editar y tratar el vídeo, se lleva a
cabo el proceso de compresión. Se realizará a la máxima calidad posible para evitar cualquier tipo
de pérdida.
C O NT I NU A R
Resumiendo, un archivo de vídeo vendría a ser el álbum de fotos, la pasta
dura. Lo que es el bloc del álbum en sí, sería el contenedor. El modo de
agrupar las fotos, sería el esquema de compresión, mientras que el
administrador del álbum sería el códec.
Existen dos modos de realizar la compresión en los vídeos que surgieron a medida que la
calidad y tamaño de los archivos de vídeo fueron requiriéndolo. Para conocerlos pulsa en
estas pestañas:
El primero de ellos es comprimiendo cada fotograma de manera independiente. Ese modo
se conoce como compresión intra-frame, que comprime la información contenida en el
fotograma actual para minimizar el tamaño de la imagen.
Por ejemplo, JPEG, el formato más empleado para las imágenes en Internet, suprime los
componentes de alta frecuencia en las imágenes que generalmente, no es posible percibir.
Al omitir esta información la imagen contendrá menos información. Este tipo de ideas empezó a
emplearse en los primeros formatos estándar como GIF y JPEG, y significaron la base de los
estándares más complejos como Motion JPEG y DV.

Inter-frame vs. Intra-frame


IN T R A - FR A ME IN T E R - FR A ME
Conforme fue creciendo la necesidad de una mejor calidad de imagen a menor frecuencia
de bits, la compresión intra-frame se volvió insuficiente. Por ello, se introdujo la compresión
temporal o codificación inter-frame en el estándar MPEG-1 y desde entonces se ha ido
optimizando en los siguientes códecs MPEG-2, VC-1 y H.264.
Estos códecs incluyen imágenes comprimidas con intra-frame (I-frame), pero también
poseen frames con codificación predictiva (P-frames) y frames con codificación predictiva
bidireccional (B-frames). Pasa a la siguiente pantalla si quieres saber qué diferencia existen
entre ellos.
C O NT I NU A R
IN T R A - FR A ME IN T E R - FR A ME
Ya viste en las pantallas anteriores que existen dos maneras de realizar la compresión de
los archivos, bien comprimiendo cada fotograma de manera independiente (intra-frame) o
bien utilizando frames con codificación predictiva (inter-frames).
Estos frames con codificación predicitiva pueden ser bidireccionales o no. Pulsando en
estas imágenes podrás entender las diferencias entre los tipos de frames.

P-Frames y B-Frames
I-frames
Un fotograma-I, o intrafotograma, es
tomado como una imagen que será
comprimida independientemente
sin necesidad de usar datos
relativos a otros fotogramas. El
primer fotograma de una secuencia
Cuando un decodificador de vídeo descomprime un vídeo fotograma a fotograma, la
descodificación deberá comenzar siempre por un fotograma-I. Los fotogramas-P y los
fotogramas-B, si se usan, debe hacerse junto a los fotogramas de referencia empleados.
Dentro de un mismo archivo de vídeo puede haber muchos P-frames y B-frames entre cada
I-frame y, si la secuencia de vídeo tiene imágenes similares durante largos períodos
Un fotograma-P es un interfotograma
predictivo que hace referencia a
partes de fotogramas-I u otros
fotogramas-P anteriores para
comprimir el fotograma. Los
fotogramas-P requieren un menor
B-frames
Un fotograma-B o interfotograma
bipredictivo o predictivo bidireccional,
es un fotograma que se basa tanto
en fotogramas anteriores como
posteriores. El uso de fotogramas-B
aumentan considerablemente la
P-frames
de tiempo, se podrá obtener una gran compresión empleando esta técnica.
C O NT I NU A R
El número consecutivo de imágenes inter-frame es referido como duración grupo de
imágenes (Group Of Picture Length, GOP). Si el GOP es muy grande, será grande también
la distancia entre I-frames y los fotogramas entre esos dos serán reconstruidos con
interpretaciones a través de P-frames o B-frames.
La ventaja que ofrece emplear tan solo la intra-frame es que es mucho más simple y
más liviana en términos de procesamiento y no necesitará el uso repetitivo de múltiples
frames guardados en memoria. Además, se procesa mucho más rápidamente y el
resultado comprimido será devuelto de un modo mucho más rápido.

GOP e intra-frame
¿Sabes qué sistema de compresión usan las videocámaras digitales?
Anteriormente, capturaban solo en formatos intra-frame (DV, DV50, DVCPRO
HD, AVC-Intra), pero hoy en día no tienen el problema de tener una
capacidad de almacenamiento limitado y han pasado a usar una compresión
inter-frame, como hace con los formatos HDV y AVCHD. Tales formatos
permiten ahora que vídeos de alta definición puedan ser almacenados en
las cintas MiniDV que anteriormente solo podían capturar vídeo con una
definición estándar.
C O NT I NU A R
Visualiza el siguiente vídeo realizado por la productora Balamh. Te muestra los dos tipos
de compresión que has podido estudiar hasta ahora, I-frame y GOP (Group of Pictures), sus
distintos formatos y cómo funcionan para hacer que nuestros vídeos queden de un menor
tamaño y con la mejor calidad posible.
En la siguiente pantalla deberás responder una serie de preguntas sobre su contenido, así
que no dejes de visualizarlo, porque además seguro que te aporta una información
realmente valiosa
¡Dale al play!

Compresión, Formatos y Códecs de vídeo, todo


lo que debes saber
Fuente de vídeo: https://www.youtube.com/watch?v=vydPJ_iaQ8o
C O NT I NU A R
Autoevaluación
Pregunta
01/03
¿Cuál es la compresión que consiste en comprimir cada imagen del vídeo de
manera
independiente?
Compresión I-frame.
Compresión GOP.
Ambas.
Ninguna de las anteriores.
Pregunta
02/03
¿Qué compresión genera archivos muy grandes?
Compresión I-frame.
Compresión GOP.
Ambas.
Ninguna de las anteriores.
Pregunta
03/03
¿Qué técnica de escaneo ofrece muchas facilidades para la conversión de la
resolución?
Compresión I-frame.
Compresión GOP.
Ambas.
Ninguna de las anteriores.
Para poder comprimir es necesario aplicar un algoritmo al vídeo original para poder
obtener como resultado el archivo comprimido, ya con un menor tamaño, más adecuado
para poder transmitirlo o almacenarlo. En caso de necesitar usar el archivo comprimido,
primero se debe aplicar el algoritmo inverso para recuperar un vídeo prácticamente igual
al vídeo original. Todo el tiempo dedicado a la compresión, envío, descompresión y
exposición de un archivo es conocido como latencia. Mientras más avanzado sea el
algoritmo de compresión empleado, más grande será su latencia.
De modo que, vinculados al proceso de compresión, deberán existir siempre un par de
algoritmos que funcionan conjuntamente y se denominan códec de vídeo, ya que realizan
las funciones de codificador y también de decodificador.
Los distintos códecs de vídeo de estándares no son compatibles entre sí, es decir, si
comprimes un vídeo con un estándar, no podrás descomprimirlo usando otro distinto. Esto
es así por que un algoritmo no es capaz de descodificar correctamente un vídeo
codificado por otro algoritmo. Pero sí es posible usar muchos algoritmos distintos
en el mismo software o hardware, lo que posibilita el uso de varios formatos.
Los estándares de compresión usan diferentes técnicas para aminorar el tamaño, es
por ello que tienen asociados diferentes frecuencias de bits y latencias.

Códec de vídeo
Codificación intrafotograma
Para la compresión de imagen se
emplea una tecnología de codificación
intrafotograma (I-frame). En este
caso, la compresión se centra en
un fotograma y eliminará toda
aquella información innecesaria
Codificación interfotograma
Los algoritmos de compresión de
vídeo usan la técnica interfotograma
como, por ejemplo, MPEG-4 y H.264.
Esta técnica usa métodos como la
codificación diferencial, que
establece la comparación de un
C O NT I NU A R
Además de estas dos codificaciones existen otras técnicas como la compensación de
movimiento basada en bloques, que se basa en que gran parte de un fotograma nuevo
se repite con respecto al fotograma anterior, aunque puede que en un lugar distinto.
Esta técnica dividirá el fotograma en un conjunto de macrobloques o bloques de píxeles y
se compondrá el nuevo fotograma bloque a bloque, en base a un bloque que coincida en
un fotograma de referencia. Si se encontrara una coincidencia, se codificaría la posición
donde se encontrara el bloque coincidente en el fotograma de referencia. Esto se
denomina codificación del vector de movimiento y requiere muchos menos bits que si se
comprimiera todo el contenido.

Compensación de movimiento basada en


bloques
Cuando vayas a comprimir un archivo de vídeo ten presente que algunos
productos permiten a sus usuarios configurar la longitud de GOP, la cual
establecerá la cantidad de fotogramas-P que deben enviarse antes volver a
poder usar otro fotograma-I. Mientras mayor sea la longitud del GOP más
se disminuirá la cantidad de bits necesarios, en cambio la latencia no
disminuirá con el uso de fotogramas-B sino que aumentará.
C O NT I NU A R
Existen distintos tipos de formatos de vídeo que podrán pertenecer a una o más de una de
las siguientes categorías: adquisición, edición y postproducción y distribución. Cada uno
de ellos tendrá su lugar específico y sus características y ventajas particulares. A
continuación verás los esquemas de compresión de mayor relevancia si pulsas en las
flechas laterales.

Esquemas de compresión de vídeo


Sin compresión
Pero no siempre será igual, ya que puede tener un origen con una profundidad de bit de
8, 10 o 12 bits y una profundidad de color de 4:2:0, 4:2:2, 4:4:4, etc.
Se emplea bastante poco, puesto que tanto en HD como en 4K es necesaria una gran
cantidad de almacenamiento.
1
DV
Es uno de los esquemas de compresión más antiguos. Surgió para comprimir vídeo en
definición estándar en cinta y dio lugar al DVCPRO HD. Se emplea tanto en la adquisición,
la edición y postproducción así como en la entrega.
2
HDCAM
Creado por Sony, proviene de la compresión de Betacam. Se emplea igualmente en la
adquisición, la edición y postproducción, así como en la distribución o entrega.
3
MPEG 2
Uno de los esquemas de compresión más usados, se ha implementado con distintas
tasas de bit, profundidad de color y resoluciones en función del medio de adquisición. Es
usado en DVD, Blu-Ray, HDV, XDCAM entre otros y se emplea tanto en la adquisición,
como en la edición y la distribución.
4
MPEG 4
Se trata de un esquema de compresión más moderno que MPEG 2 y se considera el
antecesor del H.264. Se ha implementado como parte del códec de alta gama de Sony el
HDCAM-SR, pero también es usado en implementaciones para consumo como el DivX.
5
H.264
Conocido también como MPEG 4 parte 10 o AVC, y viene a ser el sucesor de MPEG 2. Se ha
implementado con múltiples tasas de bits, resoluciones y profundidad de color y se usa
en una gran variedad de cámaras. Se emplea tanto en la adquisición, la edición y
postproducción así como en la entrega.
6
Apple ProRes
Diseñado por Apple específicamente para edición y postproducción. Ha pasado a ser un
estándar en postproducción al estar diseñado para mantener un equilibrio entre el
tamaño de los archivos, la calidad y el uso de recursos del sistema.
7
Avid DNxHD
Similar al ProRes de Apple, pero se encuentra disponible tanto para Mac como para
Windows. Está calificado como un standard por la SMPTE (Society of Motion Picture and
Television Engineers) como VC-3 y se emplea generalmente en la fase de edición y
distribución, aunque existen grabadoras externos y cámaras que permiten usarlo en la
fase de adquisición.
8
C O NT I NU A R
Seguramente te parezca que hasta ahora has aprendido demasiado información, pero no
te preocupes. En este vídeo, realizado por la empresa audiovisual 709 VideoRoom, podrás
repasar los distintos códecs existentes, los formatos empleados y los flujos de trabajo que
suelen emplearse.
No dejes de verlo porque seguramente te ayudará a comprender mejor los conceptos que
has visto en este epígrafe.
Estate atento al vídeo porque en la siguiente pantalla te haremos preguntas sobre su
contenido.

Tipos de códecs de vídeo


Fuente de vídeo: https://www.youtube.com/watch?v=o3JrHaGc3Dw
C O NT I NU A R
Autoevaluación
Pregunta
01/03
¿Cuál de los siguientes no es una clasificación de los códecs en función del uso
que se les
da?
Captación.
Intermediación.
Visualización.
Distribución.
Pregunta
02/03
¿Qué tipo de códecs son los que usan las cámaras para crear los archivos?
Códecs de captación.
Códecs de intermediación.
Códecs de visualización.
Códecs de distribución.
Pregunta
03/03
¿Cuál es el equivalente al ProRes de Apple que podrás usar libremente en
Windows?
H.264.
DNxHD.
DV.
Ninguna de las anteriores.
Ya has visto que uno de los problemas de mayor relevancia que tienen los vídeos es su
gran tamaño y la cantidad de almacenamiento que requieren. Por ello es muy interesante
encontrar herramientas que te ayuden a comprimir vídeos perdiendo poca calidad.
Existen diversos modos de comprimir para poder reducir el tamaño de un vídeo, pero casi
todas llevan asociado el riesgo de la pérdida de calidad. Es importante, por tanto,
seleccionar bien la herramienta a emplear para la compresión del vídeo, ya que lo idóneo
es que permita reducir el tamaño sin pérdida alguna de calidad.
A continuación se muestran herramientas online y otras aplicaciones instalables que
podrán ayudarte a comprimir un vídeo desde el propio navegador o escritorio. Pulsa sobre
estos botones para poder obtener mayor información sobre cada una de las distintas
herramientas:

Herramientas de compresión de vídeos


VideoSmaller
VideoSmaller es un servicio web que permite reducir el tamaño de los vídeos de un modo fácil sin
pérdida de calidad. Tan solo tendrás que acceder al sitio de VideoSmaller, subir el vídeo, escoger si
usas
el nivel más bajo de compresión que permita mantener la máxima calidad y seleccionar el escalado
del
vídeo. Al ser gratuito tiene algunas limitaciones, como que el vídeo no podrá exceder de 500MB.

ClipChamp
ClipChamp es otro servicio web gratuito que te permitirá convetir, editar o comprimir tus vídeos sin pérdida
alguna de calidad. Para ello deberás registrarte previamente en el sitio, algo que puedes hacer mediante tu
cuenta de Google o de Facebook. Después, tras subir el vídeo, podrás reducir el tamaño y seleccionar la opción
de comprimir. Ofrece ajustes específicos en función de para qué uses el vídeo.

AConvert
AConvert es otra herramienta online para la compresión de vídeos sin pérdida de calidad. Cuenta con una interfaz
sencilla de manejar y te permitirá guardar los archivos que resulten de la compresión en local o bien en la nube,
con herramientas como Google Drive o Dropbox. Tiene el inconveniente de que el tamaño máximo del vídeo a
comprimir será de 200MB. Una vez subido el vídeo o indicado su URL, se podrá cambiar su tamaño, su tasa de bits
y la velocidad de fotogramas por segundo.

Handbrake
Handbrake es una aplicación gratuita de software libre, disponible para Windows y Mac, que te permitirá reducir
el peso de tus vídeos sin perder la calidad. Lo primero será descargar e instalar el programa en tu ordenador.
Una vez instalado, podrás cambiar de formato tus vídeos y comprimirlos sin pérdida de calidad.

Freemake
Freemake es otro herramienta muy popular para convertir vídeos. A pesar de que podrás conseguirla de forma
gratuita, agregará marcas de agua a nuestros vídeos. Debes descargar e instalar el programa en tu ordenador y,
para añadir algún vídeo, tan solo tendrás que arrastrar y soltar. Podrás configurar el formato en el que desees
guardar el vídeo, su calidad, la tasa de bits, la velocidad de fotogramas, los códecs de audio y vídeo, etc.

Shotcut
Shotcut es otro editor de vídeos que te permitirá convertir, comprimir o realizar otro tipo de tareas sobre tus
vídeos. Está disponible para Windows, macOS y GNU/Linux. Permite reducir el tamaño de un vídeo sin perder
calidad. Es software freeware pero de versión limitada.

Filmora9
Filmora9 es una herramienta que te permite reducir el tamaño de tus vídeos de forma sencilla. Está disponible
para Windows y Mac, y es posible descargar una versión gratuita que agregará marcas de agua a tus vídeos.
Permite editar vídeos y aplicar numerosos efectos sobre ellos, además de permitirte reducir el tamaño del vídeo
sin perder la calidad.

Movavi Video Converter


Movavi Video Converter es un programa disponible para Windows y Mac. Permite comprimir vídeos para que
ocupen lo menos posible sin que se produzca pérdida de calidad. Podrás usar diferentes formatos como MP4,
MOV, WMV, AVI, MKV, 3GP, MPEG, HD y muchos más. Además, cuenta con una interfaz sencilla.
C O NT I NU A R
Cómo reducir el tamaño de un vídeo con el
servicio web VideoSmaller
Existen muchos servicios web de conversión de vídeo online. Muchos de ellos no son gratuitos o
agregan marcas de agua o algún otro tipo de limitación en su uso.
El conversor de vídeo online VideoSmaller permite hacer más pequeños tus vídeos y por lo
tanto, menos pesados de un modo muy sencillo. Al acceder a la web de este convertidor tan solo
debes escoger el formato del vídeo a subir. Te da la posibilidad de escoger entre los formatos
MP4, AVI, MPEG y MOV.
De entre las opciones de conversión disponibles, puedes seleccionar que se emplee el menor
nivel de compresión posible que permita conservar la misma calidad en el vídeo, aunque se
reduzca el tamaño. También es posible elegir el escalado del vídeo, es decir, el tamaño del vídeo
resultante de la compresión. Tendrás un amplio rango para seleccionar el ancho, entre los 1920
píxeles y los 160 píxeles de ancho. Esta selección influirá de un modo determinante en el peso
final del vídeo. Si así lo deseas, también puedes eliminar la pista de audio del vídeo para que el
vídeo ocupe menos espacio.
Resumiendo, el proceso a seguir con VideoSmaller será el siguiente:
C O NT I NU A R
1.Agrega los archivos de los vídeos arrastrando y soltando en el área de trabajo de la aplicación.
2.Escoge el formato de salida deseado.
3.Haz clic en el botón "Convertir" para iniciar el proceso de compresión con las configuraciones
establecidas.

Recapitulación
Hasta este momento has aprendido que mediante técnicas de compresión de vídeo es
posible reducir y eliminar datos redundantes del vídeo para conseguir de ese
modo que el archivo que contenga el vídeo digital pueda ser enviado a través de la Red y
se almacene en discos informáticos.
No solo eso, sino que además conoces ahora que uno de los factores más determinantes de
la codificación de vídeo es su relación de compresión, que dependerá del volumen de
información inicial de la fuente de vídeo, de la capacidad del canal de transmisión, así
como del espacio de almacenamiento disponible.
Conoces también ahora también que la compresión intra-frame comprime cada
fotograma de manera independiente. Además aprendiste que un fotograma-P es un
interfotograma predictivo que hace referencia a partes de fotogramas-I o fotogramas-P
anteriores para comprimir el fotograma. Los fotogramas-P requieren un menor número de
bits que los fotogramas-I, pero son más propensos a la transmisión de errores. También
sabes ahora que un fotograma-B o interfotograma bipredictivo o predictivo bidireccional
es un fotograma que se basa tanto en fotogramas anteriores como posteriores. El
uso de fotogramas-B aumenta considerablemente la latencia.
Sabes ahora también que para poder comprimir es necesario aplicar un algoritmo al vídeo
original para poder obtener como resultado el archivo comprimido ya con un tamaño más
adecuado para poder transmitirlo o almacenarlo. Comprendiste que, vinculados al proceso
de compresión, deberán existir siempre un par de algoritmos que funcionan conjuntamente
y se denominan códecs de vídeo ya que realizan las funciones de codificador, pero también
de decodificador.
Aprendiste los esquemas de compresión de mayor relevancia: Descomprimido, DV,
HDCAM, MPEG 2, MPEG 4, H.264, Apple ProRes y Avid DNxHD. Para finalizar, conociste
algunas herramientas de compresión de vídeos como VideoSmaller, ClipChamp,
AConvert, Handbrake, Freemake, Shotcut, Filmora9 y Movavi Video Converter.
CONT I NU A R
Autoevaluación
Pregunta
01/03
¿Qué modo de realizar la compresión en los vídeos comprime cada fotograma
de
manera independiente?
Intra-frame.
Inter-frame.
Ambos.
Ninguno de los anteriores.
Pregunta
02/03
El fotograma-B se basa en…
Fotogramas anteriores.
Fotogramas posteriores.
Ambos.
Ninguno de los anteriores.
Pregunta
03/03
¿Cuál es el esquema de compresión creado por Sony y que proviene de
Betacam?
DV.
HDCAM.
MPEG 2.
Ninguno de los anteriores.
En epígrafes anteriores pudiste aprender que los contenedores son los ficheros que
contienen en su interior un conjunto de archivos. Generalmente, estos
contenedores pueden albergar ficheros de vídeo, audio, subtítulos, imágenes, etc. Es decir,
varios formatos de archivo de contenedor de vídeos incluyen distintos idiomas, subtítulos,
menús interactivos, etc.
Conocer las características de los contenedores de vídeo y sus formatos es necesario para
tu trabajo cotidiano con archivos en formato de vídeo. Así, que no dejes de seguir
avanzando en los contenidos para descubrir más sobre ellos.
Hay quien piensa que el contenedor es la extensión del fichero. Pero eso no es así, la
extensión se podría comparar con el nombre de una persona, puesto que una persona no
lo es por el simple hecho de tener un nombre. Pasa igual con los contenedores y sus
extensiones. Por ejemplo, si encuentras un fichero con la extensión .mkv querrá indicar

14. Contenedor de vídeo


que el fichero es un contenedor Matroska. La extensión es la que indica que el archivo es
un contenedor, pero la extensión en sí no es un contenedor.
Los archivos de vídeo tienen sus peculiaridades, podrás encontrar un contenedor y un
contenido. Para entender este conceptos puedes utilizar la metáfora de una cinta de VHS
o de un DVD, donde el contenedor podría ser la funda que lleva la cinta dentro o el proprio
DVD físico que contiene las pistas. Es decir, el contenedor almacena diferentes tipos de
datos, entre ellos el propio vídeo, los subtítulos, las pistas secundarias de audio, etc.
El contenido será toda la información que almacena, todos esos datos que conforman el
vídeo y que deberá ser decodificada a través del uso de un códec.
Códec es un codificador/decodificador, es decir, un software que usará el reproductor para
mostrar correctamente la información. Un buen códec comprime la información lo máximo
posible sin que el vídeo comprimido tenga pérdidas de calidad.
El formato del archivo indicará el tipo de archivo, por ejemplo, un archivo AVI podrá
almacenar información codificada con un códec Xvid o AC3. Los códecs y los archivos
están relacionados por aspectos técnicos y comerciales, por lo que no podrás combinar
todos con todos.
C O NT I NU A R
Los contenedores son formatos de archivos que pueden almacenar diversos tipos de
datos comprimidos. Pueden almacenar audio, vídeo, subtítulos, capítulos y metadatos,
junto con la información de sincronización requerida para la reproducción.
Los datos almacenados en el contenedor se encontrarán comprimidos mediante una serie
de códecs. El archivo contenedor se emplea para poder identificar los distintos tipos de
datos que contendrá.
Los formatos contenedores más populares son estos que puedes conocer pulsando en los
botones:

Formatos contenedores de vídeo


AVI
Archivo contenedor de Microsoft (AVI). Contenedor estándar de Windows. Los archivos AVI son
contenedores comunes del lado del PC, aunque están en desuso en los entornos profesionales, ya
que
en su forma nativa no soporta archivos de más de 4GB, ni soporta código de tiempo.

MOV
Archivo Quicktime de Apple (MOV). Contenedor estándar de QuickTime. El archivo MOV es un
contenedor propietario de Apple y permite almacenar múltiples pistas de audio, vídeo, gráficos y
texto así
como código de tiempo. Sus pistas podrán usar diferentes esquemas de compresión y códecs. Es
decir,
podrás encontrarte un archivo MOV con material en h.264, en DNxHD, ProRes, etc. Es empleado en
adquisición, edición y postproducción y distribución.

MP4
Contenedor MPEG 4 (MP4). Contenedor estándar para MPEG-4. Es otro contenedor estandarizado
que
puede contener distintos códecs, aunque normalmente suele usarse con H.264. Se emplea tanto en
adquisición como en distribución.

OGG
Ogg Media Container (OGG). Contenedor estándar de Xiph.org códecs. Fue desarrollado por
Xiph.org
dentro de una iniciativa mayor orientada al desarrollo de una serie de herramientas gratuitas para
la
codificación y la decodificación de contenidos multimedia. OGG suele referirse incorrectamente al
códec
de audio Ogg Vorbis, aunque otros componentes del contenedor OGG son el códec de vídeo
Theora y el
formato de compresión de audio hablado Speex.

Matroska
Matroska (MKV). Estándar abierto, adoptado por DivX, Inc. para DivX Plus HD. Probablemente sea el gran
estándar para los formatos contenedores multimedia. Incorpora muchas de las características de mayor
relevancia para un formato contenedor moderno, como la búsqueda rápida dentro del archivo, una alta
recuperación de errores, entradas para capítulos, múltiples pistas de subtítulos, múltiples pistas de audio,
capacidad de ampliación por módulos, streaming, menús estilo DVD, etc. Para poder abrir archivos Matroska, es
necesario tener instalado o DivX Total Pack o el filtro de Matroska Pack.

ASF
Advanced Systems Format (ASF). Contenedor estándar para Microsoft WMA y WMV. Formato
propietario de Microsoft para contener audio y vídeo, especialmente indicado para transmisión por
Internet bajo demanda. ASF es parte del encuadre de Windows Media. Este formato no especifica
cómo
debe codificarse el audio o el vídeo, en su lugar solo especifica la estructura de la pista de audio o
vídeo.
Los formatos más comunes contenidos por ASF son Windows Media Audio (WMA) y Windows
Media
Video (WMV).

ASF
Advanced Systems Format (ASF). Contenedor estándar para Microsoft WMA y WMV. Formato
propietario de Microsoft para contener audio y vídeo, especialmente indicado para transmisión por
Internet bajo demanda. ASF es parte del encuadre de Windows Media. Este formato no especifica
cómo
debe codificarse el audio o el vídeo, en su lugar solo especifica la estructura de la pista de audio o
vídeo.
Los formatos más comunes contenidos por ASF son Windows Media Audio (WMA) y Windows
Media
Video (WMV).

RealMedia
Real Media (RM). Contenedor estándar para RealVideo y RealAudio. RealMedia es un formato
contenedor creado por RealNetworks. Se emplea normalmente con los formatos RealVideo y
RealAudio
para streaming de contenidos vía Internet. Podrá reproducirse con RealPlayer, o con cualquier
reproductor que soporte DirectShow mediante la instalación del paquete del códec
RealAlternative.

MXF
Contenedor avalado por la SMPTE. Este contenedor es un estándar de la SMPTE (Society of
Motion
Picture and Television Engineers). Su uso es muy común en la adquisición y en la edición y también
es
usado como contenedor de distribución, tanto para televisión como para cine digital.
C O NT I NU A R

¿Quieres aprender más sobre estos formatos? En la siguiente pantalla


podrás aprender cuándo utilizar cada uno de ellos.
Este vídeo realizado por Filmora reúne la información más básica y útil para responder a
todas las preguntas que te puedan haber surgido hasta ahora sobre los diferentes
formatos de vídeo.
Aprenderás que los distintos tipos de formato sirven para cosas diferentes y que el
formato adecuado para una cosa no tiene por qué ser el mejor formato para otro
propósito.
No dejes de visualizar el vídeo porque en las siguientes pantallas deberás responder a
algunas preguntas sobre su contenido.

Cómo elegir formato de vídeo adecuado según


distintos usos
Fuente de vídeo: https://www.youtube.com/watch?v=wzwmZku0hgk
C O NT I NU A R
Autoevaluación
Pregunta
01/03
El formato de vídeo técnicamente conocido como formato contenedor es un
tipo de
formato de archivo que sirve para almacenar datos de vídeo digital en un
sistema
informático.
Verdadero.
Falso.
Pregunta
02/03
¿Cuáles no es una opción recomendada en el vídeo si estás haciendo y subiendo
vídeos a
plataformas online como YouTube, Vimeo o DailyMotion?
MKV.
MP4.
FLV.
WMV.
Pregunta
03/03
¿Cuál no es una opción recomendada si quieres ver el vídeo en un televisor de
alta
definición o en un ordenador y necesitas que te ofrezcan la mayor calidad
posible?
MOV.
AVI.
MKV.
Todos serían adecuados.
El formato del archivo, como ya sabes, te indicará el tipo de archivo con el que estás
tratando y sus características. Por ejemplo, un archivo AVI podría almacenar información
codificada con un códec Xvid o AC3. Los códecs y los archivos están relacionados por
aspectos técnicos y comerciales, por lo que no podrás combinar todos con todos.
En la siguiente tabla se presentan algunos de los contenedores más importantes y su
relación con algunos de los códecs más usados, para que puedas comprobar si existe
compatibilidad o no:
C O NT I NU A R
Compatibilidad entre contenedores y códecs
A continuación se muestra la pantalla equivalente a las pestañas horizontales que
utilizábamos en Articulate. Hay que tener cuidado con los títulos de las pestañas, porque
si son muy largos no aparecerá el título completo, ni siquiera posando el ratón sobre cada
pestaña. En ese caso tendremos que introducir el título dentro de la pestaña, antes del
contenido y a tamaño de 16 píxeles.
Popularidad
Un factor de diferenciación es el grado en el que es soportado el formato contenedor por los
diversos dispositivos hardware. Uno de los formatos más populares es el AVI.

Diferencias entre los contenedores de vídeo


PO PU L A R IDA D O V E R H E A D
S O PO R T E DE
FU NCIO NE S DE
CÓ DE C. . .
S O PO R T E PA R A
CO NT E NIDO S
A V A NZ . . .
SOP
ST
Overhead
Marca la diferencia de tamaño entre dos archivos que contienen el mismo contenido pero en
distintos contenedores. Como ejemplo, el mismo vídeo de una duración de 2 horas podría
ocupar 10 MB más en el formato AVI respecto al formato Matroska.
Soporte de funciones de códec avanzadas
Algunos formatos más antiguos, como por ejemplo AVI, pueden presentar problemas de soporte
respecto a características avanzadas como B-frames, audio VBR, VFR. Si bien es posible modificar
los formatos y agregar ese soporte, esa acción podría ocasionar problemas de compatibilidad.
PO PU L A R IDA D O V E R H E A D
S O PO R T E DE
FU NCIO NE S DE
CÓ DE C. . .
S O PO R T E PA R A
CO NT E NIDO S
A V A NZ . . .
SOP
ST
PO PU L A R IDA D O V E R H E A D
S O PO R T E DE
FU NCIO NE S DE
CÓ DE C. . .
S O PO R T E PA R A
CO NT E NIDO S
A V A NZ . . .
SOP
ST
Soporte para contenidos avanzados
Algunos formatos contenedores no dan soporte a contenidos como capítulos, subtítulos,
metatags y datos de usuario adicionales.
PO PU L A R IDA D O V E R H E A D
S O PO R T E DE
FU NCIO NE S DE
CÓ DE C. . .
S O PO R T E PA R A
CO NT E NIDO S
A V A NZ . . .
SOP
ST
Soporte para streaming
Indica si el formato contenedor ofrece la capacidad de transmisión de contenido multimedia bajo
demanda a través de Internet.
PO PU L A R IDA D O V E R H E A D
S O PO R T E DE
FU NCIO NE S DE
CÓ DE C. . .
S O PO R T E PA R A
CO NT E NIDO S
A V A NZ . . .
SOP
ST
C O NT I NU A R
Cómo obtener información técnica y de la
etiqueta de un archivo de vídeo o audio con
MediaInfo
MediaInfo es una aplicación de software libre que te proporciona información técnica y de la
etiqueta sobre un archivo de vídeo o audio.
¿Qué información puedes obtener con MediaInfo?
• General: título, autor, director, álbum, número de pista, fecha, duración, etc.
• Vídeo: códec, aspecto, fps, bitrate, etc.
• Audio: códec, frecuencia de muestreo, canales, lenguaje, bitrate, etc.
• Texto: idioma de subtítulo.
• Capítulos: número de capítulos, lista de capítulos.
¿Qué formatos soporta MediaInfo?
• Vídeo: MKV, OGM, AVI, DivX, WMV, QuickTime, Real, MPEG-1, MPEG-2, MPEG-4, DVD (VOB), etc.
Y entre sus códecs: DivX, XviD, MSMPEG4, ASP, H.264/AVC, H.265/HEVC, FFV1, etc.
C O NT I NU A R
• Audio: OGG, MP3, WAV, RA, AC3, DTS, AAC, M4A, AU, AIFF, etc.
• Subtítulos: SRT, SSA, ASS, SAMI, etc.

Recapitulación
Hasta este momento has aprendido que los contenedores son los ficheros que contienen
en su interior un conjunto de archivos. Generalmente, los contenedores pueden albergar
ficheros de vídeo, audio, subtítulos, imágenes, etc.
No solo eso, sino que además conoces ahora que los datos almacenados en el contenedor se
encontrarán comprimidos mediante una serie de códecs. El archivo contenedor se
emplea para poder identificar los distintos tipos de datos que contendrá.
Conoces también ahora también que los formatos contenedores más populares son: AVI,
MOV, MP4, Ogg, Matroska, ASF y RealMedia.
Además aprendiste que el formato del archivo te indicará el tipo de archivo, por
ejemplo un archivo AVI podría almacenar información codificada con un códec Xvid o AC3.
Los códecs y los archivos están relacionados por aspectos técnicos y
comerciales, por lo que no podrás combinar todos con todos.
Para finalizar, aprendiste que las principales diferencias que existen entre los formatos
contenedores son relativas a la popularidad; el overhead, el soporte de funciones de códec
avanzadas, el soporte para contenidos avanzados y el soporte para streaming.
CONT I NU A R
Autoevaluación
Pregunta
01/03
¿A qué formato contenedor de vídeo le corresponde la extensión MKV?
Real Media.
Matroska.
Ogg Media Container.
Archivo contenedor de Microsoft.
Pregunta
02/03
El contenedor Matroska es compatible con el códec Theora.
Verdadero.
Falso.
Pregunta
03/03
¿Cuál de los siguientes formatos contenedores no soporta el streaming?
ASF.
AVI.
MKV.
MP4.
Para trabajar efectivamente con cualquier tecnología, es imprescindible que conozcas las
normas establecidas en diferentes lugares del mundo. Tales normas ofrecen amplias
especificaciones y son producidas por las grandes sociedades técnicas cuyo
objetivo es el desarrollo de nuevas tecnologías.
A lo largo de las siguientes pantallas podrás descubrir en profundidad los grupos
tecnológicos que generan los estándares en el campo del vídeo además de los estándares
de mayor relevancia en el campo del vídeo analógico y digital.
No dejes de leer si quieres aprenderlo.
Estos grupos de tecnologías que generan la mayoría de las normas para el diseño, el
desarrollo y la medición de los sistemas de televisión y vídeo en general son lo siguientes:

15. Estándares de vídeo analógico y digital


SMPTE. Sociedad de Ingenieros de Cine y Televisión.
IEEE. Instituto de Ingeniería Eléctrica y Electrónica.
ITU. Unión Internacional de Telecomunicación.
DVB. Vídeo Digital para Radiodifusión.
AES. Sociedad de Ingeniería de Audio.
Todas estas instituciones, en mayor o menor medida, tratan de fomentar la innovación
tecnológica y la excelencia en beneficio de la sociedad. Están universalmente reconocidas
por sus contribuciones al desarrollo tecnológico y de los profesionales técnicos para
mejorar las condiciones globales.
C O NT I NU A R
¿Quieres conocer los estándares que han creado estos grupos tecnológicos?
La IEEE ofrece un buscador de estándares en su página oficial que podrás
usar para buscar estándares en la IEEE y en la SMPTE.
Como ya has visto, los grupos de tecnología más importantes que generan estándares de
vídeo son la Sociedad de Ingenieros de Cine y Televisión (SMPTE), el Instituto de
Ingeniería Eléctrica y Electrónica (IEEE), la Unión Internacional de Telecomunicación (UTI),
Vídeo Digital para Radiodifusión (DVB) y la Sociedad de Ingeniería de Audio (AES).
Si quieres conocer más en profundidad cada una de ellas, pulsa en las flechas laterales:

Sociedades tecnológicas generadoras de


estándares de vídeo
SMPTE
Sociedad de Ingenieros de Cine y Televisión (Society of Motion Picture and Television
Engineers, SMPTE).
La SMPTE fue fundada en 1916 como la Sociedad de Ingenieros de Cine o SMPE. Se trata
de una asociación profesional de ingenieros, tecnólogos y ejecutivos que trabajan en la
industria de la multimedia y el entretenimiento. Hoy en día se ha constituido como una
organización de estándares reconocida internacionalmente, y tiene más de 800
estándares para la transmisión, el cine, el cine digital, la grabación de audio, la
tecnología de la información (TI) y las imágenes médicas.
1
IEEE
Instituto de Ingeniería Eléctrica y Electrónica (IEEE).
Es una asociación mundial de ingenieros dedicada a la normalización y el desarrollo en
áreas técnicas. Fue creada en 1884 por Thomas Alva Edison, Alexander Graham Bell,
Franklin Leonard Pope y otros ingenieros. En 1963, toma el nombre de IEEE al incorporar
las asociaciones AIEE (American Institute of Electrical Engineers) e IRE (Institute of Radio
Engineers).
Organiza más de 1000 conferencias al año en todo el mundo, y ha desarrollado cerca de
900 estándares activos, con otros 700 en desarrollo.
2
UTI
Unión Internacional de Telecomunicación (UTI).
La UIT es el organismo especializado en telecomunicaciones de la Organización de las
Naciones Unidas (ONU).
Se encarga de regular las telecomunicaciones a nivel internacional entre las distintas
administraciones y empresas operadoras. Su sede se encuentra en la ciudad de Ginebra,
Suiza. Es la organización intergubernamental más antigua del mundo, con una historia
que se remonta a 1865.
3
DVB
Vídeo Digital para Radiodifusión (DVB).
Es una organización que promueve estándares de televisión digital, en especial para
HDTV y televisión vía satélite.
Se creó en 1993 por la alianza entre varias empresas privadas europeas para normalizar
la televisión digital. De ese modo se crearon nuevos estándares en la radiodifusión
digital.
4
AES
Sociedad de Ingeniería de Audio (AES).
Es la mayor asociación mundial de ingenieros de sonido.
Creada en 1948, organiza conferencias internacionales, edita una revista científica y
elabora normas y recomendaciones para el ámbito de la ingeniería de audio. Tiene su
sede en Nueva York y dispone de secciones en 41 regiones del planeta.
5
En caso de añadir el Slider predeterminado de la herramienta en la pantalla
de bloques, tenemos que fijarnos en la pantalla de edición y ocultar tanto
la 'Introducción' como las 'Conclusiones'. De todas formas se puede copiar
esta pantalla de curso a curso.
C O NT I NU A R
Algunos de los estándares sobre vídeo analógico y digital desarrollados por la SMPTE son
los que se enumeran en el documento que puedes descargarte pulsando en el botón que
tienes a continuación. Además, dispones de un enlace a tales estándares para que puedas
acceder a mayor información sobre cada uno de ellos:
SMPTE.pdf
84.2 KB
SMPTE se fundó para abordar la falta de estándares en la industria del cine emergente,
donde no había acuerdo sobre el ancho de la película, el formato de la imagen, las
perforaciones, etc., y solo una pequeña posibilidad de que una película específica
pudiera mostrarse en un proyector determinado.
En la actualidad, SMPTE mantiene una multitud de estándares para medidores de
película de 8 mm a 70 mm, que cubren todos estos parámetros y muchos otros, como la
codificación de bordes, el sonido analógico y el digital.
Aunque actualmente el uso de la película analógica está disminuyendo reemplazado por
imágenes electrónicas, los estándares de SMPTE continúan formando la base de la
industria y el punto de referencia para el cine digital.

Estándares de vídeo de la SMPTE


Los más de 30 estándares SMPTE han permitido un despliegue rápido y exitoso del cine
digital y una experiencia cinematográfica más atractiva. Cuando el interés en 3-D alcanzó
su punto máximo, los estándares SMPTE D-Cinema estaban listos para respaldarlo, del
mismo modo que los estándares se han mejorado posteriormente para admitir
velocidades de fotogramas más altas, como se usa en las películas del Hobbit.
Actualmente se está trabajando para añadir soporte a los sistemas de sonido inmersivos.
C O NT I NU A R
Los estándares internacionales de la UIT están a tu alrededor en multitud de ocasiones sin
saberlo. Son parte central de las redes y dispositivos de información y comunicación (TIC)
que usas todos los días, vitales para permitir la interconexión e interoperabilidad de los
equipos y dispositivos de TIC fabricados por cientos de miles de empresas diferentes en
todo el mundo.
Estos estándares proporcionan a los desarrolladores un mercado global que permite
economías de escala mundial en la producción e implementación, lo que se traduce en
beneficios para los usuarios tanto en coste como en funcionalidad.
A día de hoy el 95% del tráfico de comunicaciones internacionales corre por redes de
transporte óptico construidas de conformidad con los estándares de la UIT. Además, el
vídeo representará más del 80 por ciento de todo el tráfico de Internet en 2020 y la
mayoría de este tráfico de vídeo se codificará utilizando los estándares de la ITU.

Estándares de vídeo de la ITU


Por otra parte, el trabajo de estandarización de la UIT para el Internet de las cosas (IoT) y
las ciudades inteligentes se ha centrado en lograr la interoperabilidad y el procesamiento
y la gestión eficientes de datos, por no mencionar el hecho de que las avanzadas
tecnologías inalámbricas, de banda ancha y multimedia, funcionan con los estándares de
la UIT.
Si quieres conocer algunos de los estándares más importantes de la UTI pulsa en este
botón de descarga:
ITU.pdf
74.8 KB
C O NT I NU A R
La elaboración de nuevos estándares en IEEE se realiza por medio del programa Industry
Connections (IC), que desarrolla los productos y servicios que facilitan la colaboración
entre organizaciones e individuos en un entorno eficiente y en un mercado en el que
tratan de generar consensos y producir resultados compartidos. Industry Connections, por
lo tanto, trata de facilitar la producción de estándares en un mercado acelerado por medio
de propuestas de normas, elaboración de libros blancos, guías y documentos de
orientación, conferencias, talleres, bases de datos y servicios de registro, desarrollo de
software, herramientas y servicios web, etc.
14 de 259

Estándares de vídeo de la IEEE


Por medio de este trabajo IEEE trata de ser una fuente confiable e imparcial
de información técnica y desarrollo de foros para el diálogo técnico y la
colaboración entre sus miembros, cultivar un intercambio activo, vibrante y
honesto entre las comunidades globales de profesionales técnicos
interdisciplinarios. Si quieres conocer algunos de los estándares de la IEEE
consulta el pdf de a continuación.
IEEE.pdf
83.6 KB
C O NT I NU A R
Visualizando este vídeo de la UNED podrás aprender cómo realizar búsquedas avanzadas
en la base de datos IEEE Xplore.
Por medio de una explicación sencilla y práctica aprenderás a cómo delimitar las
búsquedas para que los resultados se ajusten lo máximo posible a la búsqueda que
quieras realizar.
Visualízalo atentamente porque seguro que te aporta una información realmente valiosa,
¿te la vas a perder? ¿No? ¡Pues dale al play!

Búsquedas avanzadas en IEEE Xplore


Fuente de vídeo: https://www.youtube.com/watch?v=F0JcyKfmSe0
C O NT I NU A R
Autoevaluación
Pregunta
01/03
IEEE Xplore te mostrará todos los resultados obtenidos, el contenido suscrito y
el acceso
abierto.
Verdadero.
Falso.
Pregunta
02/03
¿Cuáles de los siguientes es un método para filtrar en función del año?
Un año concreto.
Un margen de años.
Ambos.
Ninguno de los anteriores.
Pregunta
03/03
Es posible filtrar los resultados por su editor en IEEE Xplore.
Verdadero.
Falso.
Las tendencias actuales sobre las que están centradas la AES y la DVB se han centrado en
la difusión de la TV digital terrestre para receptores móviles, especialmente en el
desarrollo de un sistema con tecnologías de compresión de vídeo, transmisión y protocolo
de Internet a través de estaciones locales de televisión.
Además, la introducción de la transmisión digital ha introducido beneficios tales como la
televisión de alta definición (1080i, 720p), la disponibilidad de sonido envolvente junto con
la imagen de Ultra-High Definition (vídeo 4k), etc. Por otra parte, el uso de nuevos métodos
para la distribución de señales al hogar a través de Internet con servicios de transmisión
es también una tendencia creciente.

Estándares de vídeo de la AES y la DVB


Anteriormente la AES y la DVB ya venían desarrollando algunos de los
estándares sobre vídeo analógico y digital. Descúbrelo en el siguiente
documento descargable.
AES_DVB.pdf
73.7 KB
C O NT I NU A R
Las señales de vídeo consisten en una señal de luma (componente que codifica la
información de luminosidad de la imagen) y dos señales de croma (señal que transporta la
información de color). La señal de luma contiene información sobre el contenido del vídeo
en blanco y negro, mientras que las de croma contienen información adicional para que el
vídeo en blanco y negro se convierta a vídeo en color. Los espectros de la señal de croma
tienen un ancho de banda mucho más estrecho que el espectro luma aunque el valor de
ambos dependerá del estándar que utilicen. Pulsa en estas pestañas para conocer los
estándares más importantes:
Componentes Analógico Multiplexado (Multiplexed Analogue Components, MAC).
Se trata de un estándar obsoleto que se empleaba en Europa para la transmisión estándar y que
emplea imagen analógica y componentes de audio digitales. Básicamente consiste en una
multiplexación por división en el tiempo de las señales de luminancia y crominancia, durante el
barrido de lí nea horizontal.

Estándares de vídeo analógico


MA C MU S E NT S C PA L
Sistema de codificación del muestreo Secundario-nyquist múltiple (Multi Sub-nyquist
Sampling Encoding, MUSE).
Japón comenzó con este estándar, conocido también como Hi-Vision, transmitiendo con alta
definición analógica. Fue creado en 1980 y empleaba un sistema de 1035 lí neas de resolución. Su
inconveniente era el excesivo uso de las bandas de transmisión, ya que necesitaba cinco veces
más espacio espectral que un canal de televisión estándar.
MA C MU S E NT S C PA L
Comisión Nacional de Sistemas de Televisión (National Television System Committee,
NTSC).
Se trata de un sistema de codificación y transmisión de televisión analógica en color creada en
1940 en Estados Unidos. Usado en la mayor parte de América y Japón, entre otros países. De
este estándar se derivó el sistema PAL empleado en Europa y algunos países de Sudamérica.
MA C MU S E NT S C PA L
Lí nea de fase alternada (Phase Alternating Line, PAL).
Es el sistema de codificación empleado en la transmisión de señales de televisión analógica en
color en la mayor parte del mundo. Proviene del NTSC, sistema al que incorpora varias mejoras
técnicas. Fue creado en 1963 por la compañí a Telefunken.
Se emplea este sistema en la mayorí a de los paí ses africanos, asiáticos y europeos, además de
Australia y algunos paí ses latinoamericanos. Dentro de este sistema existen dos versiones:
PALplus, que es una extensión PAL solo usada en Europa, y PAL-M, que es una variación de PAL
usada en Brasil.
MA C MU S E NT S C PA L
Color secuencial con memoria (Séquentiel Couleur í Mémoire, SECAM).
Creado por Thomson en Francia en 1959. Se trata de un sistema para la codificación de televisión
en color analógica. Es empleado en Francia y en el Este de Europa. Trataba de solventar algunos
de los problemas de fase del NTSC.
MA C MU S E NT S C PA L
C O NT I NU A R
Todos los formatos actuales, que se enumeran a continuación, están basados en la
modulación por impulsos codificados (Pulse Code Modulation, PCM). Este procedimiento
de modulación era empleado para convertir una señal analógica en una señal digital.
A continuación podrás saber algo más sobre los estándares de vídeo digital usados para la
codificación pulsando en las flechas laterales:

Estándares para la codificación del vídeo digital


Motion JPEG
Se trata de un formato multimedia donde cada uno de los fotogramas o campos
entrelazados de una secuencia de vídeo digital serán comprimidos, por separado, de
manera independiente, como si fueran una sucesión de imágenes JPEG.
Es empleado generalmente en dispositivos portátiles tales como cámaras digitales.
1
MPEG-1
El Moving Picture Experts Group (MPEG) es un grupo de trabajo de expertos que creó
este conjunto de estándares de codificación de audio y vídeo normalizados. Los vídeos
MPEG-1 se usan en el formato CD Video.
2
MPEG-2
Es otro grupo de estándares de codificación de audio y vídeo creado por el MPEG y
publicado como estándar ISO 13818. Es empleado en la codificación de audio y vídeo
para señales de transmisión que incluyen televisión digital terrestre, por satélite o cable.
Se usa en los discos SVCD y DVD comerciales de películas.
Es similar al MPEG-1, pero agrega el soporte a vídeo entrelazado. No está optimizado
para tasas de bits inferiores a 1 Mbit/s, pero supera en desempeño a MPEG-1 en tasas
superiores a 3 Mbit/s.
3
MPEG-4
Método creado en 1998 y empleado en la compresión digital de audio y vídeo. Fue
designado como el estándar ISO/IEC 14496 para un grupo de formatos de codificación
de audio, vídeo y las tecnologías relacionadas.
Se emplea para la compresión de datos audiovisuales para la web, en el streaming, la
distribución de CD, para la voz en teléfono o videoconferencia y en la difusión de
aplicaciones de televisión.
4
CCIR 601
Usado para estaciones de difusión. Realizada en los años 80 por la Unión Internacional
de Telecomunicaciones (UIT), se trata de la primera recomendación sobre televisión
digital y está referida al muestreo de las señales de vídeo y audio. Se usa solamente en
los estudios de televisión y no lleva a cabo ningún tipo de compresión.
La UIT recomienda que sea usado como base para los estándares de codificación digital,
en los estudios de televisión en países que usen sistemas de 525 y 625 líneas y especifica
que métodos usar para la codificación digital de señales de vídeo.
5
H.264
Conocido también como MPEG-4 Part 10, o AVC, que define un códec de vídeo de alta
compresión, desarrollado conjuntamente por el ITU-T Video Coding Experts Group (VCEG)
y el MPEG.
Su objetivo es el de proporcionar una buena calidad de imagen con tasas binarias
notablemente inferiores a los estándares previos (MPEG-2, H.263 o MPEG-4 parte 2) sin
aumentar la complejidad de su diseño.
6
Theora
Es un códec de vídeo libre de propósito general con bajo consumo de CPU, que está
siendo desarrollado por la Fundación Xiph.Org, como parte de su proyecto Ogg y
empleado para vídeo en Internet. Google comenzó en 2010 a financiar parte de este
proyecto.
7
C O NT I NU A R
La transmisión digital es el envío de información a través de medios de comunicación
físicos en forma de señales digitales. Por lo tanto, las señales analógicas deben
digitalizarse primero antes de transmitirse. A su vez, para que la información digital
pueda transmitirse antes debe codificarse en forma de una señal de dos estados por
medio de un “decodificador de banda base”.
Pulsa en las flechas laterales para aprender más sobre los estándares de vídeo digital
usados para la difusión o transmisión:

Estándares para la difusión o transmisión del


vídeo digital
DVB
Difusión de vídeo digital (Digital Video Broadcasting).
Define conexiones de datos con canales de retorno para diferentes medios y protocolos.
Estos estándares definen la capa física y la capa de enlace de datos de un sistema de
distribución. Los dispositivos interactúan con la capa física a través de una interfaz
paralela síncrona (SPI), una interfaz serie síncrona (SSI) o una interfaz serie asíncrona
(ASI). Los datos se transmiten a través de flujos de transporte MPEG-2 con algunas
restricciones. Existen diferentes sistemas DVB en función del modo en el que distribuyan
los datos:
1
Por satélite: DVB-S (difusión de vídeo digital por satélite) y DVB-S2.
Por cable: DVB-C (difusión de vídeo digital por cable de banda ancha) y DVB-C2.
Televisión terrestre: DVB-T (difusión de vídeo digital terrenal) y DVB-T2.
Televisión terrestre para dispositivos portátiles: DVB-H (difusión de vídeo digital en
dispositivos móviles).
Televisión por satélite para dispositivos portátiles: DVB-SH (estándar híbrido para
difusión por satélite y terrenal dirigida a dispositivos móviles).
ITU-T J83B
Difusión de vídeo digital por cable de Estados Unidos.
Es el estándar empleado en Estados Unidos para la transmisión de señales de TV digital
a través de un cable de banda ancha.
2
ITU-T J83C
Difusión de vídeo digital por cable de Japón.
Es el estándar empleado en Japón para la transmisión de señales de TV digital a través
de un cable de banda ancha.
3
ATSC
El Comité de Sistemas de Televisión Avanzada (Advanced Television Systems Committee)
es el grupo encargado del desarrollo de los estándares de la televisión digital en los
Estados Unidos y Canadá y Estados Unidos. Se creó para reemplazar el sistema de
televisión analógica de color NTSC de Estados Unidos y las normas que creó fueron las
ATSC para la televisión digital terrestre y la ATSC-M/H para la televisión digital terrestre
en equipos portátiles o móviles.
La ATSC define la televisión de alta definición como una imagen panorámica con una
relación de aspecto de 16:9 y una resolución de 1920x1080 pixeles.
4
ISDB-T
Radiodifusión Digital de Servicios Integrados (Integrated Services Digital Broadcasting-
Terrestrial).
Se trata de un conjunto de normas creado por Japón para las transmisiones de radio
digital y televisión digital del mismo modo que DVB en Europa. La más conocida es la
ISDB-T para la televisión digital terrestre pero también está la ISDB-S para la televisión
satelital, ISDB-C para la televisión por cable, ISDB-Tmm para los servicios multimedia y
ISDB-Tsb para la radio digital.
5
SBTVD
Sistema Brasileño de Televisión Digital (Sistema Brasileiro de Televisão Digital, SBTVD).
Está basado en el estándar japonés ISDB-T y por ello es conocido como ISDB-Tb o ISDB-T
Internacional. Lanzado en Brasil en el 2007.
6
DTMB
Digital Terrestrial Multimedia Broadcast.
Estándar de televisión para terminales fijos y móviles utilizado en China y Cuba. Al
principio era conocido como DMB-T/H (Digital Multimedia Broadcast-
Terrestrial/Handheld).
7
CMMB
Radiodifusión móvil multimedia de China (Chinese Mobile Multimedia Broadcasting).
Estándar uniforme para la recepción de TV móvil en China. Conocido anteriormente
como STiMi (infraestructura por satélite terrestre de multiservicios interactivos).
8
En caso de añadir el Slider predeterminado de la herramienta en la pantalla
de bloques, tenemos que fijarnos en la pantalla de edición y ocultar tanto
la 'Introducción' como las 'Conclusiones'. De todas formas se puede copiar
esta pantalla de curso a curso.
C O NT I NU A R
La cinta magnética es un medio para la grabación magnética. Consiste en una capa
delgada y magnetizable colocada sobre una tira larga y estrecha de película plástica. El
dispositivo que almacena datos digitales en cinta magnética se conoce como aparato de
vídeo. La cinta magnética revolucionó la grabación, reproducción y transmisión de datos,
en un primer momento, de sonido. Así, permitió que la radio, que siempre se había
transmitido en vivo, se grabara para su posterior emisión o repetición.
Además, permitió que los registros se grabaran en varias partes que luego se podían
mezclar y editar con una pérdida de calidad tolerable. Esta tecnología se aplicó después
en el desarrollo temprano de las computadoras, que permitían crear cantidades de datos,
almacenarlos y acceder a ellos rápidamente. A día de hoy se pueden almacenar datos
digitales en una cinta magnética con bajo coste y una buena estabilidad del archivo.
A diferencia de las unidades de disco, las cintas magnéticas realizan un almacenamiento
de acceso secuencial de acceso directo, es decir, que debe enrollar físicamente la cinta
entre los carretes para leer cualquier dato en particular. Como resultado, las unidades de
cinta tienen tiempos de acceso promedio muy grandes. En compensación pueden
transmitir datos muy rápidamente cuando se alcanza la posición requerida.
Si quieres conocer los estándares más importantes pulsa en los siguientes botones:

Estándares para el almacenamiento del vídeo


digital en cintas magnéticas

Betacam
Fue creado por Sony en 1982. Es una familia de formatos de videocintas profesionales de 12,7 mm y forma de
enhebrado. Sus múltiples versiones hacen de él un sistema altamente compatible y con una amplia evolución.
Los casetes pueden tener dos tamaños distintos, pequeño (small, S) o grande (large, L). Los casetes y los
estuches tendrán distintos colores en función de su formato.

D-1, D-2, D-3, D-5, D-9 (Digital-S)


Estándares comerciales de vídeo digital creados por la SMPTE.
D-1 (4:2:2 Component Digital) es un estándar de vídeo de grabación digital SMPTE, creado en 1986.
Comenzó como un producto de Sony y Bosch, y fue el primer gran formato de vídeo digital profesional. Su
estándar fue el ITU-R 601.
D-2 es un formato de videocasete digital profesional creado por Ampex e introducido en la Asociación
Nacional de Radioemisores (NAB) eN 1988 como alternativa de vídeo compuesto al formato vídeo de
componente D-1. Al igual que D-1, el D-2 acumula vídeo digital sin comprimir en un casete de cinta.
D-3 es un formato de videocasete de vídeo digital compuesto sin comprimir inventado en NHK e introducido
comercialmente por Panasonic en 1991 para competir con el D-2 de Ampex. Utiliza cinta de partículas de
metal de media pulgada a 83.88 mm/s.
D-5 es un formato de vídeo digital profesional introducido por Panasonic en 1994. Al igual que el D-1 de
Sony (8 bits), es un sistema de componentes digitales sin comprimir (10 bits), pero utiliza las mismas cintas
de media pulgada que el formato D-3 compuesto digital de Panasonic.
Digital-S o D-9 es un formato digital de vídeo profesional desarrollado por JVC. Sus principales
características son grabación en cinta de 1/2", muestreo 4:2:2, compresión 3.3:1 y flujo de datos de 50 Mbps.

DVC
Digital Video Cassette es la versión genérica del formato. Hay dos versiones de cinta con tamaños diferentes:
DV y MiniDV. La segunda es más pequeña y posibilita que las cámaras puedan ser más compactas y ligeras. Las
características del DVC son: muestreo 4:1:1 (NTSC) o 4:2:0 (PAL) con color a 8 bits, compresión 5:1 tipo DCT
intraframe, flujo de vídeo de 25 Mb/s, 2 o 4 canales de audio PCM a 32 o 48 kHz y a 12 o 16 bits.

DVCAM
Es la versión propia de Sony. Tiene las mismas características que el DV, pero Sony amplió el ancho de pista a 15
μm y aumentó en un 50 por ciento la velocidad de cinta. Esto repercute en confiabilidad desde el punto de vista
mecánico aunque no aumenta la calidad, pero las cintas durarán un tercio de las del formato original. DVCAM
puede grabar en cintas DVCAM y Mini-DV y reproduce DV y DVCPRO.

DVCPRO
Es la variante del DVC desarrollada por Panasonic. Su principal diferencia es que usa cinta con pistas de ancho
de 18 μm y con otro tipo de emulsión, partículas de metal en lugar de metal evaporado. Además, cuenta con una
pista longitudinal de audio y otra también longitudinal de control track para ayudar en edición, especialmente,
edición lineal. Otra característica respecto al audio es que únicamente permite la opción de 2 pistas a 48 kHz y 16
bits.

Digital8
Es un formato de vídeo creado por Sony en 1999. Está basado totalmente en el estándar DV, aunque graba la
señal sobre una cinta de Video8 de 8 mm de ancho. Las cámaras Digital8 leen y graban en cintas 8 mm, Hi8 o
Digital8, logrando los mejores resultados en las 2 últimas. Las cintas Hi8 de 120 minutos solo duran 60 en D8.

MicroMV
Es un formato de vídeo patentado descontinuado introducido en octubre de 2001 por Sony. Es el formato de
cinta de vídeo más pequeño: 70% más pequeño que MiniDV. También es más pequeño que un casete Digital8 o
DV. Fue el primer sistema de cinta de escaneo helicoidal con cabezal de lectura MR introducido en el mercado.
Cada casete puede almacenar hasta 60 minutos de vídeo. Actualmente obsoleto.

D-VHS
Es un formato de vídeo digital desarrollado por JVC en 1998. La "D" originalmente fue sinónimo de Datos VHS, JVC
lo renombró como Digital VHS. En este soporte se graba vídeo digital en formato MPEG-2 a una velocidad de 28,4
Mbit/s en un casete del tipo VHS. Esto le permite hacer cualquier tipo de grabaciones digitales.

C O NT I NU A R
Un disco de vídeo es un formato que contiene contenido de vídeo multimedia,
reproducible en una computadora o un reproductor de DVD independiente. Los discos de
vídeo vienen en varios formatos diferentes y en diferentes niveles de estandarización.
Pulsa en las pestañas para aprender algo más sobre los estándares de vídeo digital
usados para el almacenamiento en discos:

Estándares para el almacenamiento del vídeo


digital en discos
DVD-Vídeo –
DVD-Vídeo es un formato de vídeo empleado en el almacenamiento de vídeos digitales en
discos DVD. Actualmente es el más empleado en todo el mundo. Los discos que usan la
especificación DVD-vídeo requieren una unidad de DVD y un decodificador MPEG-2.
Generalmente, la tasa de datos varía desde los 3 Mbit/s a los 9,5 Mbit/s, y la tasa de bits es
adaptativa.

HD DVD –
Disco digital versátil de alta densidad (High Density Digital Versatile Disc, HD DVD) es un
formato de almacenamiento óptico desarrollado como un estándar para el DVD de alta definición
por las empresas Toshiba, Microsoft y NEC. Puede almacenar hasta 30 GB. Fue vencido por el
Blu-ray, su inmediato competidor, que se convertiría en el estándar sucesor del DVD.

Blu-ray –
Blu-ray o simplemente BD, es un formato de disco óptico de nueva generación, desarrollado
por la Blu-ray Disc Association (BDA) y es usado para vídeo de alta definición (HD), 3D y UltraHD.
Cuenta con una mayor capacidad de almacenamiento de datos de alta densidad que la del DVD.
PFD –
Professional Disc (PFD) en un formato de grabación en disco óptico creado por Sony en 2003
principalmente para su sistema de grabación sin cinta, XDCAM. Fue uno de los primeros
formatos ópticos en utilizar blue-violet láser.

DVCPRO P2 –
DVCPRO P2 es un soporte de grabación de señales de vídeo basado en tarjetas de memoria de
estado sólido, desarrollado por Panasonic como sustitutivo de la grabación en cinta. Puede
almacenar diferentes tipos de señales dentro de la familia DV: DV estándar, DVCPro (25Mbps)
DVCPro50 (50Mbps) y DVCProHD (100Mbps) de alta definición.

VCD o CD-DV –
Vídeo CD (VCD) o Compact Disc Digital Video (CD-DV) es un formato estándar creado en
1993 para el almacenamiento de vídeo en discos compactos. Se pueden reproducir los discos
VCD en reproductores adecuados, ordenadores personales y muchos reproductores de DVD.
C O NT I NU A R
¿Cómo pasar tus grabaciones en VHS a formatos
digitales?
Seguro que en alguna ocasión te has planteado el pasar tus viejas películas de VHS al formato
digital o alguien te lo ha planteado. En realidad no es un procedimiento complejo. Basta con que
sigas los siguientes pasos:
• Paso 1. Conecta tu reproductor de vídeo VHS a tu ordenador utilizando el cable o cables
necesarios para poder hacer la conexión. Posiblemente, el proceso requiera un cable SCART
especial que tenga los cables rojo, blanco y amarillo, o que tu reproductor de vídeo disponga de
esas salidas.
• Paso 2. El proceso de digitalización de tus cintas VHS será bastante sencillo. Inicia el software
de grabación en tu ordenador y reproduce la cinta VHS desde el punto en el que quieras
comenzar a grabar.
• Paso 3. Detén el software de grabación al final del vídeo y para también el casete VHS de vídeo.
• Paso 4. Si estás grabando el vídeo capturado en DVD, tu software debería proporcionarte una
opción específica. De no ser así podrías usar herramientas como, por ejemplo, Freemake.
Freemake capturará el vídeo digital de tu cinta VHS y lo grabará en el DVD.
C O NT I NU A R
Recapitulación
Hasta este momento has aprendido que para trabajar efectivamente con cualquier
tecnología, es imprescindible que conozcas las normas establecidas en diferentes
lugares del mundo. Tales normas ofrecen amplias especificaciones y son producidas
por las grandes sociedades técnicas cuyo objetivo es el desarrollo de nuevas
tecnologías.
No solo eso, sino que además conoces ahora que los grupos de tecnologías que generan la
mayoría de las normas para diseño, desarrollo y medición de sistemas de televisión y vídeo
en general, son: Sociedad de Ingenieros de Cine y Televisión, Instituto de Ingeniería
Eléctrica y Electrónica, Unión Internacional de Telecomunicación, Vídeo Digital
para Radiodifusión y la Sociedad de Ingeniería de Audio.
Para finalizar, aprendiste los principales estándares de vídeo analógico, estándares para
la codificación del vídeo digital, estándares para la difusión o transmisión del vídeo
digital, estándares para el almacenamiento del vídeo digital en cintas magnéticas y
estándares para el almacenamiento del vídeo digital en discos.
CONT I NU A R
Autoevaluación
Pregunta
01/03
¿Qué institución crearon en 1884 Thomas Alva Edison, Alexander Graham Bell,
Franklin
Leonard Pope y otros ingenieros?
Sociedad de Ingenieros de Cine y Televisión.
Unión Internacional de Telecomunicación.
Instituto de Ingeniería Eléctrica y Electrónica.
Sociedad de Ingeniería de Audio.
Pregunta
02/03
¿Dónde se usa el estándar de vídeo analógico SECAM?
Estados Unidos.
Francia.
China.
Japón.
Pregunta
03/03
¿Cuál de los siguientes no es un estándar para el almacenamiento del vídeo
digital en
discos?
Video CD.
Blu-ray.
DVD-Video.
DVCPRO.
Existen tres estándares televisivos a nivel mundial, el NTFS, PAL y SECAM. Las diferencias
básicas entre ellos son la frecuencia de transmisión de los fotogramas y su resolución.
Cada país tiene uno de estos tres sistemas de transmisión televisiva.
En este epígrafe podrás descubrir diversos aspectos relacionados con estos estándares y
que te serán necesarios conocer para tu trabajo cotidiano. Sigue leyendo para aprenderlo.
Si empleas algún estándar o tipo de transmisión que no se use en tu país, será necesario
que realices la conversión correspondiente al estándar que se emplea en tu país para
que, de ese modo, puedas visualizar el vídeo correctamente.
Absolutamente todos los aparatos que uses, ya sean videocámaras o televisiones,
deberán ser acordes al sistema de transmisión estándar propio de cada país. Los
ordenadores se pueden adaptar ya que están preparados para visualizar varios sistemas.

16. Emisión de TV analógica: PAL, NTSC y SECAM


El formato NTSC (National Television Standards Committe) es usado por la mayoría de
países de América, Japón y el sureste asiático. En cambio, en Europa, Australia y en casi
todos los países de Asia y África se emplea el formato PAL (Phase Alternating Line).
También se usa el sistema SECAM (Séquentiel Couleur í Mémoire) en Francia, algunos
países de África y del este europeo.
C O NT I NU A R
Si quieres saber cuál es el estándar de formato de vídeo empleado en
cualquier país del mundo puedes acceder al siguiente enlace.

PAL
El sistema PAL es el estándar para la televisión analógica empleado en Europa, Australia,
China y Suramé rica. El sistema PAL responde a las siglas Phase Alernating Line, es decir,
línea de fase alternada. Es el usado en España. Este sistema emite 625 líneas a travé s de
una serie de ráfagas que producen electrones sobre la pantalla del televisor a una
frecuencia de 25 fotogramas por segundo.
Surge en el año 1963 en los laboratorios de Telefunken con la intención de mejorar la
calidad y reducir los defectos en los tonos de color que tenía NTSC, sistema del que deriva
el sistema PAL y del que han adaptado los conceptos fundamentales de la transmisión de
señales.
C O NT I NU A R
¿Recuerdas lo que es un sistema entrelazado? Si no te acuerdas vuelve al
epígrafe 12 en el que estudiaste las diferencias entre el vídeo progresivo y el
entrelazado, porque el sistema PAL se trata de un sistema entrelazado, en el
que primero se muestran las líneas impares y después las pares, de cada
fotograma y al juntar esos campos par e impar se muestra la imagen real.
Acabas de leer en la pantalla anterior que el sistema PAL es el formato NTSC mejorado.
Esto implica que el sistema NTSC únicamente es técnicamente superior, cuando la señal
es transmitida sin variaciones de fase, es decir, cuando se dan unas condiciones de
transmisión ideales del tipo de que no existan obstáculos como montes o estructuras
metálicas entre el emisor y el receptor.
Pero cuando existen rebotes de señal, el sistema PAL será bastante superior al
NTSC. Esto fue lo que ayudó a que la mayoría de los países europeos escogieran el
sistema PAL, ya que la orografía europea es mucho más compleja que la norteamericana.
Además, en los EE. UU. son muy habituales las emisiones de carácter local mientras que
en Europa lo son las estaciones nacionales.

Condiciones de transmisión
¿Es siempre mejor el sistema PAL? Además de que NTSC es mejor cuando
acompañan las condiciones de transmisión, el NTSC es superior al PAL para
evitar el parpadeo en la zona de visión periférica cuando se mira la TV en
una pantalla de más de 21 pulgadas, debido a que la velocidad de refresco
es superior, teniendo el sistema NTSC 60, frente a los 50 Hz del sistema PAL.
C O NT I NU A R
NTSC toma su nombre de las siglas del Comité Nacional de Sistema de Televisión
(National Television System Committee). Es el sistema de televisión analógico que se usa
en América del Norte, América Central, gran parte de América del Sur y Japón, entre otros.
De este sistema deriva el sistema PAL, como acabas de estudiar en las pantallas
anteriores.
Fue desarrollado en 1940, en Estados Unidos, por la Asociación de Fabricantes de Radio
(Radio Manufacturers Association, RMA). No fue hasta el año 1954 que comenzaron las
transmisiones en este sistema. Fue el primer sistema de televisión en color y su forma de
transmitir es a través de 525 líneas en la pantalla a una velocidad de unos 30 fotogramas
por segundo.

NTSC
¿Recuerdas la diferencia de frames por segundo que había entre los
sistemas de vídeo en los epígrafes anteriores? Pues en el caso del sistema
NTSC, en los ordenadores podrás encontrar vídeos de 29,97 fps, no de 30.
C O NT I NU A R
La codificación de color del sistema NTSC usa 29,97 cuadros de vídeo por segundo
con exploración entrelazada. Cada trama o cuadro se compone de dos campos, cada
uno de los cuales consta de 262,5 líneas de exploración, para un total de 525 líneas
de exploración, de las cuales 480 componen el cuadro visible. El resto se emplea en
la sincronización y el retorno vertical. Algunas de esas líneas puede contener otros
datos como subtítulos y el código de tiempo de intervalo vertical (VITC).
En la trama completa se dibujan las líneas de exploración pares en el primer campo y las
impares se dibujan en el segundo campo, lo cual proporciona un imagen libre de
parpadeo con una frecuencia de actualización de aproximadamente 59,94 Hz (en
realidad, 60 Hz).

Características del sistema NTCS


Comparando con los otros sistemas 576i tales como PAL-B/G/N y SECAM,
estos usan 625 líneas, de las cuales 576 son visibles, proporcionando una
mayor resolución vertical, en detrimento de la resolución temporal, que será
menor de 25 cuadros o 50 campos por segundo. En las siguientes pantallas
podrás comparar más características de ambos sistemas, PAL y NTSC.
C O NT I NU A R
Hasta hace muy poco, los sistemas PAL y NTSC eran los sistemas dominantes a la hora de
decidir el modo de transmitir el contenido en televisión. Fueron dos sistemas con dos
puntos de vista para un mismo concepto que coincidieron en el tiempo pero no en el
espacio. Y es que hubo disparidad en los países a la hora de escoger el sistema adecuado.
El sistema PAL fue escogido por Europa, Australia y buena parte de Asia y África mientras
que en Estados Unidos, Canadá y el sudeste asiático se decantaron por el sistema NTSC.
Además, Francia y algunos países africanos optaron por un tercer sistema, el SECAM.
Hoy en día no tiene transcendencia alguna escoger entre una y otra ya que la llegada de la
televisión en HD hizo que perdieran el protagonismo del que habían disfrutado
anteriormente, aunque no deja de ser interesante conocer las diferencias que existían
entre ellas. Pulsa en estas imágenes para descubrirlas:

PAL vs. NTSC


Fotogramas por segundo
Una de las mayores diferencias entre
ambos sistemas es la referida a su
frecuencia, a los fotogramas por
segundo que eran capaces de
mostrar en pantalla. Esa cifra era
distinta en ambos sistemas ya que,
C O NT I NU A R

Frecuencia
Los países con señal NTSC tenían una
electricidad con una frecuencia de 60
hercios, mientras que en la zona de
influencia PAL la electricidad tenía una
frecuencia de 50 hercios. Esta
diferencia tendría consecuencias con
¿Sabías que esta diferencia en el número de fotogramas por segundo
provocaba que el sistema NTSC ofreciera una imagen con mayor fluidez,
mientras que en el sistema PAL era más reducido ese número? Aun así, la
diferencia era casi imperceptible.
Si visualizas este vídeo podrás comprender de manera breve y rápida la gran diferencia
que existe entre el formato NTSC y el formato PAL, además de la historia detrás de la
existencia de ambos formatos.
No te lo pierdas, porque en las siguientes pantallas deberás responder a una serie de
preguntas sobre su contenido.
Además, seguro que te aporta una información realmente valiosa, ¿te la vas a perder?, ¿no?
¡Pues dale al play!

La gran diferencia entre NTSC y el PAL


Fuente de vídeo: https://www.youtube.com/watch?v=qUTtPZLwRqU
C O NT I NU A R
Autoevaluación
Pregunta
01/03
¿Qué sistema es el que usa 526 líneas de resolución?
NTSC.
PAL.
Ambos.
Ninguno de los dos.
Pregunta
02/03
La mayoría de los aparatos electrónicos solamente están programados para
reproducir
discos con el sistema de su región.
Verdadero.
Falso.
Pregunta
03/03
¿Cuál es el sistema utilizado en Australia?
NTSC.
PAL.
Ambos.
Ninguno de los dos.
El nombre del sistema SECAM proviene de las siglas de “Séquentiel Couleur avec
Mémoire”, que del francés se traduciría en color secuencial con memoria. Se trata de un
sistema para la codificación de televisión analógica en color empleado por primera vez en
Francia en 1967. El desarrollo del sistema SECAM fue comenzado por Henri Georges de
France en 1956 para la empresa Thomson. Es la primera norma de televisión en color
europea.

SECAM
Recuerda que este formato de vídeo se utilizaba no solo en Francia, sino
también en muchos países orientales como Rusia, China, Pakistán, y algunos
otros.
C O NT I NU A R
Este vídeo explica cuales son las señales de vídeo para televisión más utilizadas en las
industrias del cine y de producción de vídeo. Es muy importante poder diferenciar las
señales NTSC, PAL y SECAM, saber que frecuencia en fotogramas por segundo usan y que
hacer cuando tenemos que convertir un vídeo entre algunas de ellas. Seguro que te
aporta una información realmente valiosa, ¿te la vas a perder? ¿No? ¡Pues dale al play!

¿Qué son las señales NTSC, PAL & SECAM para


los productores de vídeo y cine?
Fuente de vídeo: https://www.youtube.com/watch?v=HahRZl2n4bE
C O NT I NU A R
Autoevaluación
Pregunta
01/03
¿Cuál es el sistema que tiene 30 fotogramas por segundo?
NTSC.
PAL.
SECAM.
Ninguno de ellos.
Pregunta
02/03
¿Cuál es el sistema que tiene 25 fotogramas por segundo?
PAL.
SECAM.
Ambos.
Ninguno de ellos.
Pregunta
03/03
¿Cuál es el sistema empleado en Francia?
NTSC.
PAL.
SECAM.
Ninguno de ellos.
En la siguiente imagen puedes apreciar la distribución de los sistemas de televisión
analógica en el mundo. Como puedes apreciar el sistema NTSC se emplea en América del
Norte, América Central, buena parte de América del Sur y Japón, entre otros. El sistema
PAL, que proviene del NTSC, se usa en Europa y algunos países de Sudamérica, África, Asia
y Oceanía. Y por último, el sistema SECAM se emplea en Francia, algunos países de África y
del este europeo.
https://es.wikipedia.org/wiki/NTSC#/media/Archivo:NTSC-PAL-SECAM.svg

Distribución de los sistemas de televisión


analógica en el mundo
Recuerda que este formato de vídeo se utilizaba no solo en Francia, sino
también en muchos países orientales como Rusia, China, Pakistán, y algunos
otros.
C O NT I NU A R
En la siguiente tabla puedes apreciar una comparativa entre los estándares de televisión
analógica PAL, NTSC y SECAM con algunas de sus distintas versiones. Para establecer tal
comparación se valoran sus líneas/campos, su frecuencia horizontal, su frecuencia vertical,
el ancho de banda de vídeo y la portadora de sonido.
Después de analizar la tabla estás de acuerdo con la afirmación de que el sistema PAL es
superior al NTSC?
C O NT I NU A R
Comparativa entre PAL, NTSC y SECAM
En Europa, la Comisión Europea propuso mayo de 2005 como fecha recomendada para el
apagón digital y el año 2012 como fecha límite para que todos los países completaran la
transición al sistema digital. Al completarse el apagón analógico, se requería disponer de
un televisor con un sintonizador digital o utilizar un sintonizador TDT externo para
procesar la señal digital y enviarla a un televisor sin sintonizador digital. De esta manera
era posible que los televisores analógicos pudieran sintonizar y ver la transmisión en la
pantalla. Además, es necesario disponer de una antena aérea que sintonice las
frecuencias digitales y las entregue al sistema, ya que las antenas de TV anteriores no
eran capaces de captar la frecuencia de televisión digital.

Apagón analógico
¿Sabías que a lo largo de aquel año de 2012 hubo quien comparó todo ese
complejo despliegue técnico y económico de la televisión digital terrestre
(TDT) con el esfuerzo realizado para la implantación del euro?
C O NT I NU A R
La emisión en digital, a partir del año 2012 en que la Comisión Europea puso como fecha
límite para realizar la transición digital, alcanzó una cobertura del 98,7% de la población
pero era necesario que los usuarios dispusieran del equipamiento necesario para ello.
Con este objetivo se realizó una millonaria campaña publicitaria financiada por Industria
bajo el lema "Que no te pille el toro" a medida que se acercaba el fin de las emisiones
analógicas. Se cifró en aproximadamente 12.000 millones de euros las ventas registradas
por el sector de la electrónica de consumo, cuya cantidad en su mayoría corrió a cargo de
los propios usuarios.

Consecuencias del apagón analógico


La TDT ha hecho posible una mejor calidad de imagen y sonido y ha incrementado
la oferta de canales. Permite un mejor aprovechamiento del espacio
radioeléctrico ya que la televisión liberará frecuencias que podrían ser utilizadas para
otros servicios (telefonía móvil, radiodifusión, televisión, redes wifi, comunicaciones por
satélite, etc).
C O NT I NU A R
El aprovechamiento del espacio radioeléctrico se logró porque el espacio
que ocupa un canal analógico convencional puede ser utilizado hasta por
cuatro canales digitales gracias al sistema que emplea y que comprime las
señales.
Los sistemas modernos de televisión en alta definición en la actualidad pueden ser
aprovechados al máximo con los últimos modelos de televisores. Los televisores actuales
permiten poder emplear óptimamente resoluciones muy superiores, desde los primeros
modelos HD Ready, hasta los modelos Full HD con una resolución de 1920 x 1080 píxeles o
los 4K que ofrecen una resolución de 3.840 x 2.160 píxeles.
Además, todos estos modelos permiten frecuencias tanto a 50 como 60 hercios. Incluso
algunos modelos permiten trabajar a 24 frames por segundo, para obtener un efecto
similar al que encuentras en el cine. En estos casos, el problema suele ser de la persona
usuaria, ya que puede encontrarse con imágenes que presenten algunos defectos, como el
del efecto blur.

La llegada del HD al televisor


Para solucionar problemas como el efecto blur, se puede usar la tasa alta de
fotogramas (High Frame Rate Video Playback, HFR) que compensa ese
efecto borroso que puedes apreciar al usar los 24 fps de cine.
C O NT I NU A R
El uso de los 24 fps no es infrecuente en el sistema HD, que, de hecho, permite jugar con
frecuencias que van desde los 48 frames por segundos hasta los 60, 100 o, incluso, hasta
los 120 fps. Esta gama genera efectos de realismo y tremendas mejoras en el movimiento
de las grabaciones nunca vistas hasta ahora. Esto puede provocar que algunos escenarios
o personajes puedan incluso a aparentar irreales o demasiado artificiosos.
Un ejemplo es la película Billy Lynn’s Long Halftime Walk en Blu-ray UHD, que fue rodada a
120 fps en 4K. Aunque este caso se trata de un formato físico, lo cierto es que ya hay
mercados que están jugando con este nuevo formato, como es el caso de los Estados
Unidos.
Posibilidades del HD
Esta experimentación con las posibilidades que ofrecen los nuevos
estándares que se está llevando a cabo en los Estado Unidos se observa en
el uso del estándar ATSC 3.0 (Advanced Television Systems Committee 3.0)
en las retransmisiones televisivas. Esto permite que las cadenas de
televisión digital terrestre y por cable puedan hacer uso de emisiones en
UHD, con HFR, sonido multicanal y una tasa de frames por segundo de 60 fps
o más.
C O NT I NU A R
C O NT I NU A R
Esta experimentación con las posibilidades que ofrecen los nuevos
estándares que se está llevando a cabo en los Estado Unidos se observa en
el uso del estándar ATSC 3.0 (Advanced Television Systems Committee 3.0)
en las retransmisiones televisivas. Esto permite que las cadenas de
televisión digital terrestre y por cable puedan hacer uso de emisiones en
UHD, con HFR, sonido multicanal y una tasa de frames por segundo de 60 fps
o más.
Hoy en día, PAL, NTSC y SECAM han sido sustituidos por los nuevos estándares digitales:
DVB-T, ATSC, ISDB-T y DTMB. Todos ellos tienen en común que están basados en el uso
de la corriente de transporte (Transport Stream, TS), que es un protocolo de
comunicación para audio, vídeo y datos especificado en los estándares de MPEG-2.
Las diferencias entre estos estándares se basan en el modo de conversión que
transforma el TS en una señal de radiodifusión, en el formato de codificación y el de
formato de audio.
Fíjate en las características de cada uno de los sistemas de TV digital.
C O NT I NU A R
Los sistemas de TV digital
En la siguiente imagen puede apreciarse la distribución de los sistemas de televisión
digital en el mundo. Se aprecia que DVB-T es la más extendida en todo el mundo. ATSC es
empleada en los Estados Unidos, ISDB-T se usa en Japón y casi la totalidad de Sudamérica,
mientras que DTMB se emplea en China y Cuba.
https://es.wikipedia.org/wiki/ISDBT#/
media/Archivo:Digital_terrestrial_television_standards.svg
C O NT I NU A R
Distribución de los sistemas de televisión
digital en el mundo
Evolución del estado de las televisiones
digitales en el mundo
Existe un sitio web que almacena todo el proceso de adaptación a los sistemas de televisión
digital, de modo que han mantenido en archivo las decisiones de cada uno de los países y las
pruebas y elecciones realizadas por ellos. Es muy ilustrativo poder ir ojeando este proceso sobre
un mapamundi en alta resolución que indica cada uno de los sistemas (DVB-T, ATSC, ISDB-T o
DTMB) escogidos.
http://es.dtvstatus.net/ATSC_DTMB_DVB-T_ISDB-T_es_archivo201601.html
De este modo, a través de esta herramienta puedes saber, además del sistema digital
empleado, si ya está puesto en práctica, si se han decidido por alguno pero aún no está
puesto en práctica o si el estándar está en periodo de prueba. Además, claro está, de
aquellos países que aún no han adoptado ninguna decisión.
C O NT I NU A R
Recapitulación
Hasta este momento has aprendido que existen tres estándares televisivos a nivel
mundial, el NTFS, PAL y SECAM. Las diferencias básicas entre ellos son la frecuencia
de transmisión de los fotogramas y su resolución. Cada país tiene uno de estos tres
sistemas de transmisión televisiva.
No solo eso, sino que además conoces ahora que absolutamente todos los aparatos que
uses, ya sean videocámaras o televisiones, deberán ser acordes al sistema de
transmisión estándar propio de cada país.
Conoces también ahora también que el sistema PAL es el estándar para la televisión
analógica empleado en Europa, Australia, China y Suramérica.
Además aprendiste que NTSC toma su nombre de las siglas del Comité Nacional de
Sistema de Televisión (National Television System Committee) y es el sistema de
televisión analógico que se usa en América del Norte, América Central, gran parte de
América del Sur y Japón entre otros.
Supiste, además, que el nombre del sistema SECAM proviene de las siglas de “Séquentiel
Couleur avec Mémoire”, que del francés se traduciría en color secuencial con memoria.
También sabes ahora que en Europa, la Comisión Europea propuso mayo de 2005 como
fecha recomendada para el apagón digital y el año 2012 como fecha límite para todos los
países.
Para finalizar, aprendiste que hoy en día, PAL, NTSC y SECAM han sido sustituidos por los
nuevos estándares digitales: DVB-T, ATSC, ISDB-T y DTMB.
CONT I NU A R
Autoevaluación
Pregunta
01/03
¿Qué sistema analógico es usado por la mayoría de países de América, Japón y
el sureste
asiático?
NTSC.
PAL.
SECAM.
Ninguno de ellos.
Pregunta
02/03
¿Cuál es el sistema que tiene 25 fotogramas por segundo?
NTSC.
PAL.
SECAM.
Ninguno de ellos.
Pregunta
03/03
¿Cuál fue la fecha límite para todos los países europeos para el apagón digital?
2000.
2007.
2012.
2019.
En los inicios del vídeo, no existían los actuales aparatos magnetoscopios. Realmente no
existía la necesidad de conservar el material televisado pero, con el tiempo, se empezó a
desarrollar una serie de sistemas de grabación.
En las siguientes pantallas podrás estudiar los diversos aspectos relacionados con los
formatos estándares de vídeo analógico orientados al almacenamiento.
En los sistemas de grabación analógica, la información se graba sobre el soporte al pasar
por delante del electroimán. El soporte podrá ser bien un carrete de hilo, una cinta de
papel o una cinta magnética. El electroimán actúa reorientando las partículas del material
ferromagnético que recubren el soporte seleccionado.

17. Formatos estándares analógicos: VHS, S-


VHS,
Vídeo8
Los primeros estándares analógicos realizaban la grabación en cintas magnéticas y entre
los más usados destacaban el VHS, S-VHS y el Vídeo8. Desde el mismo momento en el que
se empezó a comercializar el sistema de grabación, se generó la necesidad de
almacenamiento de los vídeos. A continuación puedes conocer las características
principales de los tres formatos principales:
C O NT I NU A R
Al principio, para el almacenamiento de los vídeos, se empleó el soporte cinematográfico,
pero este contaba con muchos inconvenientes. Se buscó, por lo tanto, un sustituto que
estuviera acorde con las características de la imagen electrónica. Se acabó escogiendo la
cinta magnética ya que ofrecía muchas posibilidades como método de grabación de la
imagen por métodos similares a los usados para el sonido.
La Ampex Corporation presentó en 1956 un aparato capaz de grabar la imagen y el
sonido de una emisión de televisión. En su primera versión, las cabezas del
magnetoscopio giraban a 255 r.p.s., produciendo 25 imágenes por segundo y podía grabar
programas de una hora requiriendo para ello 1.500 metros de cinta magnética.

Los orígenes del vídeo


¿Sabes lo que es un camascopio? Es una cámara de vídeo que lleva
integrada en su estructura un magnetoscopio para poder conservar la señal
de vídeo.
C O NT I NU A R
El cabezal de vídeo de los magnetoscopios originales cuentan con un número variable de
cabezales, generalmente 2 o 4, que se ubican en la hendidura de un tambor, dentro del
cual giran. Este tambor es rodeado por la cinta que sale del casete y es transportada por
el mecanismo. Así, durante su rotación, las cabezas de vídeo graban en la emulsión
ferromagnética de la cinta, una señal que ordena las moléculas de la emulsión en ese
punto específico de acuerdo a su especial modulación. Estas pistas invisibles son
grabadas de manera transversal a la longitud de la cinta y paralelas entre si. Este sistema
se denomina helicoidal y se ha estandarizado en todos los formatos. Fue adoptado en los
años ochenta para sustituir al primitivo método de registro longitudinal que consumía
mucha cinta.

Sistema de grabación analógico


C O NT I NU A R
Ahora que ya conoces el sistema de grabación de las imágenes, ¿cómo se
grababa el sonido en los inicios del vídeo? La grabación de las cabezas de
audio se llevaba a cabo en otro cabezal, donde las cabezas están fijas y las
señales se imprimen en pistas paralelas al borde de la cinta. También se
graban en la cinta pistas para las señales de sincronismo que regulan la
precisión y velocidad del circular de la cinta por el camascopio.
Betamax fue creado por Sony en 1975. Hoy en día es un formato de vídeo analógico
descatalogado. Su propósito fue ser la alternativa en vídeo al clásico casete compacto de
audio de Philips. Sony lanzó al mercado su sistema de cinta de vídeo en color que permitía
que cualquier usuario pudiera grabar programas de televisión, mientras veía otro canal
distinto al mismo tiempo. El tamaño de los videocasetes era algo más pequeño que el de
su competencia VHS, de JVC.
El formato Betamax ofrecía una mayor calidad de imagen, ya que ofrecía unas 250
líneas de resolución horizontal y también una mayor calidad de sonido. Pero sus cintas
no tenían una duración tan larga como el modelo de cinta de VHS. Aunque esto sería
algo que fue corrigiendo progresivamente e incluso llegó a existir un modelo de cinta
Betamax L-1000, que ofrecía 2 horas en Beta I, 4 horas en Beta II y 6 horas en Beta III.

Betamax
C O NT I NU A R
Betamax es un formato de vídeo analógico diseñado inicialmente para la
norma estadounidense NTSC y más tarde adaptado para la europea PAL.
El sistema Betacam disponía de una cinta magnética de 150 m de longitud con capacidad
para una hora de duración, alojada dentro de un cartucho de 16 × 9,6 × 2,5 cm en dos
rollos. Para poder grabarla y leerla, la videograbadora extrae del cartucho un tramo de
cinta y la enhebra alrededor de tres cabezas. De esas tres cabezas, una es para el sonido
y el control; otra en forma de cilindro de 7,5 cm de diámetro, también llamada tambor,
para el vídeo; y por último una para el borrado de la cinta.

Betacam
Betacam es una familia de formatos de videocintas profesionales de 12,7 mm creada por
Sony en 1982. Todos los formatos emplean el mismo tipo de cinta magnética, algo
característico de Betacam, con un ancho de cinta y una manera de enhebrado igual en
cada una de sus cintas. Ha existido una gran variedad de formatos de videocasetes que
han hecho de Betacam un sistema muy compatible y con una gran evolución durante
su vida. Los casetes tenían dos tamaños distintos, una versión pequeña (small, S) y otra
grande (large, L). Las videocámaras Betacam solo eran compatibles con el formato
pequeño, mientras que los magnetoscopios eran compatibles con ambos.
C O NT I NU A R
El color de los casetes y sus estuches del sistema Betacam era distinto en
función del formato específico que tuvieran. Además, incorporaba una clave
mecánica mediante la cual el magnetoscopio identificaba con facilidad de
qué tipo era la cinta, pequeña o grande, que se le había introducido.
El formato de grabación VHS toma su nombre de las siglas en inglés de Video Home
System, que traducido quiere decir “sistema de vídeo casero”. Y eso fue lo que consiguió
ser, un popular sistema doméstico de grabación y reproducción analógica de vídeo.
VHS fue desarrollado durante la década de 1970 por JVC y lanzado al mercado en 1976 por
la propia JVC y su empresa matriz Panasonic. Este formato comenzó una dura batalla con
el otro único formato de grabación existente en el mercado, el Betamax de Sony, que fue
fabricado bajo licencia de Sanyo a finales de 1975. Fue una gran guerra entre estos dos
populares formatos de la que el VHS saldría victorioso.

VHS
C O NT I NU A R
La cinta VHS es muy parecida físicamente al propio sistema de audio con
casetes pero, a diferencia de este, tiene una cinta magnética mucho más
ancha, de media pulgada y la caja o soporte de plástico que la contiene, el
exterior del propio videocasete, es mucho más grande.
La composición de un videocasete VHS comprende dos carretes internos y el recorrido de
la cinta. Esto es algo que se emplea en cualquier casete, ya sea de audio, de vídeo o de
datos. La apertura del videocasete por la cual accede la videograbadora a la cinta está
protegida por una tapa. Esta tapa se abrirá automáticamente con un sencillo mecanismo
al introducir el videocasete en la videograbadora VHS.
Las dimensiones del casete son 187 mm de ancho, 103 mm de profundidad y 25 mm de
grosor, con un ancho de cinta de 12.7 mm, tanto para VHS como para S-VHS. Las cintas VHS

Composición de un videocasete VHS


más antiguas son susceptibles a la pérdida de señal debido al paso del tiempo. De todas
formas, este formato se considera de bajo riesgo de preservación, ya que los medios y el
equipo necesario todavía están disponibles actualmente en el mercado.
C O NT I NU A R
Tras salir victorioso de la guerra de formatos de vídeo con Betamax, este
popular formato tendría una exitosa y larga vida, siendo el sistema de
reproducción y grabación más utilizado desde su entrada en el mercado allá
por el año 1976 hasta su progresiva desaparición con la llegada del DVD en
el 2002.
Este vídeo explica lo que se conoció como guerra de formatos. Te comenta las ventajas y
desventajas de ambos y por que ganó el VHS al Betamax.
Además, podrás repasar el estudio de estos dos estándares de grabación analógica.
En la pantalla siguiente deberás responder a una serie de preguntas sobre el contenido
del vídeo, así que no dejes de visualizarlo.

Betamax VS VHS
Fuente de vídeo: https://www.youtube.com/watch?v=qaTFmyAhF9Y
C O NT I NU A R
Autoevaluación
Pregunta
01/03
¿Cuántos vídeos se vendieron en el mundo en 1990?
1 millón de vídeos.
10 millones de vídeos.
100 millones de vídeos.
200 millones de vídeos.
Pregunta
02/03
Los formatos de vídeo Beta y VHS eran compatibles entre sí.
Verdadero.
Falso.
Pregunta
03/03
¿A qué duración estaban limitadas las cintas de los primeros Betamax?
30 minutos.
60 minutos.
90 minutos.
120 minutos.
El formato pionero de Sony, Betamax, disfrutó del monopolio del mercado de la
videograbación tan solo durante un año. Tras pasar el año, JVC y Panasonic lanzarían un
duro rival, el formato VHS, y la guerra de formatos estaba servida. Uno de los graves
problemas que presentaba Betamax es que, al principio, tan solo ofrecía una hora de
grabación, en cambio VHS daba el doble. Esa diferencia sería crucial y haría que se
iniciara una guerra de precios por dominar el estándar.
Por si fuera poco, en plena guerra, Sony fue acusado por Universal Studios y Disney de
infringir el derecho de copia de los programas de televisión y de las películas. Esto ayudó
también a que Sony comenzara a perder cuota de mercado. La cuota de Betamax a
principios de los 80 era cercana al 25 %, por lo que los distribuidores de películas
pregrabadas comenzaron a hacer ajustes en sus líneas de productos.

La guerra de formatos: Betamax vs. VHS


C O NT I NU A R
Betamax y VHS eran incompatibles. Incluso, la calidad de vídeo y sonido
ofrecida por Betamax era mayor que la de VHS. Entonces, ¿por qué motivo
acabó perdiendo una batalla en la que salía con ventaja inicial? Pasa a la
siguiente pantalla para descubrirlo.
Como has visto, Sony tenía un sistema de vídeo de mejor calidad y además, lo sacó al
mercado un año antes que su rival JVC. Entonces, ¿qué pasó para que el público eligiera
finalmente un sistema que a priori ofrecía menos calidad por el mismo precio?
El motivo principal fue que Sony pedía altos cánones por el uso de su estándar a los
fabricantes, mientras que JVC, en un gesto estratégico de gran importancia, sacrificó esas
ganancias y permitió el uso de su estándar.
Esta jugada consiguió que en 1984 tan solo doce compañías apoyaran Betamax, mientras
que eran cuarenta los fabricantes que desarrollaban reproductores VHS. Esto se tradujo
en unas ventas de 2.300.000 unidades de vídeos Betamax, mientras que los vídeos con el
sistema VHS triplicaban esa cantidad.
Esta jugada implicó el principio del fin de la guerra. En 1988 VHS dominaba ya el mercado
con el 95% de cuota. Para entonces a Sony solo le quedó admitir su derrota e incluso,
pasar a producir una línea de grabadoras VHS.
Desde ahí y hasta la llegada del DVD, allá por el 2002, el VHS copó el mercado de la
reproducción y grabación de vídeo.

Gratuidad del estándar


C O NT I NU A R
¿Te suena el caso de alguna otra empresa que “regalara” su sistema a los
fabricantes? Piensa en el caso del sistema para smartphones desarrollado
por Google, Android. Cuando estos dispositivos se empezaron a popularizar
no dudaron el liberar el sistema operativo, logrando acaparar con ello el
mercado.
El formato Súper VHS o S-VHS es una versión mejorada del estándar VHS para
grabadores de videocasetes masivos. Fue introducido en 1987 en Japón y poco después se
extendió en Norteamérica, Asia y algunos países europeos.
Entre otras cosas, el formato S-VHS mejora respecto a su antecesor VHS la resolución de la
luminancia aumentando la portadora de luminancia desde los 3 MHz a los 5.4 MHz. Esto
supone una mejora del 60% en el detalle de la imagen y una resolución horizontal de 420
líneas por altura de imagen frente a las tan solo 240 líneas con las que cuenta la versión
VHS convencional. Esa mayor resolución horizontal produce un mayor detalle en la
imagen que captura, mejor incluso que la televisión NTSC por radiodifusión o cable
analógico, la cual es de alrededor de 330 líneas. Al grabar programas de televisión con el
formato S-VHS, se ve claramente una notable mejora.
Además, la pobre resolución en color fue una deficiencia compartida por todos los
contemporáneos al S-VHS, que se encontraban limitados a los 0.4 MHz o 30 líneas de
resolución.

S-VHS
La mayoría de las videograbadoras S-VHS son retrocompatibles con las cintas VHS, es
decir, los equipos S-VHS funcionan perfectamente con cintas VHS tradicionales de
reproducción y grabación. Los equipos VHS más antiguos no son capaces de ver
grabaciones S-VHS, en cambio, muchas de las nuevas videograbadoras VHS permiten leer,
aunque no realizar grabaciones S-VHS, aunque con niveles de calidad VHS. Además, para
un modo de grabación, las videograbadoras VCR S-VHS requieren cintas S-VHS, las cuales
poseen una formulación de óxido diferente.
C O NT I NU A R
El Video8 es un nuevo tipo de cinta creado por Sony en 1985 para intentar volver a
presentar batalla al VHS, que previamente había perdido con las cintas de Betamax.
En 1984, Sony ya empezaba a ser consciente de que había perdido la guerra de formatos
de Betamax frente al VHS. Es por ello que decide crear un nuevo formato para las cintas
de vídeo, pretendiendo una mejora de calidad en el vídeo y el audio, además de dotarles
de una mayor duración. De modo que se presenta en 1985 Video8, una cinta de 8 mm y
una gran variedad de videocámaras de mano y profesionales, tanto para la televisión,
como para el consumidor habitual.
En 1986, Video8 pasa a ser un formato usado como medio de almacenaje en vídeo en
América del Norte en su versión de NTSC y en parte de Europa, Rusia y América del Sur en
su versión PAL/SECAM.
El tipo de cinta de Video8 tiene un tamaño similar al de un audiocasete, aunque un
poco más ancho. El ancho de la cinta es de 8 mm con un sistema de exploración
helicoidal en FM. El vídeo ofrece una resolución horizontal de 240 líneas por altura de
imagen, como el formato VHS.
En 1989, Sony deja de comercializar su formato Betamax y comienza a distribuir su línea
de cámaras Handycam, hechas con el propósito de grabar con un formato de gran
calidad. Para ello, en este mismo año, Sony lanza sus vídeos de alta calidad Sony Hi8

Vídeo8
mejorando incluso la calidad del Video8, ya que elevaría dicha resolución a las 400 líneas
por altura de imagen.
C O NT I NU A R
Ya viste en esta misma unidad didáctica cómo pasar tus vídeos VHS a formato digital. En
esta ocasión podrás aprender a traspasar tus cintas Vídeo8 o HI8 a tu computadora.
De ese modo no solo alargarás la vida de tus vídeos, sino que también podrás subirlos a la
nube o editarlos.
No dejes de darle al play y estar atento porque en la siguiente pantalla tendrás que
responder a algunas preguntas sobre este contenido.

Cómo pasar Vídeo8 Handycam a digital


Fuente de vídeo: https://www.youtube.com/watch?v=2f6GXl__6SU
C O NT I NU A R
Autoevaluación
Pregunta
01/03
Para pasar un vídeo de una cinta Vídeo8 a tu ordenador necesitarás una
grabadora de
vídeo.
Verdadero.
Falso.
Pregunta
02/03
¿A qué velocidad va la grabación de la cinta Vídeo8 a tu ordenador?
En tiempo real.
Como mucho a 2x.
Puedes configurarla a 2x, 4x u 8x.
Ninguna de las anteriores.
Pregunta
03/03
¿Cómo se llama normalmente al puerto IEEE 1394?
USB.
FireWire.
HDMI.
Ninguna de las anteriores.
El formato de vídeo de 8 mm agrupa informalmente a tres formatos de videocasetes
relacionados con los sistemas de televisión NTSC y PAL/SECAM. Estos son el formato
original Video8 para la grabación analógica y su sucesor mejorado Hi8 para el vídeo
analógico y el audio analógico, aunque con características de audio digital. Más tarde
surgiría un formato de grabación, en este caso digital, que sería el Digital8.
Los clientes del formato de 8 mm eran principalmente usuarios aficionados de
videocámaras aficionadas, pero también se le dio un uso importante en el campo de la
producción profesional de televisión.
Las cintas Hi8 fueron creadas por Sony a principio de los 90 como versión mejorada de las
cintas Video8 predecesoras. Son magnéticas y muy parecidas a la de S-VHS en calidad,
aunque algo más pequeñas en tamaño, lo que las hacía más manejables y portables. Su
nombre proviene de "High-Band 8 mm", es decir, banda ancha de 8 mm.
Ofrece características muy superiores a las cintas Vídeo8, como su banda para
audio digital PCM y la mejora de líneas de resolución al momento de la grabación que
pasa de las 200 que tenía Vídeo8 a más del doble, a 420 líneas. Las cámaras Hi8 eran algo
más caras que las Vídeo8 regulares, pero merecía la pena si te fijas en sus mejoras
respecto a la calidad de vídeo y audio.
Es posible usar algunas cintas de vídeo Hi8 de 120 minutos en cámaras Digital8 aunque
perdiendo duración, tan solo podrían emplearse a 60 minutos ya que el nivel de calidad y

Hi8
almacenaje en digital es mayor.
C O NT I NU A R
El caso Betamax
El lanzamiento del sistema de vídeo Betamax, supuso una seria amenaza contra la industria del
cine. Al menos eso entendieron Universal y Disney, que demandaron a Sony porque su sistema, si
era usado con fines poco honestos, podría abrir las puertas a la piratería. Fue un largo proceso
judicial, que acabaría ganando Sony. Ese temor, que llevó a la industria del cine a proteger sus
contenidos, no tendría fundamento, porque es evidente que no es el reproductor de vídeo quien
acabará con el cine.
Realmente Sony revolucionó el mercado audiovisual en 1975, con el famoso formato Betamax
para su sistema de reproducción y grabación de vídeo. Esto permitía a cualquier usuario grabar
contenidos de la televisión y verlos con posterioridad. O incluso hacerlo mientras de manera
simultánea veía otro canal de televisión. Esto supuso una grave amenaza para el modelo de la
industria de los contenidos.
Universal Studios y Disney vieron en el reproductor de vídeo un enemigo a batir, ya que suponía
una puerta abierta a la piratería al permitir a los usuarios grabar cualquier contenido que se
emitiera en televisión infringiendo los derechos de emisión de películas y contenidos en la
televisión. La demanda fue puesta en 1976 y dos años después, el Tribunal del Distrito de
C O NT I NU A R
California falló a favor de Sony considerando que no existía infracción en las grabaciones de uso
doméstico ya que la fuente, la televisión, era de acceso público.
Los demandantes apelaron la sentencia y consiguieron ganar esta nueva batalla al reconocerse
que el Betamax se había diseñado para grabar y era responsable en parte de las violaciones de
copyright que se pudieran ocasionar. Pero finalmente, acabaría ganando la guerra legal Sony en
1984, en el Tribunal Supremo de Estados Unidos, que indicó que aunque el grabador de vídeo
pudiese usarse para infringir los derechos de autor, el uso principal del dispositivo era legítimo. Ni
Universal ni Disney pudieron demostrar que el uso principal del vídeo fuera el de la piratería.
¿Encuentras algún paralelismo entre esta polémica y alguna otra más actual? Seguro que alguna
te viene a la cabeza.

Recapitulación
Hasta este momento has aprendido que en los sistemas de grabación analógica la
información se graba sobre el soporte al pasar por delante del electroimán. El
soporte podrá ser bien un carrete de hilo, una cinta de papel o una cinta
magnética.
No solo eso, sino que además conoces ahora que al pasar la cámara de vídeo a integrar
en su estructura un magnetoscopio para poder conservar la señal de vídeo, pasa
a denominarse camascopio.
Conoces también ahora que Betamax fue creado por Sony en 1975 y que hoy en día es un
formato de vídeo analógico descatalogado. Su propósito fue ser la alternativa en vídeo al
clásico casete compacto de audio de Philips.
Además, aprendiste que el formato de grabación VHS toma su nombre de las siglas en inglés
de Video Home System que traducido quiere decir sistema de vídeo casero. Y eso fue lo
que consiguió ser, un popular sistema doméstico de grabación y reproducción
analógica de vídeo.
Supiste además que el formato Súper VHS o S-VHS es una versión mejorada del
estándar VHS para grabadores de videocasetes masivos.
Para finalizar, aprendiste que el Video8 es un nuevo tipo de cinta creado por Sony en 1985
para volver a presentar batalla al VHS, que previamente había perdido con las cintas de
Betamax.
CONT I NU A R
Autoevaluación
Pregunta
01/03
¿Qué formato se creó en 1987 en Japón?
Betamax.
VHS.
S-VHS.
Ninguno de los anteriores.
Pregunta
02/03
¿Qué formato fue desarrollado durante la década de 1970 por JVC y lanzado al
mercado
en 1976?
Betamax.
VHS.
S-VHS.
Ninguno de los anteriores.
Pregunta
03/03
¿Quién ganó en la guerra de los formatos de vídeo?
Betamax.
VHS.
S-VHS.
Ninguno de los anteriores.
El almacenamiento en cinta magnética tuvo su momento, pero pronto empezaron a
crearse necesidades de más calidad y mayor almacenamiento. Era evidente que
había que optar por otro tipo de almacenamiento y fue cuando surgieron los formatos
digitales.
Sigue avanzando en el curso si quieres aprender diferentes aspectos relacionados con los
formatos estándares digitales de reproducción. Conocerás varios de ellos, como
el Betacam Digital, Digital–S, DV, DVD, Blu-ray.
Si hablas de formatos de vídeo puedes referirte a varios conceptos. Generalmente, se
suele referir a los formatos físicos en los que puedes acceder a una película, serie o vídeo
en general. Actualmente, lo más habitual es que te encuentres con formatos como el DVD

18. Formatos estándares digitales de


reproducción: DV, miniDV, DVD, Blu-Ray
y el Blu-ray, aunque hay muchos más formatos estándares digitales de reproducción que
debes conocer.
Además, al ser formatos digitales presentan una serie de ventajas orientadas a su
codificación. Tal código determina la calidad de la imagen, la calidad del sonido, si
permite incluir o no subtítulos y, principalmente, establece una relación entre calidad y
tamaño del archivo.
Aunque hoy en día este tipo de formatos físicos de contenido audiovisual digital parece
estar yendo a menos, principalmente por la competencia que tienen en las plataformas
de streaming y de los sistemas de televisión por Internet.
C O NT I NU A R
Si quieres saber más sobre las plataformas de streaming, te recomiendo leer
el siguiente artículo: 28 plataformas de streaming y suscripción para
sacarles partido en verano. Y es que ya existen plataformas de streaming
para películas y series, para música, para videojuegos. ¿Aún piensas que es
necesario tenerlos en formato físico?
Betacam tras sacar sus versiones analógicas tradicionales y la SP, pasó a sacar las
siguientes versiones digitales que se muestran a continuación:

Las versiones digitales de Betacam


Betacam Digital –
El primero de los formatos digitales de Betacam se lanzó en 1993 y fue el Betacam Digital, al
que también se le conocía como Digi Beta y DBC. Este sistema digital venía a sustituir a los
formatos analógicos Betacam y Betacam SP. A pesar de ello los primeros formatos se estuvieron
empleando hasta tarde por cuestiones prácticas y económicas; por ejemplo, en 2004 aún se
usaba Beta SP en Televisión Española y en Telecinco siguió empleándose hasta 2009.
Betacam Digital supuso una gran apuesta económica de Sony para el formato digital, frente al
D1, ofreciendo alta calidad a un precio aceptable. Las cintas en tamaño S de Betacam
Digital tenían una duración de 40 minutos, mientras que las de tamaño L tenían 124
minutos.
Betacam Digital tenía una profundidad de color de 10 bits y su patrón de muestreo era 4:2:2
en PAL (720x576) y NTSC (720x486), obteniendo con ello un resultado de un bitrate de 90 Mb/s.
Respecto al sonido, proporcionaba 4 canales de audio PCM a 48 kHz y 20 bits. Además agregaba
dos pistas longitudinales para control track y código de tiempo.
Betacam Digital es considerado el mejor formato de vídeo digital de resolución estándar. Es
más caro que otros como el DVCAM y el DVCPRO, pero proporciona mayor calidad. El DVCPRO
50 de Panasonic ofrece un formato algo parecido a él.

Betacam SX –
Más tarde, en 1996, Sony crearía una alternativa de un precio más bajo a Betacam Digital, fue el
formato digital Betacam SX. Este formato comprime la señal por componentes usando MPEG-2
4:2:2 Profile@ML, con 4 canales de audio PCM a 48 kHz y 16 bits. Betacam SX es compatible
con cintas de Betacam SP. Mientras que su tamaño S tiene una duración de 64 minutos, el
tamaño L ofrece 194 minutos.

MPEG IMX –
Continuando con la evolución de las versiones de Betacam, surge MPEG IMX en 2001. Usa una
compresión MPEG al igual que su antecesor Betacam SX, pero con un bitrate superior.
Comparte la norma CCIR 601, con hasta ocho canales de audio y una pista de código de
tiempo. No ofrece una pista analógica para el control track como el Betacam Digital, aunque
puede usar la pista 7 de audio para ello.
Se trata de un sistema de vídeo por componentes comprimido con el MPEG-2 4:2:2P@ML y
permite tres niveles de bitrate distintos: 30 Mb/s, 40 Mb/s y 50 Mb/s. Sus cintas de tamaño
pequeño ofrecen una duración de 60 minutos mientras que las grandes ofrecen 184
minutos.

HDCAM –
En paralelo, Sony crea algunas versiones de la familia Betacam para una alta definición (HD) y de
ese modo se crea en 1997, HDCAM. Esta versión mantiene la misma cinta de media pulgada y
emplea una frecuencia de muestreo 4:2:2 y 8 bits de profundidad de color en vídeo por
componentes.
Con este formato pueden alcanzarse resoluciones superiores, a 720 y 1080 líneas. Al estar
mayoritariamente destinado al cine, además de a los habituales 25 y 30 frames por segundo con
muestreo entrelazada (50i, 60i), PAL y NTSC respectivamente, graba a una velocidad de 24
fps. Además del muestreo entrelazado puede usar el muestreo progresivo. Su bitrate de vídeo
es 144 Mb/s y respecto al audio, graba 4 canales de audio AES/EBU a 48 kHz y 20 bits.

MPEG IMX –
HDCAM SR –
En 2003, Sony mejora aún más el formato HDCAM, y lanza el HDCAM SR que emplea una cinta
con alta densidad de partículas que permite grabar una señal RGB con muestreo 4:4:4 a un
bitrate de 440 Mb/s. Ahora puede incluso alcanzar una resolución máxima de 1920x1080 y
hasta 12 canales de audio. Utiliza una compresión MPEG-4 Studio Profile de alta calidad que
no emplea grupos de imágenes (GOP), por lo que no da los típicos problemas de MPEG a la hora
de editar, y usa compresión intracuadro en progresivo y compresión intracampo en entrelazado.
Existe un modelo de magnetoscopios HDCAM SR, el HQ, que alcanza los 880 Mb/s. HDCAM SR
sigue permitiendo un 4:2:2 por componentes. Sus cintas de formato S tienen una duración
de 40 minutos y 124 minutos las grandes.
C O NT I NU A R
A continuación podrás saber algo más sobre los distintas versiones digitales de Betacam.
Fíjeta bien en esta tabla donde se establecen comparaciones relativas al sistema
empleado, a su patrón de muestreo, al algoritmo de compresión, su bitrate, su
profundidad de color, su ancho de cinta, los canales de audio y el muestreo de audio. Te
servirá para tomar decisiones respecto a su elección.
C O NT I NU A R
Comparativa de las diversas versiones digitales
de Betacam
Digital-S o D9 es un formato de vídeo digital profesional desarrollado por JVC en 1995.
Entre sus características principales están la grabación en cinta de 1/2", el muestreo 4:2:2,
la compresión de 3.3:1 y el flujo de datos de 50 Mbps.
En un estudio realizado por la EBU y la SMPTE sobre una comparativa sobre los formatos
digitales D9, DVCam, DVCPro25, Betacam Digital y Betacam SX, salió victorioso el formato D9
de JVC. Esto causó un gran impacto en el mercado y hace que Panasonic desarrolle sobre
el formato DVCPro25 una versión muy similar a Digital-S, el DVCPRO 50 con la misma cinta
de 1/4". Sony también crearía su versión similar a Digital-S, la Betacam IMX en cinta de
1/2", que iba a 50Mbps y con un muestreo de 4:2:2.
Este formato se llamó originariamente Digital-S y era un competidor directo de Betacam
Digital de Sony. El SMPTE cambió su nombre a D-9 en 1999. Fue usado en poca medida en
Europa y Asia y tuvo algún uso en los EE. UU.

Digital-S
D-9 usa una cubierta de cinta similar a VHS, aunque físicamente incompatible. El sistema
de grabación es digital y para vídeo emplea la compresión DV a una velocidad de bits de
50 Mbit/s. Graba el vídeo en formato de componente 4:2:2 en una variedad de
resoluciones de definición estándar, con relaciones de aspecto 4:3 o 16:9. El audio se
graba como PCM de 16 bits/48 kHz con hasta cuatro canales separados. La calidad del
vídeo es muy alta, comparable con la Betacam digital.
C O NT I NU A R
Fue creado en 1996 como un estándar internacional según la norma IEC 61834, que
determina tanto el códec a usar como el tipo de la cinta. El Digital Video (DV) es un formato
estándar de vídeo para múltiples usos, ya sea doméstico, industrial o para la
transmisión. Se basa en el algoritmo del transformada discreta del coseno (DCT) y usa
como protocolo de trasmisión de datos el IEEE 1394 o FireWire.
Generalmente graba con cintas de un cuarto de pulgada. Su buena relación
calidad/precio provocó que se convirtiera en el formato predominante en el vídeo
doméstico, como Mini-DV, y que surgieran multitud de distintas versiones

Digital Video
profesionales como DVCAM y DVCPRO. El formato Digital-S está basado en este
estándar, aunque se graba en cintas de media pulgada.
C O NT I NU A R
El DV es un sistema de vídeo digital por componentes que emplea un
esquema de muestreo 4:2:0 en PAL y 4:1:1 en NTSC. La frecuencia de
muestreo de luminancia es 13,5 MHz y las de crominancia 6,75 MHz. El DV
tiene una profundidad de color de 8 bits.
El sistema DV usa el algoritmo DCT para la compresión de vídeo, a través de una
compresión intraframe y una relación 5:1. También se le conoce como DV25 ya que su flujo
de vídeo es de 25 Mbps. Incluyendo el audio, la información de pista y la corrección de

Características de Digital Video


errores, el flujo total es de 29 Mbps. El formato DV graba audio PCM sin compresión.
Contempla dos configuraciones posibles de audio, una de 2 canales de audio a 48 kHz
y 16 bits, y otra de 4 canales a 32 kHz y 12 bits. La calidad de la configuración de 2 canales,
48 kHz y 16 bit es ligeramente superior a la del disco compacto (CD).
La cinta usada para grabar DV posee una anchura de 0,25 pulgadas (6,35 mm). Existen tres
versiones distintas. La cinta Mini-DV es la más popular en el ámbito doméstico. La
rama profesional tiene otras dos variantes, el tamaño M y el tamaño L. Para el formato
Mini-DV hay versiones con distintas duraciones de 30, 60 y 80 minutos.
C O NT I NU A R
La variedad de la duración de las cintas de tamaño M y L para la rama profesional va

desde los 12 hasta los 276 minutos, en función de si se trata de DV, DVCAM,
ProfessionalDV o DVCPRO.
La especificación DV original, conocida como Blue Book, fue estandarizada dentro de la
familia de estándares IEC 61834. En 2003, DV se unió a un formato sucesor, HDV, que
utilizaba el mismo formato de cinta con un códec de vídeo diferente. Algunas cámaras en
ese momento tenían la capacidad de cambiar entre los modos de grabación DV y HDV.
Todos los formatos de vídeo basados en cinta se están volviendo cada vez más obsoletos,
aunque el estándar de codificación DV todavía se usa en cámaras sin cinta. Además,
existen otras versiones de DV que debes conocer. Pulsa en las pestañas para acceder a la
información:
Se entiende como Digital Video Cassette o DVC a la versión genérica del formato, el
propio estándar. Dentro de él, existen dos versiones de dos tamaños distintos: DV y
MiniDV. El formato MiniDV es muy adecuado para las videocámaras, ya que permite que sean
más compactas y ligeras.
Las características generales del DVC son un muestreo de 4:1:1 para el sistema NTSC o de 4:2:0
para el sistema PAL, con una profundidad de color de 8 bits, una compresión 5:1 tipo DCT
intraframe, un flujo de vídeo de 25 Mb/s, dos posibilidades de 2 o 4 canales de audio PCM a 32 o
48 kHz y a 12 o 16 bits.
Todos los fabricantes distribuyen DVC con cinta pequeña Mini-DV, y ese nombre queda
para la versión que se comercializa para su uso doméstico.

Las diversas versiones de DV


DV C DV CA M DV C PR O DV C5 0 DV
La versión de Sony para DVC es la DVCAM. Tiene las características propuestas por el DV,
aunque la versión de Sony tiene un ancho de pista a 15 μm y su velocidad de cinta está
mejorada en un 50 por ciento, lo que mejora la confiabilidad desde el punto de vista mecánico
aunque no aumenta su calidad de imagen. Lo malo de esa mejora es que repercute en el
tiempo de vida y estas cintas duran aproximadamente un tercio que las del formato
original.
El formato DVCAM permite grabar en cintas DVCAM y Mini-DV y reproducir DV y DVCPRO.
DV C DV CA M DV C PR O DV C5 0 DV
La versión desarrollada por Panasonic del DVC es la DVCPRO. Panasonic apostó fuerte por
este formato y se convirtió en un importante referente con sus tres versiones desarrolladas
hasta el año 2006. Empleaba cinta con un ancho de pistas de 18 μm y con otro tipo de emulsión.
También cuenta con una pista longitudinal de audio y de control track para ayudar en
edición. Respecto al audio tan solo permite la opción de 2 pistas a 48 kHz y 16 bits.
DVCPRO o DVCPRO 25 fue el primero de los tres tipos de DVCPRO desarrollados. Entre sus
características principales están tener las pistas más anchas, las cintas de partículas de metal, las
pistas longitudinales y un muestreo de 4:1:1 en PAL y NTSC.
DV C DV CA M DV C PR O DV C5 0 DV
Tras la DVCPRO 25, se desarrolló la DV50, que era un formato de mayor calidad creado por JVC
en cinta de media pulgada llamada D9, también conocida como Digital-S. Tenía un muestreo de
4:2:2 a 50 Mb/s y una compresión de 3,3:1 empleando dos codificadores de DV en paralelo con 4
pistas de audio PCM.
DV C DV CA M DV C PR O DV C5 0 DV
La última de las tres versiones de DVCPRO, fue la DVCPRO HD o DV100 que se trata de una
variación de DVCPRO 50 con resolución en alta definición (HD). También usa un muestreo de
4:2:2, pero, al ser HD, permite resolución 1080 y 720, tanto en progresivo como en entrelazado.
Ofrece una compresión de hasta 6,7:1 lo cual permite un flujo de vídeo de 100 Mb/s. Además,
respecto al sonido, emplea 8 pistas de audio.
DV C DV CA M DV C PR O DV C5 0 DV
C O NT I NU A R
A continuación podrás saber algo más sobre los distintas versiones digitales del formato
DV. Fíjate en esta tabla donde se establecen comparaciones relativas al sistema empleado,
a su frecuencia de muestreo, al algoritmo de compresión, su bitrate, su profundidad de
color, su soporte, su ancho de pistas, los canales de audio y el muestreo de audio. Podrá
servirte de orientación si debes escoger entre los cinco formatos.
C O NT I NU A R
Comparativa de DV: Las versiones DVC de Sony
y las versiones DVCPRO de JVC
El DVD es un tipo de disco óptico para el almacenamiento de datos que surgió en 1995.
Sus siglas se corresponden con Disco Versátil Digital, aunque en sus inicios, la “V” hacía
alusión a “vídeo”, como Disco de Video Digital, ya que fue desarrollado para reemplazar al
formato VHS en la distribución del vídeo doméstico.
Existen diversas versiones de DVD en función de las funcionalidades que permiten
realizar. De ese modo se pueden dividir en:
Estos estándares fueron creados por el Foro DVD, que estaba constituido por importantes
empresas como Hitachi, Panasonic, Mitsubishi, Pioneer, Sony, Thomson, Toshiba o JVC,
entre otras.
Para evitar pagar las licencias de uso al Foro DVD, surge la Alianza DVD+RW, que creó los
estándares DVD+R y DVD+RW. Los discos DVD+R y DVD+RW no forman parte de los
estándares oficiales del Foro DVD, es por ello por lo que no muestran el logo "DVD".

DVD
Para no confundir a quien adquiera un equipo reproductor de DVD, aquellos que son

capaces de soportar ambos formatos suelen estar etiquetados como DVD±R.

C O NT I NU A R
Dentro del formato DVD existen dos categorías, los DVD de capa simple y los DVD de capa
doble. Además de eso, el disco podrá tener una o dos caras, y una o dos capas de datos
por cada cara. Ese número de caras y de capas determinará la capacidad que tendrá el
disco. Los discos DVD de dos caras son raramente empleados fuera del ámbito de DVDVideo.
Los DVD de capa simple pueden almacenar hasta 4,7 gigabytes según los fabricantes en
base decimal, y aproximadamente 4,38 gigabytes en base binaria o gibibytes. Los DVDs
tienen una capacidad siete veces mayor que un CD estándar.
El DVD usa un método de codificación más eficiente en la capa física que los CD, llegando a
ser un 47% más eficiente que el CD-ROM.
Los DVD se pueden clasificar según su contenido en DVD-Video, DVD-Audio y DVD-Data.
Además, existen otras dos maneras de clasificarlos. Pulsa en estos botones para conocer
estas clasificaciones.

Clasificación del DVD


La satisfacción del cliente
La satisfacción al cliente es el factor prioritario y para el que se orientará todo el esfuerzo. Esto será posible
gracias al conocimiento constante de la opinión del cliente mediante entregas de trabajo realizado y en donde
siempre deberá aportar este resultado un producto con funcionalidad propia.

La aceptación y valoración del cambio


Es la cultura de trabajo que infunda esta metodología, los cambios propuestos por el cliente se observan con la
alegría de poder seguir satisfaciéndolo, pudiendo ir orientados a obtener una versión mejorada del producto
hasta ahora entregado.

C O NT I NU A R
El disco Blu-ray es un formato de disco óptico de nueva generación, desarrollado en 2006
por la Blu-ray Disc Association (BDA). También es conocido simplemente como Blu-ray o
BD. Se usa en vídeo de alta definición (HD), 3D y UltraHD, y ofrece una mayor capacidad
de almacenamiento de datos de alta densidad que la ofrecida por el DVD.
El disco Blu-ray, al igual que el CD y el DVD, tiene un tamaño de 12 cm de diámetro.
Permite almacenar 25 GB por capa, aunque Sony y Panasonic han desarrollado una
técnica que les permitía aumentar en un 33 % la capacidad de almacenamiento desde los
25 GB a 33,4 GB por capa.

Blu-ray
El Blu-ray mejora ampliamente la resolución que ofrecía el DVD, ya que este último ofrecía
una resolución de 720×480 para el sistema NTSC o de 720×576 para el sistema PAL,
mientras el Blu-ray ofrece una resolución de 1920×1080 (1080p), que es justo el
formato empleado en estudios, por lo que ya no era necesario realizar ningún tipo de
conversión. Esto significa un ahorro de trabajo significativo para la industria del cine,
puesto que con su uso no tiene que dedicar esfuerzo y tiempo a la conversión de la
resolución de las películas, abaratando los costes.

¿Sabes de dónde viene el nombre de “Blu-ray”? Se le puso por el color azul,


“blue”, del rayo láser. Pero para unificar a nivel global su marca se eliminó la
letra "e" de la palabra original porque en algunos países no es posible
registrar un nombre comercial con una palabra común.
C O NT I NU A R
Este vídeo expone de manera breve y amena las consecuencias de un informe financiero
de Sony en el que se desvelan datos poco esperanzadores para una plataforma de tanta
calidad como es el Blu-ray, un formato que no ha tenido rival hasta ahora en lo que
respecta a sus prestaciones de imagen y sonido.
Aunque el vídeo ya tiene unos años y parece que el formato aguanta el tirón, lo cierto es
que las previsiones no han variado desde entonces.
¿Qué opinas tú? Visualiza el vídeo, responde las preguntas de la siguiente pantalla y
después plantéate si este formato tiene o no futuro.

El Blu-ray está muriendo. ¿Cuales serían las


causas?
Fuente de vídeo: https://www.youtube.com/watch?v=deXsfUTf5QU&t=36s
C O NT I NU A R
Autoevaluación
Pregunta
01/03
¿Cuáles son las pérdidas que refleja el informe de Sony dentro de su división
vinculada a
la fabricación y comercialización de reproductores y discos?
Más de 12 millones de dólares.
Más de 120 millones de dólares.
Más de 240 millones de dólares.
Ninguna de las anteriores.
Pregunta
02/03
¿Cuáles de los siguientes motivos de los que se exponen sirven para explicar la
caída de
ganancias relacionadas con el Blu-ray?
La crisis económica.
La piratería.
La aparición de plataformas de streaming.
Todos los anteriores.
Pregunta
03/03
Parece que el Blu-ray podría tener los días contados.
Verdadero.
Falso.
El streaming le gana cuota de mercado al
almacenamiento físico
Las ventas de Blu-ray no son muy favorables, le sigue venciendo el DVD. Y el formato Blu-ray 4K
UHD no ha conseguido una gran aceptación. Los datos de ventas en Estados Unidos de este tipo
de formatos lo muestran con claridad en este enlace. Mientras que los discos Blu-ray 4K tenían
un 5,3% de la cuota de mercado, los DVD eran mucho más populares y obtuvieron una cuota del
57,9% de esas ventas recientes.
Pero el DVD no es el peor de sus enemigos, el streaming de contenidos sigue ganando usuarios
y los formatos físicos, a pesar de sus ventajas, van progresivamente perdiendo cada vez más
interés.
https://www.statista.com/chart/7654/home-entertainment-spending-in-the-us/
Los ingresos por suscripción de transmisión de vídeo superaron las ventas de DVD y de
Blu-ray en los Estados Unidos por primera vez en 2016. Esa tendencia ha seguido
creciendo y en 2018 las plataformas de streaming obtenían más de la mitad del gasto del
consumidor en entretenimiento en el hogar. Mientras que los consumidores
estadounidenses gastaron 12.900 millones de dólares en suscripciones a servicios como
Netflix, las ventas de DVD y Blu-ray cayeron otro 15 por ciento respecto al año pasado, con
un gasto de los consumidores de 4 mil millones de dólares.
C O NT I NU A R
Recapitulación
Hasta este momento has aprendido que el primero de los formatos digitales de Betacam
se lanzó en 1993 y fue el Betacam Digital, al que también se le conocía como DigiBeta y
DBC.
No solo eso, sino que además conoces ahora que en 1996, Sony crearía una alternativa de
un precio más bajo a Betacam Digital, fue el formato digital Betacam SX.
Conoces también ahora también que en 2003, Sony mejora aún más el formato HDCAM, y
lanza el HDCAM SR, que emplea una cinta con alta densidad de partículas que permite
grabar una señal RGB con muestreo 4:4:4 a un bitrate de 440 Mb/s.
Además aprendiste que Digital-S o D9 es un formato de vídeo digital profesiona l
desarrollado por JVC en 1995. Entre sus características principales están la grabación en cinta
de 1/2", el muestreo 4:2:2, la compresión de 3.3:1 y el flujo de datos de 50 Mbps.
También sabes ahora que el Digital Video (DV) fue creado en 1996 como un estándar
internacional según la norma IEC 61834, que determina tanto el códec a usar como el tipo
de cinta.
Aprendiste además que el DVD es un tipo de disco óptico para el almacenamiento de datos
que surgió en 1995. Sus siglas se corresponden con Disco Versátil Digital, aunque en sus
inicios, la “V” hacía alusión a vídeo, como Disco de Vídeo Digital.
Para finalizar, aprendiste que el disco Blu-ray es un formato de disco óptico de nueva
generación, desarrollado en 2006 por la Blu-ray Disc Association (BDA).
CONT I NU A R
Autoevaluación
Pregunta
01/03
¿En qué año y quién desarrolló el formato de vídeo digital Digital-S?
Sony en 1990.
Sony en 1995.
JVC en 1995.
JVC en 2000.
Pregunta
02/03
Digital Vídeo es un formato concreto creado por JVC.
Verdadero.
Falso.
Pregunta
03/03
¿Cuál es la resolución que ofrece Blu-ray?
720×480.
720×576.
1920×1080.
Ninguno de los anteriores.
A veces, conectar equipos de imagen y sonido puede ser un quebradero de cabeza, por no
saber qué cable es el que debe emplearse para ello. Es muy importante que los conozcas
para saber cuál es el más adecuado y qué cables y conectores necesitarás en cada
momento.
En este epígrafe descubrirás diversos aspectos relacionados con las principales
conexiones de audio y vídeo que se usan actualmente, y las diferencias que existen entre
ellas, además de cuando emplearlas para que puedas saber cuál es la más adecuada y
qué cables necesitarás.
No dejes de avanzar en las siguientes pantallas.
Los conectores de pantalla apenas han sufrido cambios en los últimos años. Seguramente
aún sigas conectando tus monitores al ordenador a través de VGA, aunque esto,

19. Interfaces de seal de vídeo: analógicas y


digitales
afortunadamente, ha cambiado en las conexiones de los televisores, que ya han dejado de
ser analógicas. Actualmente el HDMI es el conector más habitual actualmente. También
cada vez comienza a usarse más el DVI para la imagen digital en los PC o incluso el propio
conector HDMI, que ya se ha establecido como estándar también en el uso de consolas y
reproductores de DVD, blu-ray, etc.
Al hablar de interfaces de señal de vídeo hay que partir de la gran cantidad que existen
en función del tipo de dispositivo que analices: VGA, euroconector, HDMI, USB, etc. A
continuación se hará un repaso sobre todos ellos comenzando por separar los que se
utilizan para señales analógicas de los digitales. Se presentará cada uno de ellos,
entenderás qué funcionalidad cubren y podrás observar las diferencias existentes entre
ellos.
Podrás encontrar los dispositivos que sirven exclusivamente para vídeo, los que sirven
para audio y los que sirven para audio y vídeo. Además, cada uno de ellos, a su vez, puede
ser analógico o digital.
C O NT I NU A R
Simon, la empresa de enchufes y apliques, ofrece a través de su guía
"Elementos multimedia para digitalizar espacios" un catálogo de soluciones
a la hora de realizar la instalación de cableado para la transmisión de
cualquier señal multimedia. Es muy recomendable echar un ojo a sus
propuestas.
Los dispositivos de vídeo y audio usan una variedad de interfaces diferentes. Sin embargo,
la mayoría de los tipos de conectores comparten el rasgo común de ser fáciles de
conectar. Los fabricantes de productos electrónicos de consumo prefieren utilizar
interfaces simples que los usuarios promedio pueden conectar y desconectar sin tener
que apretar tornillos o soltar las pestañas o pestillos. Esta preferencia puede resultar
compleja de compaginar con un rendimiento adecuado del conector
Entre los tipos de conectores para vídeo analógicos se encuentran estos que puedes
conocer pulsando en los siguientes botones:

Conectores analógicos
S-Vídeo
Conocido también como Separate-
Vídeo, S-VHS, o MiniDIN4. Ofrece
mayor calidad de imagen que el vídeo
compuesto RCA, normalmente 576i.
Es un conector de 4 pines.
Vídeo por componentes
Emplea tres conectores de tipo RCA,
verde, azul y rojo. El verde transmite el
brillo, mientras que el rojo y el azul
llevan la crominancia. Ofrece vídeo en
alta definición en resoluciones de
hasta 1080p sin señal de audio.
VGA
Matriz de vídeo y gráficos (Vídeo
Graphics Array, VGA). Se trata del
tipo de conexión más popular en
monitores de PC, aunque también fue
usado en algunos televisores o
proyectores. Diseñado en 1987 como
conector de 15 pines que ofrece
DVI
Acrónimo de Digital Vídeo Input. Su
versión DVI-A transmite únicamente
señal analógica.
En cuanto a los conectores de audio y vídeo analógicos más relevantes están los que
puedes encontrar pulsando estos botones:
Vídeo compuesto
Usa un cable con un conector RCA de
color amarillo habitualmente. Es un
tipo de conector que ofrece una
calidad de imagen baja y que apenas
soporta 480i.
Euroconector
Conecta dos dispositivos
transmitiendo tanto vídeo, como
audio estéreo. Posee 21 pines.
Coaxial RF
Es el típico cable de antena, que
también sirve para transmitir una
señal de vídeo y audio estéreo,
transportando las dos señales
moduladas en una señal de
radiofrecuencia (RF).
RCA
Se emplea para vídeo compuesto
(amarillo) y sonido estereofónico
(blanco y rojo).
C O NT I NU A R
Los conectores digitales transmiten sus señales de la misma manera que un ordenador
transmite datos, es decir, a través del código binario que el dispositivo de visualización
decodifica en una imagen visible. Pero esto no significa que sean todos iguales, sino que
deberás seguir fijándote, al seleccionar un monitor o proyector para usar con una tarjeta
de vídeo en particular o un puerto de vídeo integrado, en las diferencias físicas y en las
características entre los diferentes tipos de conectores digitales.
Entre los tipos de conectores para vídeo digitales se encuentran estos que puedes conocer
pulsando en los siguientes botones:

Conectores digitales
DVI
Entrada de vídeo digital (Digital Vídeo
Input, DVI), transmite la señal de
vídeo digital en alta definición y se
emplea generalmente para conectar
monitores de pantalla plana LCD y
plasma a la tarjeta grafica de un
ordenador. Su versión DVI-D
FireWire
Conocido también como IEEE 1394 o
iLink. Es una tecnología desarrollada
por Apple para la entrada y salida de
datos en serie a alta velocidad y llega
a alcanzar los 400 megabits por
segundo y la interconexión de
dispositivos digitales.
SDI
Es poco habitual en el uso doméstico,
pero bastante empleado a nivel
profesional. Hay dos versiones, la
single-link y la dual-link. Soporta
resoluciones de hasta 565p.
HD-SDI
Soporta hasta 720p y sus versiones
dual-link soportan hasta 1080p.
Permite transmitir señales de vídeo
digital sin compresión en una
transmisión en serie mediante cable
coaxial normal.
En cuanto a los conectores de audio y vídeo digitales más relevantes están estos dos que
puedes conocer pulsando en los botones que te puedes encontrar a continuación:
HDMI
Interfaz multimedia de alta definición
(High Definition Multimedia
Interface, HDMI). Se trata del
conector más popular para
televisiones LCD y plasma que
admitan imagen en alta definición y
algunos monitores de última
Display port
Similar al HDMI en sus características
técnicas, aunque libre de licencias y
cánones. Se usa en algunas tarjetas
gráficas, y raramente en televisores.
Su mayor defecto es su
incompatibilidad con DVI y HDMI.
C O NT I NU A R
Como acabas de estudiar se trata de un conector analógico para vídeo. También se le
conoce como Separate-Vídeo, S-VHS, o MiniDIN4. Se empleaba originalmente en los
reproductores de vídeo VHS, pero su buena calidad de imagen le permitió expandir su
uso. Se usó mucho con S-VHS, en algunos ordenadores portátiles antiguos, broadcasting
analógico y computadoras domésticas en los años 80, como la Commodore 64, la C128 y la
Atari 8-bit.
Del mismo modo que el conector amarillo del vídeo compuesto, tan solo transporta vídeo,
requiriendo de cables adicionales para transportar el audio. Tienen una forma
redondeada y tienen entre 4 y 9 pins. Si estos se doblan se podrían producir
interferencias o incluso la pérdida de la señal.
Es una mezcla entre la conexión RGB y la de vídeo compuesto. Transforma la señal original
RGB en dos señales, separando la luminancia “Y" (cantidad de luz o variación entre el
negro absoluto y el blanco total) y la crominancia “C" (variación del color en cada punto de
la imagen) con sus correspondientes sincronismos. Su calidad está por debajo de la de
RGB, pero es mejor que la ofrecida por el vídeo compuesto y el euroconector.
Existen dos puertos para los conectores S-Vídeo. Pulsa en los botones para conocerlos:
S-Vídeo
Puerto S-Vídeo IN
El puerto S-Vídeo IN tiene 7 pines y se emplea para recibir la señal de vídeo.

Puerto S-Vídeo OUT


El puerto S-Vídeo OUT tiene 4 pines y se usa para dar la salida a la señal de vídeo. Es el más común en los
ordenadores, generalmente en portátiles, aunque hoy en día ha sido sustituido por el conector HDMI, que ofrece
mayor calidad y prestaciones superiores.

C O NT I NU A R
El vídeo por componentes, igual que el anterior S-Vídeo, es un conector analógico para
vídeo. Emplea tres señales para una imagen, lo que triplica la capacidad de
almacenaje necesaria. Es usado para reducir el ancho de banda. Es similar al RGB
excepto por una diferencia, que en vez de almacenar tres valores RGB emplea una
combinación de iguales resultados, lo que ocupa menos. Emplea tres conectores de
tipo RCA, verde, azul, y rojo. Cada uno lleva un tipo de información, el verde lleva el brillo,
y el rojo y el azul llevan la crominancia. Transmite vídeo en alta definición hasta 1080p sin
señal de audio.
Las entradas del vídeo por componentes o vídeocomponentes dividen la señal de imagen
en cables RGB (rojo, verde y azul) proporcionando entre todos ellos una señal analógica de
buena calidad. Fue por bastante tiempo la opción favorita para aficionados al cine y a los
vídeojuegos, ya que brindan una calidad comparable al VGA o al euroconector con RGB.
El vídeo por componentes es técnicamente capaz de alcanzar calidad Full HD, aunque
como todo medio analógico es bastante sensible al ruido electrónico y por ello pierde
frecuentemente definición. Eso provocó que fuera sustituido paulatinamente por el
HDMI, aunque aún hoy en día es posible encontrarlo como opción analógica de gran
calidad en dispositivos antiguos y generalmente HD.
El defecto del vídeo por componentes es que no transmite audio por sí mismo. Si
quieres hacerlo debes incluir un ramal de cables estéreo o bien hacer uso de un cable de
audio digital independiente para poder disfrutar de sonido envolvente.
Podrás encontrar entradas de vídeo por componentes en casi todas las televisiones HD y
DVD’s.

Vídeo por componentes


C O NT I NU A R
"DIY RCA cable" de Jasentaja bajo licencia CC BY-SA 2.0
El vídeo compuesto (CVBS) es un conector analógico de audio y vídeo que emplea un
cable con un conector RCA, habitualmente de color amarillo, que transmite la señal de
vídeo completa incluyendo la luminancia y la crominancia. Se trata de uno de las
soluciones que peor calidad de imagen ofrece. Frecuentemente está compuesta por un
conjunto de tres cables RCA: El amarillo que transmite el vídeo, la luminancia (brillo) y la
crominancia (color) mediante un cable coaxial de 75 ohmios. Otros dos cables transportan

Vídeo compuesto
el audio, uno de color negro o blanco y el otro de color rojo. Proporcionan entre ambos
cables un sonido estéreo.
No es el método mas adecuado si lo que pretendes es establecer conexiones que
transmitan alta calidad, en ese caso es preferible optar por otras soluciones como, por
ejemplo, un conector HDMI.
Los puertos RCA se usan en la retransmisión de la señal analógica a un televisor,
proyector o similar.
Como ya sabes, se trata del medio con la calidad más baja de todos los conectores debido
a que su ancho de banda de señal es muy limitado lo cual provoca que las imágenes
no tengan buena nitidez. Emite con una resolución de 625x220 pixeles.
Tan solo será el adecuado en el caso de que tu televisor sea un modelo antiguo y no
disponga de las conexiones de S-Vídeo o Y-Pb-Pr.
C O NT I NU A R
Este vídeo informa sobre el RCA (Radio Corporation of America), que es el conector
analógico más extendido para transportar audio y vídeo en el ámbito doméstico. Lo
podrás encontrar en televisores, tocadiscos, reproductores de CD, DVD, sintonizadores de
radio, equipos de audio Hi-Fi, etc.
Estate atento a la explicación porque en la siguiente pantalla deberás responder a una
serie de preguntas sobre su contenido.
Seguro que te aporta una información realmente valiosa, ¿te la vas a perder? ¿No?
¡Pues dale al play!

Conector RCA. Vídeo compuesto vs. vídeo por


componentes
Fuente de vídeo: https://www.youtube.com/watch?v=FmMcRWWBkT0
C O NT I NU A R
Autoevaluación
Pregunta
01/03
¿Qué otro nombre recibe el conector RCA?
Conector Phono.
Conector DVI.
Conector RMB.
Ninguno de los anteriores.
Pregunta
02/03
¿Cómo se llama la señal de vídeo que lleva el RCA amarillo en el que va a la vez
la
información de brillo y de color?
Vídeo de brillo.
Vídeo por componentes.
Vídeo compuesto.
Ninguno de los anteriores.
Pregunta
03/03
La señal de vídeo por componentes ofrece menor calidad que el vídeo
compuesto.
Verdadero.
Falso.
"Archivo:Standard VGA adapter 14072012.jpg" de Joydeep bajo licencia CC BY-SA 3.0
El tipo de conexión analógica VGA (Vídeo Graphics Array) para vídeo fue diseñado en 1987
y quizá sea el más popular. Aunque no se trate del que ofrece una mejor calidad ni se
incluya en tarjetas gráficas de gama alta, sí que se sigue empleando en las de gama baja y
algunas de la gama media.
VGA transmite información analógica de tipo RGBHV (Red, Green, Blue, frecuencia
Horizontal, frecuencia Vertical), aunque no transporta señal de audio. Esta interfaz de
vídeo no se desarrolló en principio para que pudiera conectarse y desconectarse en

Conector VGA
caliente aunque en la práctica los usuarios puedan hacerlo. Aunque no es muy
recomendable ya que al hacerlo podría dañarse la tarjeta gráfica o el monitor por
subidas de tensión en la línea de tierra del cable.
La mayor calidad que puede alcanzar este conector es de 2048 x 1536 píxeles a 85 Hz,
aunque depende de la calidad del cable. Los cables más gruesos que presentan
apantallamiento en su interior ofrecen una calidad superior.
Se emplea a menudo en monitores de ordenador, aunque también se emplea en
televisiones de plasma o LCD. Se trata de un conector de 15 pines que fue el gran
estándar del vídeo analógico aunque la llegada del vídeo digital está haciendo que vaya
usándose cada vez menos.
A principios de los años 90 ofrecía una resolución de 320x240 píxeles con 256 colores
simultáneos. Actualmente es capaz de alcanzar una resolución máxima de 2048x1536
píxeles. Existen adaptadores para los monitores más modernos que deben usar
conversores de VGA a señales HDMI o DVI.
C O NT I NU A R
No dejes de estar atento a este vídeo si quieres aprender sobre unos de los conectores
que más se prestan a confusión, el conector VGA DE-15 que se usa en el puerto RGB de las
pantallas de ordenador y el conector DE-9 de los puertos serie RS-232.
Seguro que después de ver este vídeo te darás cuenta de que las diferencias son
evidentes.
¡Dale al play!

Conector VGA y conector RS-232


Fuente de vídeo: https://www.youtube.com/watch?v=tJ_UPvAYWf8
C O NT I NU A R
Autoevaluación
Pregunta
01/03
Los puertos RGB y RS232 son iguales.
Verdadero.
Falso.
Pregunta
02/03
¿Cuál es el conector que se emplea para enviar la imagen del ordenador al
monitor?
RS232.
RGB.
Jack.
Ninguno de los anteriores.
Pregunta
03/03
¿Cuántos pines tiene un conector RGB o VGA?
9 pines.
12 pines.
15 pines.
Ninguno de los anteriores.
El DVI (Digital Visual Interface) es posterior en tiempo al VGA y se caracteriza por ser en
parte analógica y en parte digital. El objetivo de su cuerpo principal es el de llevar las
señales digitales de la tarjeta gráfica al monitor, mientras que en su parte derecha están
los pines destinados a transmitir la señal analógica. Esto posibilita que los adaptadores de
VGA a DVI no necesiten de ningún tipo de conversor integrado en el cuerpo del adaptador.
No transmiten las señales de audio desde la gráfica hasta el monitor, al igual que ocurre
con VGA.
Existen distintos tipos de DVI, diferenciados en el número de pines que tiene el conector.
Pulsa en estos botones para conocerlos:

Digital Visual Interface (DVI) en su uso analógico


DVI-D
Transmite únicamente la señal digital.
Existe otra clasificación posible entre las salidas de vídeo DVI. Pulsa en estos botones para
conocerla:
DVI-A
Transmite únicamente señal analógica.
DVI-I
Transmite tanto la señal analógica
como la digital. Es el que se emplea
en las tarjetas gráficas de ordenador.

Señal simple (SL)


Las salidas SL tan solo alcanzan una resolución máxima de 1920 x 1200 píxeles y una tasa de refresco de 60 Hz.

Señal doble (DL)


Las DL alcanzan los 2560 x 1600 píxeles a estos mismos 60 Hz.

C O NT I NU A R
El euroconector, también conocido como SCART, fue un modo muy popular de transmitir
analógicamente audio y vídeo en los televisores. Transmite tanto vídeo como audio estéreo
y está formado por 21 pines. Además, es bidireccional, es decir puede enviar y recibir
información. Pero claro, se diseñó en una época en la que los televisores eran de tubo de
rayos catódicos y el 4K era algo de un futuro para el que aún quedaba mucho. Hoy en día,
este conector está prácticamente obsoleto, debido en parte a que su calidad resulta
deficiente para las resoluciones actuales y, además, es complicado de integrar en los
televisores actuales por su tamaño.
El euroconector es capaz de transmitir incluso señales de vídeo en Full HD usando
configuraciones muy concretas. Fue en su día muy popular para los jugadores de consola,
ya que podía transmitir la señal de vídeo RGB, por lo que era una de las mejores opciones
para obtener la mejor calidad de imagen en la era analógica. De hecho, a veces es
conocido como el HDMI analógico.

Euroconector o SCART
C O NT I NU A R
Fue muy empleado en receptores de TDT externos, para conectar el vídeo
con la televisión, en reproductores DVD, Blu-ray, vídeoconsolas, etc. En los
últimos modelos se ha sustituido por el HDMI. De hecho, si no es obligatorio
su uso, lo mas aconsejable siempre será decantarnos por otras opciones
digitales como HDMI, ya que el euroconector tan solo da soporte a
resoluciones de 576p.
Con este vídeo podrás repasar la información que ya conoces sobre el conector analógico
llamado euroconector o SCART.
Hasta hace poco, el euroconector era el conector preferido para conectar el reproductor de
DVD o el desaparecido VHS a un televisor. Aunque cada vez se usa menos, todavía puedes
encontrarlo en equipos antiguos.
No dejes de ver el vídeo porque en la siguiente pantalla deberás responder a una serie de
preguntas sobre su contenido.

Euroconector o Scart
Fuente de vídeo: https://www.youtube.com/watch?v=JLfg8nCEDSw
C O NT I NU A R
Autoevaluación
Pregunta
01/03
¿Cuándo se diseñó el euroconector?
A finales de los años 60.
A finales de los años 70.
A finales de los años 80.
Ninguno de los anteriores.
Pregunta
02/03
¿Cuál es el modo de transportar la señal de vídeo en analógico que tiene el
euroconector?
Vídeo compuesto.
S-Vídeo.
RGB.
Todos serían adecuados.
Pregunta
03/03
¿Cuál es el conector que ha desplazado al euroconector?
VGA.
RCA.
HDMI.
Ninguno de los anteriores.
El cable coaxial RF es un conector analógico para audio y vídeo. Puede que lo reconozcas
como el clásico cable de antena, pero también sirve para transmitir la señal de vídeo. Es
capaz de llevar la señal de vídeo y de audio estéreo, llevando las dos señales de audio
moduladas en una señal de radiofrecuencia (RF).
Allá donde haya una antena de televisión, incluidas las TDT, habrá una entrada de cable
coaxial directa a tu televisor. Se trata de un conector imprescindible aún hoy en día, al
menos en España. Tan solo se podría prescindir del uso del coaxial si se populariza el uso
de la transmisión de la señal de televisión vía internet a nivel doméstico o se empezaran a
emplear aparatos receptores de canales de televisión vía fibra óptica.
Además, se trata de un cable que podrás usar para conectar equipos de audio con otros
dispositivos en el caso de no contar con una entrada HDMI.
Su denominación técnica es IEC 60169-2 y es un cable coaxial terminado en el conector
Belling-Lee. No es el más fiable y con el uso puede deformarse, de modo que se
pueden ocasionar muchos problemas de calidad de recepción debidos a un cable con un
contacto deficiente.
Es necesario el uso de un cable de antena para poder recibir emisiones de una antena de
televisión a la antigua usanza o de un TDT. Para poder ver la televisión necesitarás por
fuerza un cable coaxial. Aunque ahora están surgiendo muchos operadores que ofrecen
paquetes de televisión por IP, por lo que la señal no sería recibida por la antena sino a
través de la conexión a Internet.

Coaxial RF
"Archivo:Digital coaxial audio cable (orange).jpg" por TheCoyoteDreams bajo licencia CC
BY-SA 4.0
C O NT I NU A R
El conector BNC (Bayonet-Neill-Concelman) es un tipo de conector que recibe su
nombre por el cierre en bayoneta que presenta, de rápida conexión/desconexión y que
se usa con el cable coaxial. Se usa mayormente en el ámbito profesional e incorpora la
versatilidad de su uso como salida RGB con un solo sincronismo o bien como salida de
vídeo por componentes de alta definición con sincronismo vertical y horizontal por
separado.
Este es un tipo de conector usado con cables coaxiales como RG-58 y RG-59 en
aplicaciones de RF que precisaban de un conector rápido, apto para UHF y de impedancia
constante a lo largo de un amplio espectro.
Conector BNC
Consiste en un conector tipo macho en cada extremo del cable. Este
conector tiene un centro circular conectado al conductor del cable central y
un tubo metálico conectado en el parte exterior del cable. Un anillo que rota
en la parte exterior del conector asegura el cable mediante un mecanismo
de bayoneta, lo que permite la conexión a cualquier conector BNC tipo
hembra.
C O NT I NU A R
Las siglas de BNC son de las iniciales de bayoneta, de Neill y de Concelman, porque sus
inventores fueron Paul Neill, de Bell Labs, inventor del “Conector N” y Carl Concelman,
ingeniero de Amphenol e inventor del “Conector C”, quienes inicialmente lo diseñaron
como una versión en miniatura del “conector C”, por lo que su tamaño es mucho más
pequeño que los conectores N y C.
A pesar de que los inventores del conector BNC fueron Neill y Concelman, las bases para
su desarrollo surgen del trabajo de Octavio M. Salatique, quien solicitó la patente en 1945
y le fue otorgada en 1951. Se popularizó por su uso en las primeras redes Ethernet,
durante los años 1980.

Historia del conector BNC


Sus problemas de mantenimiento, las limitaciones del cable coaxial en sí
mismo y la aparición del cable de pares trenzados para las redes Ethernet
hizo desaparecer el conector BNC de las redes. Aunque sigue empleándose
en sistemas de televisión y vídeo, y también son usados en circuitos
cerrados de televisión.
C O NT I NU A R
No dejes de ver este vídeo para repasar los contenido que acabas de estudiar sobre el
conector BNC (Bayonet Neill-Concelman), que se utiliza con el cable coaxial para
transportar una señal de vídeo compuesto.
Además verás que, para conseguir mayor calidad, los sistemas profesionales utilizan tres
conectores BNC para transportar una señal de vídeo por componentes.
No te lo pierdas porque después tendrás que responder a una serie de preguntas sobre
su contenido.

Conector BNC
Fuente de vídeo: https://www.youtube.com/watch?v=J22XWOQBHjA
C O NT I NU A R
Autoevaluación
Pregunta
01/03
¿De qué manera suele transportar una señal analógica de vídeo el conector
BNC?
(Respuesta múltiple).
Vídeo compuesto.
Vídeo por componentes.
HDMI.
Ninguno de los anteriores.
Pregunta
02/03
¿Cuántos BNC se usan en aplicaciones profesionales para llevar una señal
analógica por
componentes?
1.
2.
3.
4.
Pregunta
03/03
¿Cuándo se inventó el cable coaxial?
En los años 30.
En los años 50.
En los años 70.
Ninguno de los anteriores.
La llegada de los formatos de vídeo digitales, ayudó a la llegada del estándar DVI (Digital
Visual Interface), presentado por Digital Display Working Group en 1999. DVI es capaz de
transmitir vídeo digital a una resolución máxima de 2560 x 1600 píxeles a 60 Hz sin
comprimir. También permite la encriptación del vídeo empleando el sistema de
protección HDCP, aunque deba ser la propia fuente la que se encargue de gestionar dicha
protección.
DVI se hizo muy popular gracias a su compatibilidad con VGA, ya que es el único conector
que es capaz de aceptar de igual manera señales analógicas y digitales. Su modalidad
DVI-A tan solo acepta señales analógicas mientras que DVI-D solo las digitales. La versión
DVI-I es capaz de admitir ambas. El modo señal simple acepta una resolución máxima de
1920x1200 píxeles a 60 Hz mientras que la versión de señal doble agrega seis pines
adicionales que permiten aumentar el ancho de banda y la resolución máxima a 2560 x
1600 píxeles a 60 Hz.

Digital Visual Interface (DVI) en su uso digital


C O NT I NU A R
¿Quieres saber qué tipo de DVI tienes en tu tarjeta gráfica o monitor? Tan
solo debes fijarte en los pines de la conexión. Las versiones que aceptan
señal analógica, DVD-I y DVD-A, tienen 4 pines adicionales a la
izquierda. Con estos conectores hay que usar un adaptador DVI/VGA para
pode conectar a un cable VGA, sin que sea necesaria ningún tipo de
conversión.
Una de las grandes ventajas del conector DVI es que, al transmitir una señal digital, esta
no es perturbada por ningún tipo interferencias ni depende de la calidad del cable o su
longitud, como ocurre con el estándar VGA. Aunque sí que pierde intensidad con la
distancia, por lo que es recomendable emplear cables de menos de 4.5 metros en
resoluciones 1080p. Para resoluciones 720p se puede aumentar la distancia hasta los 15
metros. Pero si se requieren mayores distancias será necesario el uso de repetidores de
señal.
Popularmente al DVI a veces se le llama el HDMI sin audio, ya que ofrece una calidad de
imagen similar, al tratarse de imagen digital.

Ventajas y defectos del DVI


Como defecto del DVI habría que apuntar que no transporta audio y, como
ventaja, su compatibilidad con señales analógicas, lo que le permite que
pueda usarse con ordenadores y monitores antiguos.
C O NT I NU A R
Repasa los contenidos más importantes que has aprendido sobre el conector de vídeo DVI
(Digital Visual Interface), que está sustituyendo al conector RGB en los monitores de
ordenador, al igual que lo está haciendo el conector HDMI, puesto que, además, puede
transportar audio.
También podrás conocer sus versiones, el single link y el dual link. No dejes de estar
atento porque después deberás responder a una serie de preguntas.
¡Dale al play!

Conector DVI
Fuente de vídeo: https://www.youtube.com/watch?v=scqte3f20gE
C O NT I NU A R
Autoevaluación
Pregunta
01/03
¿A qué conector ha ido sustituyendo poco a poco el conector DVI?
Al HDMI.
Al VGA.
Al RS232.
Ninguno de los anteriores.
Pregunta
02/03
¿Qué versión de DVI puede llevar tanto señal analógica como señal digital?
DVI-A.
DVI-D.
DVI-I.
Ninguno de los anteriores.
Pregunta
03/03
La versión dual link tiene mayor número de pines que la versión single link.
Verdadero.
Falso.
El conector digital FireWire, conocido también como IEEE 1394 o iLink, es un estándar de
conexión para la transmisión de audio y vídeo. Fue desarrollado por Apple para la entrada
y salida de datos en serie a alta velocidad, posibilitando llegar a los 400 megabits por
segundo de un modo bastante estable, y a interconectar dispositivos digitales.
Aunque puede usarse para transferir todo tipo de datos, se usa bastante en dispositivos
multimedia como vídeocámaras y cámaras de fotos. Existen dos tipos de tamaño, la
versión FireWire normal, de 6 pines, y la versión mini FireWire con 4 pines, que es el que
a menudo llevan las cámaras de fotos.
Han ido surgiendo a lo largo del tiempo diversas versiones de FireWire como las que
puedes conocer pulsando en estos botones:

Conector FireWire
FireWire 400
Fue creado en 1995 y ofrece un
ancho de banda 30 veces mayor que
el USB 1.1 y similar al USB 2.0,
aunque es más rápido debido a su
arquitectura peer-to-peer. Tiene 6
pines.
FireWire 800
Creado en 2000. Mejora la versión
anterior duplicando su velocidad.
Cuenta con 9 pines.
FireWire s800T
Surge en 2007 aportando mejoras y
permitiendo su uso con puertos RJ45.
FireWire s1600 y s3200
Se crean en 2007 y da un ancho de
banda de 1,6 y 3,2 Gbit/s
respectivamente, por lo demás son
similares al FireWire 800 con su
conector de 9 pines.
Este conector fue creado para poder aumentar la velocidad de las entradas USB 1.0, y se
emplea bastante en vídeocámaras y algunas cámaras fotográficas digitales. Sus entradas
son más estables que las entradas USB normales por lo que son muy adecuadas para la
transmisión de audio y vídeo.
C O NT I NU A R
Este vídeo te informará sobre la interfaz multiplataforma IEEE 1394, también conocida
como Firewire o iLink.
Podrás repasar los conceptos más relevantes relacionados con este conector y que acabas
de estudiar en la pantalla anterior. No dejes de verlo atentamente porque a continuación
deberás responder a una serie de preguntas sobre su contenido.
¡Dale al play!

Conector FireWire
Fuente de vídeo: https://www.youtube.com/watch?v=YRTwhufCjFk
C O NT I NU A R
Autoevaluación
Pregunta
01/03
¿Quién desarrolló el conector FireWire?
Panasonic.
JVC.
Apple.
Toshiba.
Pregunta
02/03
¿Qué nombre le da Sony al FireWire?
HDMI.
FireVídeo.
i-Link.
Ninguno de los anteriores.
Pregunta
03/03
¿Qué tasa de transferencia tiene FireWire 400 ?
10 Megabytes/s.
30 Megabytes/s.
50 Megabytes/s.
Ninguno de los anteriores.
El conector HDMI (High Definition Multimedia Interface) es una interfaz multimedia de
alta definición. Hoy en día es el más popular en el uso de las televisiones de tipo LCD y
plasma que soportan imagen de alta definición, consolas, blu-ray, además de los monitores
de última generación.
HDMI es similar a DVI pero con audio estéreo en alta definición incluido. Existen dos tipos
de HDMI, de enlace simple y de doble enlace. La versión de doble enlace alcanza
resoluciones superiores a 1080p, aunque la más común es la de enlace simple.
Existen diversas versiones de HDMI que puedes conocer pulsando en estos botones:

HDMI

HDMI v1.0
Transmite vídeo en alta definición alcanzando los 1080p y el audio mediante 8 canales a 192 kHz y
24
bits.
HDMI v1.1
Similar a la versión anterior pero soportando DVD Audio.

HDMI v1.2
Agrega el soporte para la transmisión de DSD para Super Audio CD.

HDMI v1.3
Soporta resoluciones superiores a 1080p, mayor cantidad de bits de color y audio de alta definición como Dolby
TrueHD y DTS-HD.
No dispone de ninguna versión que soporte la señal analógica, a diferencia de lo que
ocurre con DVI.

El puerto HDMI es hembra, posee 19 pines y su color es negro y dorado. Existen conectores
machos y hembras.
HDMI ofrece una resolución máxima de 4096×2160 con hasta 8 canales de sonido digital y
suele usarse para conectar reproductores blu-ray a televisores de alta definición.
C O NT I NU A R
No dejes de repasar lo aprendido sobre el HDMI por medio de este vídeo, en el que podrás
aprender que es un conector de interfaz que transporta vídeo digital de alta definición y
hasta ocho canales de audio digital.
Se ha popularizado en los reproductores de DVD y blu-ray y ha sustituido a todos los
conectores que se utilizaban para conectar las fuentes analógicas al televisor (conectores
RCA y Euroconector) y a la pantalla del ordenador (conector VGA).
Seguro que te aporta una información realmente valiosa, ¿te la vas a perder? ¿No?
¡Pues dale al play!

Conector HDMI
Fuente de vídeo: https://www.youtube.com/watch?v=Uk2_PGKUy34
C O NT I NU A R
Autoevaluación
Pregunta
01/03
¿Cuándo fue lanzado al mercado el HDMI?
1991.
2003.
2012.
Ninguno de los anteriores.
Pregunta
02/03
¿Cuántos canales de audio es capaz de transmitir el HDMI?
1.
2.
4.
8.
Pregunta
03/03
¿A qué ha ido reemplazando el HDMI?
Al euroconector.
Al conector RCA.
Al S-Vídeo.
Todos serían adecuados.
De igual modo que el DVI surgió para acabar con el analógico VGA, el HDMI fue creado en
2002 de forma consensuada por los principales fabricantes, entre ellos Sony, Philips,
Hitachi o Panasonic, para relevar el euroconector y otros estándares analógicos de los
televisores.
El conector DisplayPort es similar a HDMI en sus características técnicas, aunque es
complicado encontrarlo en televisores, y suele usarse en algunas tarjetas gráficas. Uno de
sus defectos es la incompatibilidad con DVI y HDMI, aunque a través de adaptadores
sí puede funcionar con VGA, DVi o HDMI. Está libre de licencias y cánones ya que es un
formato abierto, a diferencia de lo que ocurre con HDMI.

DisplayPort
Este formato fue creado por la Asociación de Estándares Electrónicos de
Vídeo (VESA) en 2007 pensando sobre todo en los ordenadores. Ha ido
siendo adoptado progresivamente por algunos fabricantes de tarjetas
gráficas y monitores.
C O NT I NU A R
Este conector de 20 pines tiene como innovación principal que transmite los datos a
través de micro paquetes, siendo más efectivo y requiriendo menos hardware. Es capaz
de transportar hasta cuatro canales de distintos tipos de datos como vídeo, audio o datos.
Al igual de lo que ocurre con las versiones HDMI, existe una versión más pequeña
conocida como mini DisplayPort empleada en tablets y portátiles.
Entre las versiones existentes de DisplayPort podrás encontrar las siguientes que
conocerás pulsando en estas pestañas:

Características de DisplayPort

DisplayPort 1.1
Ofrece un ancho de banda máximo de 8,64 Gbps. Puede usar cables de fibra óptica para transmitir datos, lo que
permite usar cables más largos. Soporta resolución 4K a 30 Hz y 8 canales de audio.

DisplayPort 1.2
Mejora la anterior versión doblando su ancho de banda y transmite varios canales de vídeo a la vez.

DisplayPort 1.3
Da soporte para la resolución 4K a 120 Hz, 5K a 60 Hz y 8K a 30 Hz. Permite transmitir dos fuentes
de
vídeo 4K a la vez.

DisplayPort 1.4
Agrega varias tecnologías presentes en los nuevos televisores 4K HDR, como HDR10 o Rec. 2020.
También usa técnicas de compresión de imagen DSC para poder realizar streamings a 8K y 60 Hz. El
ancho de banda se incrementa hasta los 21.6 Gbps.

DisplayPort es capaz de soportar resoluciones de 8K y ofrece una mayor


sencillez y un mayor ancho de banda a la hora de conectar varios monitores
desde un único conector. Los Display Port estándar llegan hasta los 3
metros de longitud, pero existen cables con resoluciones más bajas de
hasta 15 metros. Si es necesario instalar cables de más de 15 metros es más
recomendable emplear fibra óptica, ya que atenúa menos la señal.
C O NT I NU A R
No dejes de repasar todo lo aprendido hasta ahora en este epígrafe gracias a este vídeo,
en el que podrás analizar de manera conjunta los distintos tipos de cables más utilizados.
Seguro que te ayudará a tener un visión más general y comprensiva de cada uno de los
conectores que has estudiado hasta ahora.
Además, en la siguiente pantalla deberás responder a una serie de preguntas sobre el
contenido de este vídeo.
¡Dale al play!

Distintos tipos de cable de audio y vídeo


Fuente de vídeo: https://www.youtube.com/watch?v=kKPNL5nTa94
C O NT I NU A R
Autoevaluación
Pregunta
01/03
El cable de S-Vídeo tan solo transporta la señal de vídeo, no transporta audio.
Verdadero.
Falso.
Pregunta
02/03
VGA transporta la señal de vídeo y audio.
Verdadero.
Falso.
Pregunta
03/03
¿Cuál no es una opción recomendada en el vídeo si quieres ver el vídeo en un
televisor
de alta definición o en un ordenador y necesitas que te ofrezcan la mayor
calidad de
imagen posible?
DVI.
VGA.
HDMI.
Ninguno de los anteriores.
Este vídeo reúne la información más básica y útil para responder a preguntas sobre los
conectores que debes utilizar para transportar formato de vídeo.
Los distintos tipos de formato sirven para cosas diferentes, y el formato adecuado para
una cosa no tiene por qué ser el mejor formato para otro propósito.
No dejes de verlo porque seguro que te aporta una información realmente valiosa,
además de que a continuación deberás responder a una serie de preguntas sobre su
contenido.

Tipos de conectores
Fuente de vídeo: https://www.youtube.com/watch?v=DDAAXseU37M
C O NT I NU A R
Autoevaluación
Pregunta
01/03
¿Cuándo apareció el conector VGA?
1982.
1987.
1995.
Ninguno de los anteriores.
Pregunta
02/03
¿Qué versión de DVI puede llevar tanto señal analógica como señal digital?
DVI-A.
DVI-D.
DVI-I.
Ninguno de los anteriores.
Pregunta
03/03
¿Cuándo apareció el DisplayPort?
2005.
2008.
2012.
Ninguno de los anteriores.

C O NT I NU A R
Cómo conectar monitores y TV a tu PC
Las propias páginas web de los fabricantes, muchas veces con el afán de venderte así sus
productos, te ofrecen el modo de conectar monitores y televisores a los ordenadores.
Una de las páginas más fiables a este respecto es la de Dell, en la que se ofrece información en
forma de guía mediante la que aprenderás el modo de conectar tu monitor con tu ordenador y
transferir señales de vídeo analógico y/o digital.
Para ello, esta página te indica cómo hacerlo de manera digital con HDMI o con DisplayPort, o
bien de modo analógico mediante DVI, VGA y SVGA o con S-Vídeo y vídeo compuesto.
Además, te aconsejará el uso de adaptadores si tu equipo y tu monitor o TV no tienen el mismo
conector de vídeo. Si eso ocurre, necesitarás un cable o adaptador especial como, por ejemplo,
un adaptador de DVI a VGA.
¿Conoces alguna otra página de la que te puedas fiar respecto al mejor modo de conectar tus
distintos dispositivos?

Recapitulación
Hasta este momento has aprendido que los conectores de pantalla apenas han sufrido
cambios en los últimos años. Seguramente aún sigas conectando tus monitores al
ordenador a través de VGA, aunque esto, afortunadamente, ha cambiado en las
conexiones de los televisores, que ya han dejado de ser analógicas, siendo el HDMI el
conector más habitual actualmente.
No solo eso, sino que además conoces ahora que entre los tipos de conectores para
vídeo analógicos se encuentran los siguientes: S-Vídeo, Vídeo por componentes,
VGA y DVI.
Conoces también ahora también que en cuanto a los conectores de audio y vídeo
analógicos más relevantes están los que se enumeran a continuación: Vídeo
compuesto, Euroconector, Coaxial RF y RCA.
Además aprendiste que entre los tipos de conectores para vídeo digitales se
encuentran los siguientes: DVI, FireWire, SDI y HD-SDI.
Para finalizar, aprendiste que en cuanto a los conectores de audio y vídeo digitales más
relevantes están los que se enumeran a continuación: HDMI y Display Port.
C O NT I NU A R
Autoevaluación
Pregunta
01/03
¿Qué resoluciones es capaz de alcanzar el VGA?
720p.
1080p.
4K.
Ninguna de las anteriores.
Pregunta
02/03
Indica cuál es la frase falsa entre las siguientes:
DVI-D transmite únicamente la señal digital.
DVI-A transmite únicamente la señal analógica.
DVI-I transmite únicamente datos digitales.
DVI-I transmite tanto la señal analógica como la digital.
Pregunta
03/03
¿Qué ancho de banda ofrece FireWire s3200?
1,6 Gbits/s.
3,2 Gbits/s.
6,4 Gbits/s.
Ninguna de las anteriores.
El sonido en su origen es una señal analógica, pero para poder ser tratado por un
sistema informático se requiere que se convierta a señal digital, ya que tu ordenador tan
solo podrá procesar datos discretos. Una vez convertido a digital ya podrás procesarlo en
tu ordenador y editarlo, guardarlo, copiarlo o reproducirlo tantas veces como necesites, sin
que pierda calidad en el proceso.
En este epígrafe podrás aprender diversos aspectos relacionados con las características
básicas del audio digital, así como el proceso de conversión de audio analógico a digital,
¿te apetece? ¡Pues adelante!
El sonido en sí es una onda sonora que se transmite a través del aire. El modo que adopta
es el de forma de onda. Como ya sabes, originalmente se trata de una señal analógica,
que podrás procesar de un modo mucho más potente y flexible al convertirla en digital.

20. Audio digital


La captura del audio analógico suele efectuarse mediante un micrófono, que convertirá
las ondas de sonido bajo presión en variaciones de tensión en un cable. Una alta presión
será convertida en tensión positiva mientras que una baja presión lo hará en tensión
negativa. De modo que esas variaciones de tensión se transmitirán mediante el cable del
micrófono y podrán ser grabadas en cinta mediante variaciones respecto a la intensidad
magnética.
Para emitir el sonido analógico grabado será necesario un altavoz que hará el proceso
inverso al del micrófono y tomará las señales de tensión de la grabación y mediante
vibración recuperará las ondas de presión.
Todo esto cambia con el ámbito digital, en el que los equipos informáticos guardan el
audio de forma digital como una secuencia de ceros y unos. Para conseguir el
almacenamiento digital, la onda original será transformada en desgloses de instantáneas
individuales denominadas muestras. A este proceso se le conoce como digitalización o
muestreo del audio.
C O NT I NU A R
Si buscas sonidos digitales para emplear en alguna edición de audio,
puedes recurrir a repositorios de sonidos ambientes con licencias de uso de
Creative Commons. Por ejemplo, puedes usar FreeSound, un repositorio
colaborativo de fragmentos de audio, grabaciones, pitidos, etc., que podrás
reutilizar sin ningún tipo de problema legal.
Aunque no seas músico, seguro que has oído hablar del problema de la “papilla de
sonido” que inevitablemente ocurre en algunas salas de grabación y provoca que todos los
miembros de la banda suban sus instrumentos constantemente. Mediante una
configuración estratégica de la sala y con las herramientas adecuadas, este efecto puede
ser rebajado considerablemente.
El hecho de que el sonido se mueva como una onda implica que los espacios deben ser
adaptados en su forma, su aislamiento y los materiales de la superficie. Hay dos elementos
principales a considerar: absorción y difusión.
La espuma acústica piramidal es muy adecuada para crear el efecto de absorción. Los
absorbentes son una especie de esponja de sonido que evitan que el sonido se refleje
desde una superficie dura. El reflejo del sonido es el responsable de que las voces y
sonidos en general suenen metálicos o difusos, perdiendo claridad en su definición.
Por su parte, la difusión evita que las ondas de sonido se agrupen, para que no se
originen puntos calientes o nulos en una habitación. Lo que hacen es distribuir el sonido
entrante de manera uniforme en diferentes direcciones. Esto evita reflejos duros y
molestos, como los denominados ecos de aleteo. Para tratar con los diversos efectos del
sonido, también debes dominar una serie de conceptos centrales que puedes descubrir
pulsando en estas pestañas:

Conceptos básicos
La frecuencia de un audio digital es el número de vibraciones por segundo. Se mide en
hercios (Hz).
El umbral de frecuencias que el oído humano puede percibir está entre los 20 Hz y los 20 kHz.
La amplitud, intensidad o volumen del audio digital es la cantidad de fuerza o energía de un
sonido.
La medida de la amplitud es logarítmica y se hace en decibelios (dB). Subir la amplitud en 3 dB
duplica la potencia de un sonido.
FR E CU E NCIA A MPL IT U D R A NGO DINÁ MICO A NCH O DE B A NDA
FR E CU E NCIA A MPL IT U D R A NGO DINÁ MICO A NCH O DE B A NDA
El rango dinámico es la diferencia existente entre el mínimo valor y el máximo valor que puede
tener el sonido digital.
El ancho de banda es la diferencia entre las frecuencias en las que se produce una caída de la
amplitud del sonido determinada.
Los ruidos son perturbaciones o sonidos aleatorios que proceden de diversas fuentes y que
distorsionan o enmascaran el sonido fundamental.
FR E CU E NCIA A MPL IT U D R A NGO DINÁ MICO A NCH O DE B A NDA
FR E CU E NCIA A MPL IT U D R A NGO DINÁ MICO A NCH O DE B A NDA
FR E CU E NCIA A MPL IT U D R A NGO DINÁ MICO A NCH O DE B A NDA
Los ruidos se miden en decibelios.
C O NT I NU A R
No dejes de ver este vídeo para profundizar en los conceptos básicos relacionados con el
audio digital. A lo largo de este epígrafe los mencionaremos constantemente, así que
procura tenerlos siempre presentes.
Para ayudarte a afianzarlos, en la siguiente pantalla deberás responder una serie de
preguntas.
¡Dale al play!

Conceptos de audio digital


Fuente de vídeo: https://www.youtube.com/watch?v=tTbzGK_vjX8
C O NT I NU A R
Autoevaluación
Pregunta
01/03
¿A qué tipo de señal convierte el micrófono la señal acústica?
Señal de vídeo.
Señal binaria.
Señal eléctrica.
Señal óptica.
Pregunta
02/03
¿Qué rango de frecuencias tiene una señal audible por el oído humano?
Entre 10 Hz y 10 kHz.
Entre 20 Hz y 20 kHz.
Entre 30 Hz y 30 kHz.
Entre 40Hz y 40kHz.
Pregunta
03/03
Cuanta menor frecuencia más agudos son los sonidos que se generan.
Verdadero.
Falso.

Calidad del audio digital: profundidad de bits


La profundidad de bits de una grabación digital indica el número de dígitos que se emplean
para almacenar cada una de las muestras tomadas de la señal analógica.
Por ejemplo, el formato estándar de audio CD tiene una profundidad de bits de 16 bits. Es
decir, el valor tomado en cada una de las muestras es almacenado en 16 bits. Mientras mayor
sea la profundidad de bits, mayor será la calidad del sonido, aunque por otro lado también
aumentará el tamaño del archivo.
C O NT I NU A R
Generalmente se considera que un audio de alta definición tendrá un mínimo de 24 bits
de profundidad de bits y una velocidad de muestreo mínima de 96 kHz.
Esta velocidad con la que se van tomando las muestras es la frecuencia de muestreo. Tal
frecuencia determina las muestras capturadas de la onda analógica en un segundo para
poder convertirla a digital. Se indica en ciclos completos por segundo o hercios. Pero,
para que pueda reproducirse una frecuencia determinada, es necesario que la velocidad
de muestreo sea, al menos, el doble de la frecuencia según el teorema de muestreo de
Nyquist-Shannon.

Calidad del audio digital: frecuencia de


muestreo
La calidad de un CD suele tener una velocidad de muestreo de 44,1 kHz, es
decir, 44.100 muestras por segundo, por lo que permitirá reproducir
frecuencias de hasta 22.050 hercios, un valor algo superior al límite del
umbral de audición humano, que es de 20.000 hercios.
C O NT I NU A R
de bits Profundidades y velocidades de
muestreo más habituales
¿Quieres conocer las profundidades de bits y de las velocidades de muestreo más habituales?
Fíjate atentamente en estos dos cuadros porque te ayudarán a entender muchos de los
conceptos con los que vamos a trabajar a lo largo de esta unidad. Te servirán de referencia cada
vez que se mencionen datos sobre calidad del sonido, frecuencias, profundidad de bits, etc.
Velocid
ad de
muestr
eo
Rango
de
frecuen
cias
Nivel de
calidad
Profundi
dad de
bits
Valores
de
amplitu
d
Rango
dinámic
o
Nivel
de
calid
ad
11.025
Hz
0–
5.512 Hz
Calidad
baja de
radio AM
8 bits 256 48 dB
Telef
onía
22.050
Hz
0–
11.025
Hz
Prácticame
nte radio
FM
16 bits 65.536 96 dB CD
32.000
Hz
0–
16.000
Hz
Mejor que
la radio FM
24 bits
16.777.2
16
144 dB DVD
C O NT I NU A R
Velocid
ad de
muestr
eo
Rango
de
frecuen
cias
Nivel de
calidad
Profundi
dad de
bits
Valores
de
amplitu
d
Rango
dinámic
o
Nivel
de
calid
ad
44.100
Hz
0–
22.050
Hz
CD 32 bits
4.294.96
7.296
192 dB
Ópti
ma
48.000
Hz
0–
24.000
Hz
DVD
estándar
96.000
Hz
0–
48.000
Hz
DVD de
gama alta
Al proceso de digitalización del sonido real se le conoce como muestreo y se realiza
mediante conversores de señal analógica a digital (ADC). Estos dispositivos toman
muestras del sonido con una determinada frecuencia y tales muestras son convertidas
en números discretos que serán posteriormente guardados en el computador.
El proceso contrario al del muestreo es la conversión de señal digital a analógica de la
que se encargan los circuitos conversores de señal digital a analógica (DAC). Estos
conversores transformarán los números almacenados en el ordenador de vuelta a una
señal eléctrica, para ello, se deberán filtrar para poder obtener una señal válida.
"Archivo:Discrete concentration curve.png" de Jens Liebenau bajo licencia CC BY-SA 3.0

Muestreo
C O NT I NU A R
Aunque la grabación de la que dispongas sea de buena calidad, lo cierto es
que la calidad del sonido obtenido de una tarjeta de muestreo dependerá
de la calidad de los filtros. Si los filtros no tienen la calidad suficiente, se
provocará un nivel de ruido de fondo que hará inútiles los datos de audio en
entornos profesionales.
Al comienzo de este epígrafe, has aprendido que es necesario tener las condiciones
adecuadas para realizar una buena grabación de sonido. Para llevar a cabo la grabación
de audio se deben convertir las compresiones y expansiones de las moléculas en el
aire, es decir, las ondas sonoras, en tensiones eléctricas. Esas variaciones de tensión
capturadas son analógicas, por lo que varían de un modo idéntico a las variaciones de
densidad de las moléculas en el aire. Pero esa información analógica deberá convertirse
en digital para poder procesarla a través de un dispositivo informático. Para ello, hay que
llevar a cabo una conversión de analógico a digital. El audio digital será una simplificación
de la forma de onda analógica, representada por una serie de números binarios.

Transformación digital del sonido.


Cuantificación
Para la conversión del sonido en dígitos utilizamos dos procesos: el
muestreo y la cuantificación. Ya sabes que el muestreo es tomar muestras
de la señal con una periodicidad concreta. Tras ello, se debe asignar un
valor numérico arbitrario a cada una de estas muestras, lo que constituye
la cuantificación.
C O NT I NU A R
Gracias a este vídeo podrás comprender mejor los conceptos que acabas de estudiar en
las pantallas anteriores. Comprobarás cómo se convierte una señal de audio analógica en
una digital y qué quieren decir valores como 16 bits o 44 kHz cuando se habla de audio.
Además, conocerás la cuantificación PCM y su papel en la digitalización del sonido.
Seguro que te aporta una información realmente valiosa sobre la que tendrás que
responder a unas preguntas en las siguientes pantallas.

Audio digital explicado: cuantificación, PCM,


bits y hercios
Fuente de vídeo: https://www.youtube.com/watch?v=H2QWiuojp5E
C O NT I NU A R
Autoevaluación
Pregunta
01/03
¿Quién creó en 1937 la modulación por impulsos codificados?
Alec Reeves.
Rob Stevens.
Tom Waits.
Karlheinz Brandenburg.
Pregunta
02/03
¿Con qué nombre se conoce a la cantidad de muestras tomadas por segundo?
Profundidad de bits.
Velocidad de muestreo.
Ancho de banda.
Rango dinámico.
Pregunta
03/03
¿Cuál de las siguientes opciones corresponde con las características del audio en
un CD?
8 bits y 22.000 hercios.
16 bits y 44.000 hercios.
32 bits y 88.000 hercios.
8 bits y 96.000 hercios.
El audio digital ofrece muchas ventajas frente al analógico, por ello es muy práctica la
conversión de analógico a digital. A continuación, se enumeran algunas de las más
relevantes ventajas que ofrece el audio digital:
El audio digital, hoy en día, tiene una calidad muy superior a la del audio analógico.
El audio digital es mucho más sencillo de manipular y editar, además de ofrecer
muchas más posibilidades.
Ni el uso ni el paso del tiempo afectan a la calidad de los sonidos grabados en
soporte digital, aunque algunos soportes, como los CD, son delicados y se deterioran
con facilidad.
El almacenamiento de archivos de audio digital puede ser ilimitado mientras que el
audio analógico se encuentra limitado por el espacio físico.
Es posible llevar a cabo tantas copias del mismo archivo de audio digital como desees
sin que ello suponga que se deterioren o sufran alguna pérdida de la calidad original.
Además de estas ventajas, ten en cuenta que con el actual estado de la tecnología puedes
perfectamente trabajar con profundidades de 24 bits y con frecuencias de muestreo
desde 96 kHz hasta los 192 kHz. Estos son los formatos empleados generalmente en los
estudios de grabación.
El límite de la calidad que puede ofrecer el audio digital está determinado por las
técnicas empleadas en los estudios de grabación. También influyen bastante los
conversores D/A empleados en las fuentes digitales domésticas, que emplean señales de
24 bits/192 kHz o incluso tecnologías más avanzadas que permiten incluso llegar a los 32
bits.

Ventajas del audio digital


C O NT I NU A R
Estos datos, lo que vienen a indicar, es que cualquiera puede disfrutar en su
casa de un sonido de alta calidad, muy similar a la obtenida en los estudios
fueron editados y mezclados.
Los formatos que te permiten almacenar las calidades de formato digital son las
grabaciones sobre blu-ray disc o ciertas descargas de alta resolución de sitios web
especializados como HDtracks. En el caso del Direct Stream Digital (DSD), su condición de
sistema de codificación monobit hace que calcular su equivalencia con el PCM, en
términos de resolución, sea menos intuitiva, aunque se llega a la conclusión de que, en lo
que a resolución se refiere, se puede obtener la equivalente a unos 22 bits. Lo que no
implica que una grabación en PCM con una profundidad de bits de 24 sea mejor.
Además, existe otro formato, tan solo conocido por los más exigentes, llamado Digital
eXtreme Definition (DXD), desarrollado en el ámbito profesional para subsanar las
deficiencias del DSD en lo que a edición se refiere. Se plasma en una señal PCM de 24 bits
con un muestreo de 352’8 kHz, es decir, 8 veces la superior a la calidad estándar del CD.

El audio digital en la actualidad


C O NT I NU A R
A pesar de la gran calidad que se puede obtener en la grabación de audio,
ten en cuenta que hoy en día los estudios de grabación tienen un tope en la
cuantificación de 24 bits, así que no es nada práctico comprar
convertidores D/A que operen con arquitecturas de 32 bits o más.
Acabas de estudiar que tras llevar a cabo una grabación digital, el audio obtenido puede
ser almacenado en varios formatos. Ahora bien, cada uno de ellos tiene una manera
diferente de equilibrar la calidad del sonido con el tamaño del archivo digital resultante.
No es práctico, por ejemplo, efectuar grabaciones con una calidad muy alta que no
alcancen reproductores de menor calidad.
Cada vez son más los distintos dispositivos para el almacenamiento digital mediante
dispositivos portátiles con una gran capacidad para contener una gran cantidad de
gigabytes dedicados a audios digitales de muy alta calidad. Hoy en día incluso puedes
grabar gran cantidad de audio con muy buena calidad en tu dispositivo móvil.

Tamaño del audio digital


Seguro que te ha pasado que, al grabar tu música favorita en una tarjeta, en
la memoria del móvil o en una memoria USB obtienes archivos de gran
tamaño que limitan la portabilidad real de esos archivos de audio.
C O NT I NU A R
Para evitar que con pocos archivos de audio se llene la memoria de los dispositivos de
quienes quieren reproducirlos, se usan formatos de audio que aplican algún tipo de
compresión, lo cual reduce el tamaño de los archivos obtenidos permitiendo almacenar
muchos más archivos en el mismo espacio.
El modo empleado para comprimir el audio, y también para descomprimirlo a la hora de
reproducirlo, afectará a la calidad del sonido final que escuches. Existen formatos de
archivo en los cuales se pierde información. Estos, reciben el nombre de formatos con
pérdida. Por otro lado, aquellos formatos que mantienen toda la información del sonido o
permiten reconstruirla para reproducirla reciben el nombre de formatos sin pérdida.

Compresión del audio digital


Por lo tanto, existen varios formatos distintos en función de si no tienen
ningún tipo de compresión (WAV, CD-A y MIDI), si son comprimidos con
pérdidas (MP3, WMA y OGG) o si son comprimidos sin pérdidas (AIFF, FLAC y
MP3HD).
C O NT I NU A R
Base de datos colaborativa de audios digitales:
FreeSound
El sitio web Freesound tiene como objetivo crear una base de datos colaborativa de
fragmentos de audio lo más grande posible, generados con licencias Creative Commons. De
este modo, podrás usar cualquier audio con muestras, grabaciones, pitidos, etc. que encuentres
en esa web. Con Freesound no solo podrás encontrar una gran diversidad de distintos tipo de
audio sino que además te posibilitará:
• Buscar audios digitales usando palabras clave o buscar sonidos similares a alguno que te
interese en concreto.
• Podrás descargar todos los audios digitales que quieras, pero también podrás subir los que
tú generes, de ese modo también podrás aportar tu granito de arena a este gran repositorio
de audios digitales, siempre bajo licencia de Creative Commons.
• Podrás conocer e interactuar con otros artistas o generadores de audios digitales, quizás
incluso ¡colaborar con ellos en alguna pieza musical!
La intención desde FreeSound es la de crear una gran base de datos de libre uso de sonidos,
que de igual manera se puedan emplear en investigaciones científicas. A veces, las
C O NT I NU A R
instituciones de investigación del ámbito del audio tienen muchos problemas a la hora de poder
encontrar audios con la licencia adecuada para probar sus algoritmos, por lo que este tipo de
plataformas soluciona este problema.
Siempre que respetes las pautas legales será de uso gratuito. Algunos de los sonidos no podrán
ser empleados para un uso comercial y muchos otros permitirán que los uses de cualquier modo,
siempre y cuando hagas un reconocimiento de su autor.

Recapitulación
Hasta este momento, has aprendido que el sonido en sí es una onda sonora que se
transmite a través del aire. Como ya sabes, originalmente se trata de una señal analógica
que podrás procesar de un modo mucho más potente y flexible al convertirla en digital.
No solo eso, sino que ahora también conoces que existe una serie de conceptos básicos
relativos al audio digital que debes tener en consideración por su importancia: la
frecuencia, la amplitud, el rango dinámico, el ancho de banda y los ruidos.
Has descubierto también que la profundidad de bits de una grabación digital indica el
número de dígitos que se emplean para almacenar cada una de las muestras tomadas de la
señal analógica.
Además, has aprendido que al proceso de digitalización del sonido se le conoce como
muestreo y se realiza mediante conversores de señal analógica a digital (ADC).
Has descubierto también que para llevar a cabo la grabación de audio se deben convertir
las ondas sonoras, en tensiones eléctricas.
También sabes ahora que con el actual estado de la tecnología puedes trabajar
perfectamente con profundidades de 24 bits y con frecuencias de muestreo desde 96 kHz
hasta los 192 kHz.
Para finalizar, has reflexionado sobre el hecho de que, el modo empleado para comprimir el
audio, y también para descomprimirlo a la hora de reproducirlo, afectará a la calidad del
sonido final que escuches.
CONT I NU A R
Autoevaluación
Pregunta
01/03
¿Cuál es nombre que recibe la diferencia entre las frecuencias en las que se
produce una
caída de la amplitud del sonido determinada?
El ancho de banda.
El rango dinámico.
La amplitud.
La intensidad.
Pregunta
02/03
¿Cuántos bits de profundidad tendrá como mínimo un audio de alta definición?
8 bits.
16 bits.
24 bits.
32 bits.
Pregunta
03/03
¿Cuál de los siguientes es un formato de audio comprimido sin pérdidas?
MP3.
AIFF.
WAV.
MIDI.
Existe una gran variedad de formatos de audio digital que podrás emplear para tus
propias grabaciones. Cada uno de ellos tendrá asociadas sus propias especificaciones
técnicas, es decir, sus velocidades de muestreo y sus bits de profundidad. A menos
que seas un experto en audio digital, la elección del formato de audio más adecuado para
tus necesidades puede serte complicada.
Por eso, en este epígrafe podrás analizar diferentes aspectos relacionados con los
formatos de audio digital que te ayudarán a decidirte. Además, conocerás Audacity, una
herramienta de software libre que te permitirá grabar y editar archivos en distintos
formatos, mezclar distintas pistas de audio, modificar sus tonos y velocidades e incluir
efectos sonoros.

21. La señal de audio como archivo


Todos los formatos de audio tienen un par de cifras que determinan sus características
esenciales. Puedes encontrar, por ejemplo, sonidos de 32 bits y 192 kHz y otros con 24 bits
y 96 kHz. Estos números, tal y como has visto en el anterior epígrafe, indican la
profundidad de bits y la frecuencia de muestreo, es decir, la cantidad de información que
transmiten los distintos formatos y su calidad. Así, si escuchas audio en un CD, o en una
transmisión de Spotify, estarás escuchando formatos de 16 bits y 44,1 kHz.
Hoy en día, además, hay que tener presente que buena parte de la música que escuchas
seguramente suene a través de plataformas online como Spotify, Tidal, o Apple Music, por
lo que es interesante que conozcas y distingas los formatos empleados para guardar
archivos de audio en discos duros como MP3, WAV o AIFF, de aquellos que se utilizan en
servicios de transmisión online como pueden ser los OGG, FLAC o ALAC.
Otro aspecto a tener en cuenta es que al grabar audio digital se generan archivos de gran
tamaño, algo que no es práctico, sobre todo si nuestro almacenamiento no puede dar
cabida a un número de canciones considerable. Es por ello que la mayoría de los formatos
de audio usa algún tipo de compresión, permitiendo reducir el tamaño de los archivos
generados y, por tanto, poder emplear de forma más eficiente el almacenamiento
disponible.
C O NT I NU A R
Puedes trabajar tus audios digitales con Audacity, un editor de audio y
grabador de Linux, gratuito y fácil de usar, que también podrás usar con
Windows, Mac OS X y otros sistemas operativos. Te permitirá grabar,
reproducir, importar y exportar datos en una gran cantidad de formatos.
Para ello, descarga Audacity desde el sitio oficial, donde encontrarás las
diversas versiones en función del sistema operativo sobre el que quieras
usarlo.
Como has visto en el epígrafe anterior, los archivos de audio digital pueden guardarse en
una gran diversidad de formatos disponibles. El formato que escojas dependerá de las
características de los archivos y del uso que vayas a darles.
El primer paso es conocer la clasificación de los tipos de formato en cuanto a si
comprimen o no su información.
Los formatos de audio digital comprimidos son los que llevan a cabo una reducción
de sus tamaños de archivo. Dentro de estos formatos, se establecerá de nuevo una
división entre aquellos cuya reducción tiene pérdida de datos y aquellos que realizan
la reducción sin pérdida de datos.

Los formatos de audio digital


Para la reducción de los archivos de audio se emplean algoritmos de
compresión conocidos como códecs de audio.
La norma de percepción de ruido (PNS) es una técnica que se emplea para poder reducir
el tamaño de los archivos de audio, es decir, para poder comprimirlos. Se basa en las
peculiaridades y capacidades del oído humano, de modo que se centra en lo que es capaz
de percibir nuestro oído y desecha aquello que no es capaz de percibir.
Casi todos los programas de compresión de audio te permitirán configurar las
propiedades deseadas para equilibrar la calidad del archivo resultante de acuerdo con
su tamaño resultante.
C O NT I NU A R
Los formatos de audio digital sin comprimir producen archivos que tienen un tamaño
mucho mayor. Estos formatos son empleados generalmente en los CD de audio
comerciales y ofrecen una resolución muy alta, ya que cuentan con toda la información
sin desechar, potenciar, ni agrupar los rangos de frecuencias.
Algunos de los formatos de audio sin comprimir más populares son WAV, MIDI, y CD-A. En
estas pestañas se repasan los detalles más importantes de cada uno de ellos:
WAV o Wave Audio Format
Creado para el entorno de Microsoft en 1995, fue el estándar de grabación para la música de los
CD comerciales. Este formato admite tanto archivos estéreo como mono y diversas velocidades
de muestreo y resolución. Su extensión es *.wav.
Formatos de audio digital sin compresión
W A V CD-A MIDI
CD-A o Compact Disc Audio
Se trata del tipo de archivo de sonido digital que emplean los CD de audio comerciales en la
actualidad. Se trata de una derivación del formato WAV y solo pueden ser reproducidos desde
un CD-ROM. Su extensión es *.cda.
MIDI o Musical Instrument Digital Interface
Realmente no es un tipo de formato de archivos digitales de sonido, más bien es una
descripción musical de un sonido. Se le considera como el formato estándar en música
electrónica y su extensión es *.mid.
W A V CD-A MIDI
W A V CD-A MIDI
C O N T I NU A R
Los archivos de audio digital comprimidos se clasifican en dos categorías, aquellos que
han sufrido una compresión que les ha causado pérdidas y los que, aún habiendo sido
comprimidos, no han tenido pérdida alguna.
La compresión con pérdida indica que se ha empleado un algoritmo que usa una cantidad
menor de información y que el archivo resultante difiere del original. En estas pestañas
se resaltarán las características de mayor interés de los formatos de audio digital
comprimidos con pérdida más populares:
MP3 o MPEG1 Audio Layer 3
Se trata del formato de compresión más extendido y usado. Su pérdida de información pasa
prácticamente desapercibida por el oído humano. Puede llegar a reducir su tamaño hasta 15
veces respecto al original conservando una gran calidad.

Formatos de audio digital comprimido con


pérdida
MP3 W MA O GG
WMA o Windows Media Audio
Es el formato de compresión de audio de Microsoft ideado para Windows Media Player. Es
competidor directo en calidad y en compresión del MP3 y su extensión es *.wma.
Recientemente, Microsoft ha creado una versión del formato WMA con compresión, pero en este
caso, sin pérdida.
OGG Vorbis
Se trata de un formato contenedor desarrollado en código abierto, de libre distribución y sin
patente. Muchos reproductores multimedia incluyen los códecs de OGG que puedes descargar
libremente del sitio web Xiph.org. Su extensión es *.ogg.
MP3 W MA O GG
MP3 W MA O GG
C O N T I NU A R
Los archivos de audio digital comprimidos sin pérdida de información son aquellos
archivos que, aún padeciendo un proceso de compresión, el resultado respecto a la
calidad del audio final es igual al original. Este tipo de formatos permite reproducir
exactamente el sonido del archivo original, pero empelando archivos con un tamaño algo
menor.
En estas pestañas se enumeran algunos de los formatos más populares de archivos de
audio digital comprimido sin pérdida:
Audio Interchange File Format (AIFF)
Este es el formato estándar para el intercambio de audio y su venta para ordenadores. Es
muy popular para usuarios de Amiga y Apple. El formato AIFF como tal, no está comprimido, pero
sí su variante AIFF-C. Su frecuencia de muestreo es de 44.1 kHz y su resolución de 16 bits. Su
extensión es *.aiff o *.aifc.
Formatos de audio digital comprimido sin
pérdida
A IFF FL A C MP3 H D
Free Lossless Audio Codec (FLAC)
Este formato es la alternativa al formato MP3 sin pérdida de calidad. Forma parte del Proyecto
OGG y es de libre distribución. Reduce hasta un tercio del tamaño original y su extensión es
*.flac.
MP3HD
Es la variante de MP3 pero en alta calidad y sin pérdida de información. Su frecuencia de
muestreo es de 44.1 kHz y posee una profundidad de bits de 16 bits en estéreo. Su extensión
es *.mp3hd.
A IFF FL A C MP3 H D
A IFF FL A C MP3 H D
C O N T I NU A R
Al ser un formato de archivo de audio digital sin comprimir, sus archivos ocupan
bastante espacio. Se creó en 1995 para el entorno de Microsoft y se trata del estándar
de grabación para los CD de música comerciales. Es parecido al AIFF aunque
tomando en cuenta las peculiaridades de Intel.
Soporta la mayoría de los códecs de audio y se usa principalmente con PCM no
comprimido. Se usa profesionalmente y para obtener calidad de CD se graba sonido con
una frecuencia de muestreo de 44.100 Hz y una profundidad de 16 bits. Así, cada minuto
de grabación vendría a ocupar aproximadamente 10 megabytes.
Una de sus mayores desventajas es que tan solo permite grabar archivos de un
máximo de 4GB que vendrían a ofrecer una duración aproximada de unas 6 horas y

Wave Audio Format (WAV)


media de audio con calidad CD.
El formato WAV admite archivos con sonido estéreo y mono, además permite diversas
velocidades de muestreo y resolución. Como ya has visto, su extensión es *.wav.
Este formato raramente se emplea para compartir música en Internet, ya que existen otros
formatos de audio mucho más adecuados, como son los formatos comprimidos sin
pérdida porque ofrecen tamaños de archivo mucho más reducidos.
C O NT I NU A R
Este formato es el tipo de archivo de audio digital empleado por los CD de audio
comerciales en la actualidad. Se trata de una derivación del formato WAV y tan solo
se pueden reproducir desde un CD-ROM, ya que es el formato nativo de este tipo de
discos.
Este tipo de formato utiliza una frecuencia de muestreo de 44.1 kHz y una profundidad de
16 bits en dos canales para poder ofrecer sonido estéreo. Así que necesitas guardar
88,200 bytes de datos por cada segundo si grabas con sonido mono ((16/8) x 44,100,
teniendo en cuenta que 1 byte = 8 bits). Si deseas hacerlo en estéreo necesitarás el doble
de espacio.

Compact Disc Audio (CD-A)


Con estos datos, has de ser consciente de que se acabarían necesitando aproximadamente 10
Mb de datos para cada uno de los minutos de duración en estéreo. Esto acaba resultando en
ficheros de un gran tamaño que hacen que cobren gran importancia los formatos con
compresión.
Además, si deseas almacenar este formato, deberás previamente convertirlo a otro
formato, ya que el formato CD-A no puede ser reproducido desde el disco duro de un
ordenador, tan solo puede ser reproducido desde su propio soporte en CD. Su extensión
es *.cda.
Al no estar comprimido ocupa mucho espacio y tendrá una capacidad aproximada para 74
minutos. El formato digital del sonido se encuentra dentro de la estructura física del
track o pista.
C O NT I NU A R
El formato Musical Instrument Digital Interface (MIDI) en realidad no es un formato de
archivos de audio digitales, se trata de una descripción musical de un sonido. El audio
resultante estará en función directa del reproductor MIDI que se emplee.
El formato MIDI guarda información sobre el instrumento que se use y el modo de tocarlo.
Se le considera el formato estándar para la música electrónica, muy útil, por tanto, para
trabajar con dispositivos como sintetizadores musicales o tarjetas de sonido. El formato
MIDI almacena información de diversos tipos de datos que pueden indicar
notas particulares, instrumentos o valores de controladores. Los datos pueden ser
interpretados de diversos modos y ser empleados con objetivos diferentes a la música.
Además, el protocolo incluye especificaciones complementarias de hardware y software.
Su extensión es *.midi o *.mid.

MIDI
C O NT I NU A R
¿Sabías que con este formato es muy sencillo reproducir y componer
música? Sus archivos son muy ligeros y pueden almacenar una gran
cantidad de melodías complejas.
Su origen se remonta a la aparición del sintetizador digital, que trajo consigo el problema
de la incompatibilidad de los sistemas que empleaba cada uno de los fabricantes. Surgió
la necesidad de crear un lenguaje común para los distintos instrumentos
electrónicos, de ahí nació el estándar MIDI y su primera especificación se publicó en 1983.
MIDI realmente es el equivalente a una partitura, donde están las instrucciones en
valores numéricos sobre cuándo se debe generar cada nota de sonido y las características
que esta debe tener. De modo que, al enviar dicha partitura, el aparato la transformará en
música completamente audible.

Origen de MIDI
Hoy en día, la gran mayoría de los creadores musicales usan el protocolo
MIDI para editar las partituras y la instrumentación previa a la grabación
con instrumentos reales.
C O N T I NU A R
No dejes de visualizar este vídeo, ya que gracias a él podrás repasar los conceptos que has
estudiado hasta ahora y descubrir algunos de los que estudiarás en las siguientes
pantallas.
También te ayudará a elegir con mejor criterio con qué formato de audio trabajar para
obtener una mejor calidad en tus resultados.
En las próximas pantallas, tendrás que resolver una serie de preguntas relacionadas con
este contenido, así que permanece atento, ya que seguro que te aporta una información
realmente valiosa.

Los formatos de audio digital: WAV, AIFF, MP3,


AAC, FLAC, ALAC
Fuente de vídeo: https://www.youtube.com/watch?v=qbc0iGkPM24
C O N T I NU A R
Autoevaluación
Pregunta
01/03
¿Cuál de los siguientes no es un formato de compresión con pérdida?
AAC.
MP3.
Al RS232.
AIFF.
Pregunta
02/03
¿Qué frecuencias de muestreo se suelen emplear generalmente?
Superiores a 64 Kbps.
Superiores a 128 Kbps.
Superiores a 320 Kbps.
Ninguno de los anteriores.
Pregunta
03/03
Los formatos de compresión sin pérdida no reducen la calidad del audio.
Verdadero.
Falso.
Este formato fue creado en 1996 por Thomson Multimedia y el Instituto Fraunhofer de
Alemania. Es el formato de compresión más extendido y popular en todas sus variantes.
Además, la pérdida de calidad que supone la compresión del formato MP3 pasa
prácticamente desapercibida por el oído humano. La compresión de los archivos que
produce el formato MP3 puede llegar a reducir hasta 15 veces el tamaño original del
archivo, conservando una calidad muy cercana a la del archivo original.
Suelen tener distintas frecuencias de muestreo que podrás configurar, las más habituales
son 128 kbps, 160 kbps y 192 Kbps.

MP3
________________ ¿Te estás preguntando cómo es posible reducir hasta 15 veces el tamaño
original sin perder calidad de sonido? La respuesta es que los ratios de
compresión desechan determinados sonidos que presumiblemente no son
perceptibles por el oído humano.
C O N T I NU A R
Este formato es considerado como el estándar para el uso de streaming, el más adecuado
en Internet y para los dispositivos de audio portables. El reducido tamaño de sus
resultados unido a su calidad más que aceptable, han hecho que este formato se expanda
y sea muy popular como sistema de transmisión de música. De hecho, aproximadamente 1
minuto de audio en un archivo con formato MP3 ocupa 1 MB y su calidad es poco inferior
a la calidad de CD.
La calidad de CD tendría una frecuencia de muestreo de 128 Kbps y con el formato MP3,
como viste en la pantalla anterior, podrás escoger la frecuencia para obtener el resultado
deseado, valores comprendidos entre los 8 Kbps y los 320 Kbps. La frecuencia de
muestreo de los archivos con formato MP3 están en el rango comprendido entre los 16 Hz
y los 48 KHz, y tan solo soporta 2 canales para el sonido estéreo.

Características del formato MP3


No olvides que, mientras mayor sea la transmisión de datos, mayor será su
calidad, pero mayor también será el espacio necesario para almacenar el
archivo resultante.
C O N T I NU A R
En este vídeo, Marcelo Apablaza explica el procedimiento que debes seguir para convertir
las antiguas casetes analógicas al formato digital MP3.
No dejes de verlo, porque seguro que te ofrece información realmente valiosa, además, en
la siguiente pantalla tendrás que responder a una serie de preguntas sobre su contenido.
¡Dale al play!

Convertir casetes a formato digital MP3


Fuente de vídeo: https://www.youtube.com/watch?v=yQLjSISU_do
C O N T I NU A R
Autoevaluación
Pregunta
01/03
¿Quién inventó la casete y cuándo?
Philips en 1963.
JVC en 1966.
Sony en 1973.
Apple en 1986.
Pregunta
02/03
¿Cómo se debe contectar el walkman con el ordenador para convertir a mp3 lo
grabado
en un casete?
Un cable jack macho-macho estéreo.
Un cable coaxial.
Conexión wifi.
Un cable ethernet.
Pregunta
03/03
¿Qué herramienta de software se emplea en el vídeo para capturar el audio?
Windows Music Maker.
Audacity.
Vegas Pro.
iTunes.
WMA es el formato de compresión de audio de la empresa Microsoft. Fue creado para su
reproducción con el programa Windows Media Player y es competidor directo en calidad y
compresión del formato MP3. Su extensión es *.wma. Como has visto anteriormente, en la
actualidad, Microsoft ha desarrollado otra variante del formato WMA con compresión, pero
esta nueva versión está mejorada y no tiene pérdida.
Dentro del formato WMA existen cuatro formatos con códecs distintos. El códec WMA
original fue concebido como competidor del MP3 y del RealAudio. Tras él, se desarrolló
WMAPro, un códec más moderno y avanzado que soporta audio surround y es de alta
resolución. Existe otra versión del formato de compresión sin pérdida, WMA Lossless, que
comprime audio sin perder definición. Y otra variación llamada WMA Voice, que está
centrada en el contenido hablado, aplica compresión y está diseñado para tasas de
muestreo muy bajas.

WMA
C O NT I NU A R
Se han criticado mucho las repetidas afirmaciones de Microsoft sobre la
calidad de su códec en relación con otros formatos. Un artículo de MP3
Developments afirma que no se puede comparar el sonido de un CD y un
archivo de audio WMA a 64 kbit/s.
El proyecto Ogg Vorbis fue iniciado en 1993 por Chris Montgomery, fundador y directo r
técnico de la Fundación xiph.org, que inicialmente pretendía programar un paquete d e
compresión de audio simple durante un fin de semana. Así comenzó el proyecto de est e
formato contenedor desarrollado en código abierto, de libre distribución y sin patente .
Eso es lo que más diferencia a este formato del resto de archivos de audio comprimidos.
Los archivos con formato OGG tienen una gran calidad y es posible reproducirlos e n
multitud de dispositivos. A pesar de estar mucho menos extendido que el resto d e
formatos, suele dar en muchos casos mejores resultados. Su extensión es *.ogg.

OGG
Son muchos los reproductores multimedia que lo emplean al estar libre de
patentes como, por ejemplo, el reproductor VLC que incluye los códecs de
OGG. Estos códecs están disponibles para descargarlos en el sitio web
Xiph.org.
C O N T I NU A R
Este formato emplea tecnologías similares a MP3 y AAC, con lo cual produce la misma
calidad de AAC y WMA, siendo superior a la de MP3. Se creó para reducir los costos de la
música legal y de los reproductores de música. Es uno de los formatos preferidos por los
desarrolladores de juegos y multimedia, aunque es ignorado por la mayoría de los
reproductores musicales, motivo por el que aún no se ha popularizado lo suficiente.
Permite codificar con varias calidades, desde la calidad de telefonía de 8 kHz hasta la
calidad de alta definición de 192 KHz. Sus frecuencias de muestreo disponibles tienen un
rango que va desde los 32 Kbps hasta los 500 Kbps.

Características de OGG
Este formato ofrece una mejor fidelidad de sonido entre 8 KHz y 48 KHz,
mejor que el MP3, y sus archivos ocupan menos espacio. Flaquea en cuanto
a compatibilidad, no es aún un formato popular, aunque cada vez son más
los dispositivos y programas que lo reconocen y pueden reproducirlo.
C O N T I NU A R
Audio Interchange File Format es el formato estándar para el intercambio de audio y su
venta en ordenadores. El formato fue desarrollado por Apple Inc. en 1988 basándose en el
IFF1 de Electronic Arts. Es un formato muy popular entre los usuarios de Amiga y Apple. El
formato AIFF como tal no está comprimido, pero sí su variante AIFF-C.
Los archivos de este formato tienen un gran tamaño al no perder información en su
compresión. La frecuencia de muestreo que presentan este tipo de archivos AIFF es de
44.1 kHz y su resolución de 16 bits y a veces incluso de 32 bits. El formato AIFF es uno de
los más empleados a nivel profesional junto a SDII y WAV. Tiene una extensión *.aif,
*.aiff o *.aifc.

Audio Interchange File Format (AIFF)


Permite un rápido procesado de la señal a diferencia de lo que ocurre con
MP3, por ejemplo, pero tiene la desventaja de la cantidad de espacio que
ocupa. Los archivos AIFF aproximadamente emplean 10 MB para cada
minuto de audio estéreo con frecuencias de muestreo de 44.1 kHz y 16 bits.
C O N T I NU A R
El formato Free Lossless Audio Codec es una buena alternativa al formato MP3 sin
pérdida de calidad. Forma parte del Proyecto OGG, siendo, por tanto, de libre
distribución. El proyecto fue iniciado y desarrollado por el programador Josh Colson. La
versión 1.0 fue lanzada en 2001.
Al ser un formato sin pérdida, el archivo ocupa bastante espacio. Aún así la reducción
que produce es de un tercio del tamaño original. Su extensión es *.flac.
El formato es empleado a veces para realizar copias de seguridad de CD de audio y
admite cualquier resolución PCM de 4 a 32 bits, y cualquier frecuencia de muestreo según
la complejidad de la transmisión de audio. Respecto a la frecuencia de muestreo, es
similar a MPEG-2.
El formato FLAC es un formato abierto con licencia libre de derechos de autor y una
implementación de referencia de software libre. Además, dispone de soporte para el
etiquetado de metadatos que incluye información como la portada del álbum, y la
búsqueda rápida.
FLAC no puede guardar datos de coma flotante y posee un soporte limitado en cuanto
a la reproducción en dispositivos portátiles de audio y sistemas de audio de alta
calidad.
En 2003, la Fundación Xiph.org y el proyecto FLAC anunciaron la incorporación de este
códec bajo la bandera de Xiph.org.

Free Lossless Audio Codec (FLAC)


Mike Wren - Archivo:FLAC logo.png, https://wiki.xiph.org/Logos
C O NT I NU A R
MP3HD es la variante del formato MP3 pero sin pérdida de información y con alta
calidad. Posee una frecuencia de muestreo de 44.1 kHz y una resolución de 16 bits en
estéreo. Ofrece una calidad similar a la de un archivo WAV sin compresión. Tiene
compatibilidad con la mayoría de los reproductores de MP3. La extensión de sus
archivos es *.mp3hd.
MP3HD se crea en 2009 por Technicolor, anteriormente conocido como Thomson, como un
competidor sin pérdidas para el popular formato FLAC, Apple Lossless y WavPack. A partir
de 2013, tanto el sitio web MP3HD, como la especificación y el software del codificador ya
no están disponibles y la promoción del formato parece haber sido abandonada. Para
poder reproducir los datos sin pérdida, el usuario debe usar un reproductor mp3HD
compatible con el decodificador. De no ser así tan solo podrá reproducir los datos con
pérdida.

MP3HD
Topspin, un distribuidor de música, fue el primero en ofrecer archivos
MP3HD en 2010, indicando a sus clientes que con ellos podrían disfrutar de
audio sin pérdidas sin abandonar el formato MP3.
C O NT I NU A R
La herramienta Audacity es una aplicación informática multiplataforma de software
libre, distribuida bajo la licencia GPLv2+ y que podrás usar para grabación y edición de
audio. Se trata de un editor de audio compatible con Windows, Mac OS X,
GNU/Linux y otros sistemas operativos.
Fue creada en 1999 por Dominic Mazzoni y Roger Dannenberg en la universidad de
Carnegie Mellon. Fue publicado en SourceForge.net como software libre en el año 2000. Y
a partir de ahí, Audacity comenzaría a hacerse cada vez más popular.
Ofrece una gran cantidad de funciones y posee una curva de aprendizaje que puede
alcanzar hasta niveles profesionales en función de tu interés y necesidad.

Audacity
Audacity es una herramienta muy versátil, que podrá serte de utilidad, tanto si necesitas
elaborar contenidos para un podcast de manera fácil o siendo novato, como si necesitas
editar y mejorar tu maqueta si eres músico y no quieres hacerlo en un estudio de
grabación.
Entre otras muchas funcionalidades que podrás realizar con sencillez en Audacity están
las siguientes:
Capturar y grabar pistas de audio en vivo.
Subir, editar y obtener archivos de audio en diversos formatos como WAV, AIFF, FLAC,
MP2, MP3 y OGG.
Mezclar diversos archivos de audio en distintas pistas.
Variar los tonos y la velocidad de una grabación.
Agregar efectos sonoros a tus grabaciones.
C O NT I NU A R
Aunque en las pantallas siguientes estudiarás en profundidad las utilidades de Audacity,
no está de más que comiences por este vídeo en el que podrás descubrir su historia, su
página web de referencia y acceder a la presentación de su interfaz.
No te lo pierdas, porque seguro que puedes aprender información realmente valiosa
sobre la que tendrás que responder en la pantalla siguiente.
¿Te la vas a perder? ¿No? ¡Pues dale al play!

Instalación e interfaz de la herramienta


Audacity
Fuente de vídeo: https://www.youtube.com/watch?v=CEP_43yrdeA
C O NT I NU A R
Autoevaluación
Pregunta
01/03
¿Cuándo fue creado Audacity?
1999.
2005.
2012.
Ninguno de los anteriores.
Pregunta
02/03
¿De qué está compuesta la interfaz de Audacity?
Controles rígidos.
Módulos empotrables.
Tan solo menús de opciones interactivos.
Ninguno de los anteriores.
Pregunta
03/03
¿Dónde ofrece Audacity la frecuencia del proyecto en hercios?
En la parte superior derecha.
En la parte superior izquierda.
En la parte inferior derecha.
En la parte inferior izquierda.
Las herramientas en Audacity están disponibles a través de las barras de herramientas,
que están habilitadas de forma predeterminada. Si no encontraras alguna de las
funciones que buscas puede que la barra de herramientas correspondiente no esté
visible, con lo que tendrás que acceder a Ver>Barras de herramientas y pulsar el check
junto a la barra de herramientas que deseas habilitar.
Las herramientas principales que puedes encontrar en Audacity a través de su interfaz
son estas que puedes conocer pulsando en las siguientes pestañas:
Con ellas está a tu alcance verificar si el programa está recibiendo la señal de audio en
condiciones óptimas, te permitirá controlar el volumen de la salida a través de los altavoces y
el de entrada mediante el micrófono.

Herramientas de Audacity
H E R R A MIE NTA S DE
ME DICIÓ N
H E R R A MIE NTA S DE
ME Z CL A
H E R R A MIE NTA S DE
E DICIÓ N
H E R R A MIE NTA S DE
CO NT R O L
Podrás combinar distintos archivos de audio y aumentar o disminuir sus volúmenes.
Te permiten realizar cualquier tarea para editar tu archivo de audio, de modo que te posibilitará
cortar, copiar, pegar y silenciar segmentos de la pista de audio. Además, es posible deshacer
o rehacer, acciones muy útiles si cometes algún error. También podrás usar desde esta
herramienta el zoom para ajustar el tamaño de la pista a la pantalla.
H E R R A MIE NTA S DE
ME DICIÓ N
H E R R A MIE NTA S DE
ME Z CL A
H E R R A MIE NTA S DE
E DICIÓ N
H E R R A MIE NTA S DE
CO NT R O L
H E R R A MIE NTA S DE
ME DICIÓ N
H E R R A MIE NTA S DE
ME Z CL A
H E R R A MIE NTA S DE
E DICIÓ N
H E R R A MIE NTA S DE
CO NT R O L
Dentro de esta herramienta encontrarás dos bloques. El primero se centra en las acciones de
cualquier dispositivo multimedia: atrasar, reproducir, grabar, pausar, detener y adelantar.
Mientras que el segundo está compuesto por las siguientes opciones:
Selección. Permite escoger partes o segmentos concretos de la pista de audio.
Envolvente. Con esta herramienta es posible cambiar de forma gráfica el volumen o
amplitud de la pista.
Dibujo. Es parecida a la anterior, pero en vez de cambiar la pista completa, lo hace sobre
cualquier punto tomado de las muestras de la pista.
Zoom. Con ella puedes acercar o alejar de forma dinámica la visualización de las pistas.
Desplazamiento. Posibilita desplazar la pista dentro de su marco temporal, adelantándola
o atrasándola.
Multiherramienta. Hace posible el uso de cualquiera de los controles anteriores en
función de la posición donde esté el cursor.
C O NT I NU A R
H E R R A MIE NTA S DE
ME DICIÓ N
H E R R A MIE NTA S DE
ME Z CL A
H E R R A MIE NTA S DE
E DICIÓ N
H E R R A MIE NTA S DE
CO NT R O L
¿Quieres descubrir de manera práctica el uso de las herramientas de Audacity?
En este vídeo podrás comprobar por ti mismo el funcionamiento de la línea de tiempo de
este programa.
No dejes de verlo porque más adelante deberás responder a una serie de preguntas
sobre su contenido.
¡Dale al play!

Herramientas de Audacity (vídeo)


Fuente de vídeo: https://www.youtube.com/watch?v=EStWDgKsn6o
C O NT I NU A R
Autoevaluación
Pregunta
01/03
¿Qué opción es la recomendada al agregar un archivo a Audacity?
Hacer una copia del archivo antes de empezar a editar.
Usar directamente el archivo original.
Hacer una copia del disco duro.
Ninguno de los anteriores.
Pregunta
02/03
¿Qué ocurre cuando con la herramienta envolvente comprimes la señal?
Se oirá en tonos más agudos.
Se oirá más bajo.
Se eliminará la voz humana.
Ninguno de los anteriores.
Pregunta
03/03
¿Qué herramienta es la que permite mover pistas en el tiempo?
Cambio temporal.
Desplazamiento.
Envolvente.
Ninguno de los anteriores.
Audacity es uno de los editores de audio más completos. Proporciona un conjunto
completo de herramientas de edición y masterización, además de muchas características
generalmente reservadas para productos de pago. Algunas de las opciones de edición
incluyen un compresor, reducción de ruido y una herramienta de reparación automática.
También hay soporte para efectos de audio externos y complementos de generador de
sonido. Pero si quieres conocer el funcionamiento de la edición básica de Audacity no
dejes de pulsar en las flechas laterales:

Edición de audio con Audacity


Nueva pista
Para trabajar con un archivo de sonido en Audacity tan solo tendrás que arrastrarlo a su
ventana de Audacity. Solo con eso ya se incorpora a tu proyecto como una pista
nueva. Así de sencillo, podrás agregar cuantos archivos quieras y se irán incorporando
como nuevas pistas.
Eso sí, ten en cuenta que el formato de archivo deberá ser compatible con Audacity, por
lo que deberás usar ficheros compatibles como, por ejemplo, WAV o MP3.
Cada pista aparecerá representada en la línea de tiempo donde será visible su forma de
onda, su frecuencia de muestreo y su profundidad de bits detallada a la izquierda de la
interfaz.
1
Play
Si pulsas sobre el botón de play podrás escuchar todo el sonido contenido en la línea de
tiempo, parar con el botón de pausa, detener con el botón de stop, etc.
Al pulsar sobre el botón de play podrás ver cómo avanza el cursor de reproducción por la
línea de tiempo y, cuando pare, podrás colocarlo allá donde quieras pulsando con el
cursor.
2
Selección
Puedes seleccionar partes de la pista y borrarla o cambiarla de sitio. Si editas tu audio
cortando y moviendo diferentes partes o mezclándolas, siempre será posible que
guardes tanto el resultado final como el proyecto.
Te podrá ser práctico guardar el proyecto ya que conserva la división por pistas y te
permitirá seguir trabajando donde lo dejaste.
Al agregar los archivos de audio, el programa te preguntará si deseas realizar una copia
del archivo para que esté siempre disponible el archivo original o bien si prefieres que
dependa de los originales y sean esos los que se modifiquen directamente.
3
Exportar
El comando exportar te permitirá obtener el resultado final de tu trabajo. Será posible
exportar todo el audio aquí, o exportar tan solo lo que tengas seleccionado. Podrás
escoger el formato de exportación de antemano (WAV o MP3).
Si tu proyecto cuenta con varias pistas, al exportar se unificarán todas ellas y dará un
archivo con todas las pistas mezcladas sonando a la vez. Aunque si solo quieres que
suene una pista, siempre podrás silenciar el resto. También podrás tan solo exportar un
trozo de una pista seleccionándolo y pulsando a Exportar selección.
Realmente dispones de varias herramientas de un uso muy simple con las que podrás
realizar muchísimas acciones orientadas a poder editar tus archivos de audio. Desde
limpiarlos de ruidos o perturbaciones, mezclar audios, organizarlos, etc.
4
C O NT I NU A R
Gracias a este vídeo podrás de ver de manera práctica el uso de las opciones de edición
de Audacity, centrándose en el caso de los podcast.
No dejes de verlo porque te servirá para afianzar lo que ya has aprendido en la pantalla
anterior. Además, en la siguiente pantalla deberás responder a una serie de preguntas
sobre su contenido.
¡Dale al play!

Editando fragmentos de audio (cortar, copiar,


pegar y efectos)
Fuente de vídeo: https://www.youtube.com/watch?v=CE--zUoVLkA
C O NT I NU A R
Autoevaluación
Pregunta
01/03
¿Cómo eliminar un trozo de pista de audio con Audacity?
Pulsar sobre Eliminar teniendo seleccionada toda la pista.
Seleccionas el trozo deseado con la opción de selección y pulsar sobre el botón Cortar.
Seleccionas el trozo deseado con la opción de selección y pulsar sobre el botón Grabar.
Ninguno de los anteriores.
Pregunta
02/03
Es muy sencillo realizar censuras cambiando palabras malsonantes por pitidos.
Verdadero.
Falso.
Pregunta
03/03
¿Dónde recoge Audacity todos los efectos?
En la opción Editar del menú superior.
En la opción Efectos del menú superior.
En la opción Control del menú superior.
Ninguno de los anteriores.
Para usar esta herramienta, lo primero que debes hacer es seleccionar la parte de la pista
donde más ruido haya. Es buena costumbre dejar unos segundos antes de empezar a
hablar para que pueda extraerse de esas zonas de silencio el ruido existente. Después
debes ir a "Efecto" y buscar dentro "Eliminación de ruido...". Saldrá una ventana
emergente que indica los dos pasos a realizar para poder aplicar el efecto.
En el primer paso debes obtener el perfil del ruido. Para ello previamente tienes que
haber seleccionado una porción de la pista donde haya ruido. Hecho esto pulsa sobre el
botón "Obtener perfil del ruido", al pulsarlo la ventana se cerrará. En el paso segundo
debes seleccionar toda la pista o la porción de ella en la que quieras eliminar el
ruido. Para ello debes volver a abrir la ventana de "Eliminación de ruido...". Si pulsas
sobre el botón de "Previsualización" podrás oír el resultado que quedaría tras aplicar el
borrado del ruido, si te resulta satisfactorio aplica los cambios

Eliminando el ruido con Audacity


Fuente: https://ccsearch.creativecommons.org/photos/84e9c9e1-227e-4bf9-8f99-
c2e61a5e25bf

¿Qué puedes hacer si no te convence el resultado final de la eliminación de


ruido? Audacity te permite probar y cambiar algunas de las opciones
posibles dentro de estos pasos. Fíjate bien en el vídeo de la siguiente
pantalla para orientarte en el manejo de esta funcionalidad.
C O NT I NU A R
¿Quieres saber cómo eliminar el ruido de tus grabaciones? Repasa la pantalla anterior y
después visualiza este vídeo para saber qué hacer exactamente y descubrir todas las
posibilidades que te ofrece Audacity.
Seguro que aprendes una información realmente valiosa sobre la que deberás responder
más adelante.
¡Dale al play!

Eliminación de ruido
Fuente de vídeo: https://www.youtube.com/watch?v=esc28SNRiVg
C O NT I NU A R
Autoevaluación
Pregunta
01/03
Uno de los principales problemas es la falta de medios y no poder adquirir un
equipo de
calidad, pero a pesar de ello puedes eliminar el ruido de fondo con una
herramienta de
Audacity.
Verdadero.
Falso.
Pregunta
02/03
¿Cuántos pasos tiene la herramienta de reducción de ruidos de Audacity?
1.
2.
3.
4.
Pregunta
03/03
¿Qué debes hacer en el primer paso de la herramienta de reducción de ruidos
de
Audacity?
No debes hacer nada, el proceso está totalmente automatizado.
Marcar toda la pista y pulsar el botón Mute.
Deberás seleccionar una zona de ruido para que Audacity sepa qué debe filtrar.
Ninguno de los anteriores.
Lo que puedes hacer con el ecualizador es simplemente aumentar o disminuir el
volumen de una frecuencia concreta de manera independiente al resto. De ese modo,
puedes controlar el modo en el que percibirás un sonido o, en el caso de sonidos
complejos, por ejemplo, como una canción, darle más protagonismo a algunos
instrumentos sobre otros siempre que conozcas las frecuencias en las que se mueve cada
uno de ellos.
Una de las tareas más habituales es la de usar el ecualizador para alterar la percepción
que se tiene de la voz en un podcast. Pero no existen unas pautas fijas que poder
establecer, deberás siempre hacer pruebas con una serie de parámetros y previsualizar
hasta dar con el modo óptimo.

Ecualización con Audacity


Otra aspecto importante a tener en cuenta son los armónicos. Un armónico
es una onda con una frecuencia determinada que surge en un
resonador, como las vías respiratorias, la boca o la nariz, tras recibir este
otra onda. Los resonadores naturales no solo amplifican el sonido, sino que
además aportan sus propias ondas.
C O NT I NU A R
Las ondas adicionales que surgen a partir de los resonadores naturales son un elemento
muy importante, ya que aportan una importante dosis de carácter individual a la voz.
Estos armónicos suelen estar localizados en rangos de frecuencia altos, muchas veces por
encima del rango normal. Es por ello que si realizas modificaciones sobre las bandas de
ecualización de frecuencias por encima de los 1000 Hz notarás importantes diferencias,
aunque suele ser en las frecuencias más bajas donde los cambios son más críticos. De
todos modos, antes de hacer ningún cambio, es conveniente hacer pruebas con las
previsualizaciones para tratar de comprobar qué ecualización es la más adecuada para tu
voz.
Además de estas precauciones hay una serie de recomendaciones que te vendrá bien
tener en cuenta cuando hagas cambios en la ecualización. Para ir a la herramienta de
ecualización debes ir a "Efecto" en el menú superior y escoger la opción "Ecualización“,
después, en el menú selecciona "Ecualizador gráfico". Desde aquí, no dejes de aplicar
estas recomendaciones que conocerás pulsando en los botones siguientes:

Ecualización de la voz

Frecuencias no deseadas
Aminora todas las bandas del ecualizador gráfico de 60 Hz e inferiores, para reducir el volumen de aquellas
frecuencias bajas no deseadas capturadas por el micrófono vocal.

Voz y música
Si aumentas las bandas del ecualizador gráfico cercanas a la frecuencia de 5 KHz, harás que la voz cobre
protagonismo frente a la música de fondo, es decir, permitirás que la voz se oiga por encima de la música, con lo
cual tendrá mucha más presencia. Si tu voz es muy brillante y tiene demasiada presencia, haz lo contrario,
disminuye esas bandas para que tu voz se mezcle mejor con la música.
Si aumentas las bandas del ecualizador gráfico cercanas a la frecuencia de 10 KHz y superiores, para agregar alta
frecuencia de brillo a la voz, proporcionándole una cualidad aérea.

Aclarar la voz
Si aumentas las bandas del ecualizador gráfico cercanas a la frecuencia de 3 Khz, podrás hacer que la voz suene
más clara.

Aumentar el volumen de voz


Si tu voz suena demasiado tenue, incrementa las bandas del ecualizador gráfico cercanas a la frecuencia de 150
Hz. Esto aumentará su volumen sobre el resto al aumentarla.

Aminorar o adelgazar la voz


Si aminoras las bandas del ecualizador gráfico en cualquier lugar entre las frecuencias 60 Hz y 200 Hz, estarás
afectando a tu voz, de modo que la podrás aminorar o adelgazar con muchos bajos. Al acercarte más a 200 Hz y
aminorar, harás más delgada la voz.

C O NT I NU A R

¿Quieres comprobar de manera directa y práctica cómo manipular la ecualización de un


archivo de audio con Audacity?
No dejes de ver este vídeo si quieres aprender a hacerlo de manera correcta,
especialmente si estás interesado en la creación y edición de podcasts.
Además, en la siguiente pantalla deberás responder una serie de preguntas sobre este
contenido.

Ecualización de voz
Fuente de vídeo: https://www.youtube.com/watch?v=k4n89bZgMI8
C O NT I NU A R
Autoevaluación
Pregunta
01/03
¿Qué mide la gráfica del ecualizador en su eje vertical y en su eje horizontal?
El volumen en el eje vertical y la frecuencia en su eje horizontal.
La profundidad de bits en el eje vertical y la frecuencia en su eje horizontal.
El volumen en el eje vertical y su resolución en su eje horizontal.
Ninguno de los anteriores.
Pregunta
02/03
¿Dónde se localizan las frecuencias habituales en las que trabaja la voz humana?
Entre los 100 dB y los 3000 dB.
Entre los 200 dB y los 2000 dB.
Entre los 80 dB y los 1000 dB.
Ninguno de los anteriores.
Pregunta
03/03
Existen ecualizaciones determinadas que podrás emplear en tus archivos de
audio con
Audacity.
Verdadero.
Falso.

Pasos para grabar tu propia canción


El mundo de la música ha cambiado. Desde que surgieron las herramientas de edición de audio
cualquiera puede tener un pequeño estudio de grabación casero. Evidentemente, con sus
muchas limitaciones, pero igual de funcional. Es suficiente con poder disponer de un ordenador,
un micrófono USB y unos auriculares. Una vez que lo tienes, tan solo hay que grabar una canción,
subirla a Internet, esperar a que se viralice y hacerte famoso, como fue el caso de Pablo Alborán.
Para grabar correctamente no olvides que debes grabar cada instrumento por separado, cada
uno en una pista, y después mezclarlas todas. Esto te permite modificar cada uno de los
instrumentos por separado. Además, una sola persona podría hacer lo que antes requería un
equipo completo de productores y músicos.
Pero en cualquier caso nunca es sencillo grabar tu propia canción. Si lo vas a hacer te aconsejo
que empieces siguiendo estos pasos:
1. Comineza creando una pista de guía. Esta será la que los otros instrumentos deban seguir
o acompañar. Puede ser tan básica como un metrónomo, simplemente para fijar el tiempo, o
bien un bucle de batería pregrabado.
C O NT I NU A R
2. Después debes de grabar la sección rítmica, que será la base de la canción. Normalmente
suele ser la batería o el bajo, pero sino participa ninguno de estos instrumentos en la canción,
bien podría ser una guitarra acústica o un piano.
3. Cuando ya dispongas de una buena base, podrás empezar a ir añadiendo la estructura de
acordes agregando los diversos instrumentos que participen en la canción, como una guitarra
acústica, un piano, un sintetizador, un instrumento de viento, etc.
4. Continúa grabando las melodías empezando por los más dominantes, que suelen ser la
voz y la guitarra principal.
5. Hecho esto, tan solo quedan los arreglos, los retoques de la canción para darles color y
brillo a las pistas principales con el ecualizador.

Recapitulación
Hasta este momento has aprendido que todos los formatos de audio tienen un par de
cifras que determinan sus características esenciales. Puedes encontrar, por ejemplo,
sonidos de 32 bits y 192 kHz y otros con 24 bits y 96 kHz. Estos números tan característicos
indican la profundidad de bits y la frecuencia de muestreo.
No solo eso, sino que además conoces ahora que los archivos de audio digital pueden
guardarse en una gran diversidad de formatos disponibles, que deberás escoger en
función de sus características y del uso que vayas a darles. Existe una primera clasificación de
los tipos de formato en cuanto a si comprimen o no su información.
Conoces también ahora también que algunos de los formatos de audio sin comprimir más
populares son WAV, MIDI, y CD-A.
Además aprendiste que los formatos de audio digital comprimidos sin pérdida más
populares son MP3, WMA y OGG.
También sabes ahora que los formatos de archivo de audio digital comprimido sin pérdida
más populares son AIFF, FLAC, MP3HD.
Para finalizar, aprendiste que la herramienta Audacity es una aplicación informática
multiplataforma de software libre, que podrás usar para grabación y edición de audio,
distribuido bajo la licencia GPLv2+. Se trata de un editor de audio compatible con Windows,
Mac OS X, GNU/Linux y otros sistemas operativos.
CONT I NU A R
Autoevaluación
Pregunta
01/03
¿Cuál de los siguientes no es un formato de audio digital sin compresión?
WAV.
OGG.
CD-A.
MIDI.
Pregunta
02/03
¿Cuándo surge la primera especificación de MIDI?
1980.
1983.
1987.
1992.
Pregunta
03/03
La herramienta Audacity es una aplicación informática multiplataforma de
software
libre.
Verdadero.
Falso.
Un storyboard, o guion gráfico en castellano, no es más que una secuencia de
imágenes o ilustraciones que servirán de guía al argumento de una historia y ofrecen un
modo de planificar y previsualizar un resultado. Es importante que, antes de comenzar
a grabar un vídeo, sepas cuál es la secuencia a grabar, la improvisación no te permitirá
alcanzar resultados profesionales.
En este epígrafe descubrirás los principales aspectos relacionados con los guiones gráficos
y cómo realizarlos. Aunque realmente no existe ninguna regla específica aprenderás el
modelo más habitual, algunos consejos generales para la puesta en práctica y los pasos
que deberás seguir para hacer un buen storyboard.
No dejes de avanzar en la unidad didáctica.

22. Storyboard para disear películas y


animaciones
El guion gráfico o storyboard te permitirá analizar una animación o seguir la estructura
de una película antes de proceder a filmarla. El storyboard es habitualmente el modo de
previsualización usado en la preproducción de la industria cinematográfica.
Antes de rodar una película o grabar un vídeo debes partir de un guion para saber qué es
lo que quieres plasmar en tu resultado. Para ello es indispensable disponer de un guion
con las imágenes que servirán de guía en el proceso de grabación. Este guion gráfico
servirá de guía para poder entender la historia o para poder previsualizarla.
Realizar el storyboard debe ser siempre el primer paso. A través del él podrás presentar
claramente cuál es tu visión al resto del equipo antes de comenzar a grabar. Es un modo
de planificación muy rápido, fácil y de bajo coste. Por ejemplo, un vendedor de vídeos
puede mostrarle al cliente del producto varios guiones gráficos diferentes, para poder
escoger el mejor y así, además, siempre estará claro para ambas partes cómo será el
producto final.
C O NT I NU A R
Esta ha sido una herramienta muy empleada en el cine, en el siguiente
enlace del sitio Cultura Colectiva, encontrarás algunos ejemplos de películas
muy famosas.
El objetivo del storyboard es el de es narrar la historia con una secuencia de imágenes
acompañadas de textos. Podrá servir de guía a la hora de realizar una película, ya que
incluye:
El detalle de los planos.
La colocación de los personajes.
La duración del rodaje.
Una breve explicación de lo que sucede en cada toma.
De este modo, la guía es de mucha utilidad para todos los que participen en la producción
y postproducción.
Se atribuye a Georges Méliès la creación del storyboard. Aunque el concepto de
storyboard, tal y como se le conoce hoy en día, fue desarrollado por Webb Smith para
Walt Disney al principio de los años 30. Años más tarde, se haría popular el uso del
storyboard también en la producción de películas de acción con personajes reales a
principios de los años 40.
El storyboard ofrece una disposición visual de los acontecimientos tal como deben
ser vistos por el objetivo de la cámara. De ese modo, los detalles más complicados
pueden ser descritos de un modo muy eficiente en las imágenes y en las descripciones
que figuran al pie de ellas.

¿Qué es un storyboard?
También puede ser aplicado para la experiencia de usuario, el término storyboard
puede referirse a una técnica de prototipado que indicará el modo en el que
funcionará un determinado producto o servicio a través de viñetas de cómic. El storyboard
se plasmará mediante una maqueta o mockup que indica cómo será la navegación y la
interacción con el usuario a través de páginas web, pantallas u otros interfaces. El
storyboard permite desarrollar prototipos muy rápidamente y con muy bajo coste.
C O NT I NU A R
¿Quieres aprender a desarrollar todos los pasos necesarios para completar un storyboard?
No dejes de visualizar este vídeo para aprender de manera sencilla y práctica a sacarle el
máximo partido a esta herramienta.
Además, en la siguiente pantalla tendrás que responder a una serie de preguntas sobre
su contenido.
Dale al play.

¿Qué es un storyboard?
Fuente de vídeo: https://www.youtube.com/watch?v=j8cKQkEGSNA
C O NT I NU A R
Autoevaluación
Pregunta
01/03
¿Qué se identificará en el storyboard?
El tipo de plano.
El audio o voz en off.
Los efectos de sonido.
Todos los anteriores.
Pregunta
02/03
¿Qué no nos explica el boceto del storyboard?
Qué es la historia que está contando.
Qué elementos contiene la historia.
Qué necesita la grabación.
Cuándo ocurre la grabación.
Pregunta
03/03
Puedes usar el storyboard para un vídeo, para una película, para un
cortometraje o para
un tutorial.
Verdadero.
Falso.
Cuando vayas a realizar un libro, un curso online, películas, vídeos explicativos, de ventas,
de aprendizaje o cualquier otro corto online o no, la planificación es extremadamente
importante. Y la parte más importante de la planificación es crear el storyboard, ya que en
él se especifica cómo se desarrollará tu producto paso por paso, en un orden lógico. En
un storyboard, un artista crea imágenes, panel por panel, que ilustran el orden y los
eventos de una historia, incluidos los personajes y el diálogo. Para ello, debe contener
varios elementos clave, desde la serie de cuadrados con ilustraciones o imágenes que
representan cada toma, hasta las notas sobre lo que está sucediendo en la escena y lo que
se dice en el guion durante esa toma. Pulsa en las imágenes para conocer estos
elementos:

Componentes de un storyboard

Información del storyboard


En la zona superior del storyboard podrás encontrar información sobre la secuencia de imágenes
indicando la escena, el lugar e incluso el número de página del guion.

Viñeta o cuadro de dibujo


Se trata de la zona en la que irá la imagen mediante la que se mostrará la acción a desarrollar en la
película, animación, cortometraje, etc.

Viñeta o cuadro de dibujo


Se trata de la zona en la que irá la imagen mediante la que se mostrará la acción a desarrollar en la
película, animación, cortometraje, etc.

Descripción de la viñeta
Por cada una de las viñetas se dará una breve descripción de la imagen aclarando cualquier aspecto
de la
misma. Se suele encontrar justo bajo al cuadro del dibujo aunque a veces también podrás
encontrarlo a
la derecha de las ilustraciones.
Observaciones
Situado en la parte inferior del storyboard. El ilustrador podrá indicar algún comentario u
observación
sobre el storyboard. Aunque no figura en todos los storyboard, sí es muy recomendable usarlo para
poder resolver cualquier tipo de dudas que pudieran producirse.
C O NT I NU A R

Ahora que conoces los elementos principales del storyboard quizás ya te


estés planteando crear uno. Pero antes deberás conocer los pasos
necesarios para avanzar en su desarrollo de manera adecuada. Para ello
pasa a la siguiente pantalla.
Realmente, hacer un storyboard no es un proceso especialmente complejo, simplemente
basta con una hoja, un lápiz y un guion técnico para poder saber cuales serán los planos
que hay que reflejar. Además, podrás encontrar una gran diversidad de plantillas para los
storyboard o incluso programas para generarlos. Sea como sea que vayas a realizarlos,
una vez que dispongas del material ya podrás comenzar a realizarlo. A continuación,
pulsando en las flechas laterales podrás descubrir los pasos necesarios para la
elaboración del storyboard:

Pasos para la elaboración de un storyboard


Primer paso
Debes de hacerte con una plantilla para realizar el storyboard o componerla dibujando
los cuadrados donde irá la secuencia de viñetas en la plantilla del storyboard.
Paso 1
Segundo paso
Dibuja las escenas en cada uno de los cuadros de la plantilla para componer las escenas
que deberán desarrollarse en el vídeo. Para dibujar las escenas podrás hacerlo a mano,
crearlas en un ordenador o incluso agregar fotografías. Deberás dejar espacio entre las
viñetas para poder escribir notas y observaciones debajo o a la derecha de cada viñeta.
Las imágenes no tienen por qué ser muy detalladas, prima el que se indique lo que debe
suceder, aunque mientras mayor detalle se dé, mucho mejor. Deberán ser dibujos
simples aunque muy claros, para que cualquiera pueda entenderlos con facilidad.
Paso 2
C O NT I NU A R
Tercer paso
Aporta explicaciones textuales acerca de la secuencia. Indica los diálogos de cada viñeta,
y agrega aclaraciones que indiquen con precisión qué está sucediendo en la escena. El
storyboard deberá poder ser leído tal y como si fuera un cómic para, de ese modo, poder
ofrecer una idea exacta de lo que sucederá en el vídeo.
Incluye aclaraciones sobre detalles como los ángulos, los movimientos de cámaras o la
salida de los personajes.
Paso 3
Existe una serie de herramientas que se pueden usar para diseñar y construir storyboards
digitales de un modo muy sencillo y, además, gratuito. Mediante este tipo de herramientas
aportan una gran colección de recursos entre los que podrás encontrar imágenes, textos,
formas, sonidos, etc. En la mayoría de estas aplicaciones deberás registrarte y muchas de
ellas están en inglés, pero compensa el esfuerzo de adaptarse al idioma, ya que sus
utilidades sin duda te sorprenderán.
A continuación, pulsando en estos botones podrás descubrir los sitios web oficiales de una
serie de herramientas online para desarrollar storyboards:
Herramientas online para crear storyboards
StoryboardThat Make Beliefs Comix Pixton Comic Master
Bubblr Storybird Chogger
C O NT I NU A R
Write Comics Witty Comics Strip Generator Canva
¿Te atreverías a realizar tu primer storyboard con lo que has aprendido hasta ahora?
Seguramente no, pero no dejes de intentarlo usando la herramienta online
StoryboardThat.
En este vídeo puedes aprender a manejarla de manera sencilla y práctica, paso a paso,
descubriendo sus plantillas y opciones con las que generar tus personajes, escenas y
situaciones, combinándolas para crear la historia que tienes en mente.
No dejes de ver el vídeo porque seguro que te resulta de gran ayuda para orientarte en la
creación de tus primeros storyboards. Además, en la pantalla siguiente deberás responder
una serie de preguntas sobre su contenido.

Cómo hacer tu storyboard con StoryboardThat


Fuente de vídeo: https://www.youtube.com/watch?v=Oj5L5mxdUrE
C O NT I NU A R
Autoevaluación
Pregunta
01/03
La herramienta online StoryboardThat es gratuita.
Verdadero.
Falso.
Pregunta
02/03
¿Con qué cuenta no puedes registrarte en StoryboardThat?
Google.
Hotmail.
Office 365.
Twitter.
Pregunta
03/03
A través del esquema del guion gráfico podrás indicar cuántas celdas quieres en
tu
guion.
Verdadero.
Falso.
Ya has visto que el storyboard tiene muchas utilidades en distintos campos. Incluso puede
ayudarte para ordenar y concretar las ideas de una novela o cuento que quieras escribir,
para diseñar un producto como un curso de formación online o la experiencia de usuario
ante un ecommerce o un nuevo programa informático.
Actualmente su uso principal es para tener una base sobre la que poder trabajar al grabar
un vídeo. A través del guion previo se deberán detallar las escenas que vayan a ocurrir, lo
que sucederá frente a la cámara y las tramas y diálogos que se desarrollarán en cada
escena.
Aunque muchos de estos aspectos ya los tienes en el guion técnico, usando el storyboard
podrás detallar de manera gráfica e intuitiva cada aspecto de las escenas, para poder
conseguir que se entiendan lo mejor posible los conceptos a transmitir.
Así, no dejes de tener presentes estas utilidades que puedes conocer pulsando en estos
botones:

Usos de los storyboards


Vídeos
Pueden elaborarse vídeos, pero siempre es muy importante planificar la estructura que tendrán.

Películas
Muy empleado en la industria cinematográfica, donde se detallan cada uno de los aspectos relativos al ángulo de
la cámara, de los planos a rodar, etc. El guion y el storyboard son los detalles que aclararán cómo debe grabarse
cada una de las escenas de la película.

Demostración
Es un modo muy rápido y barato de poder generar un prototipo para que el cliente pueda validarlo
y dar
su aceptación.

Tutoriales
Los vídeos pueden ser tutoriales de enseñanza donde se indiquen determinados aspectos, pero en
ese
caso también es de vital importancia determinar la estructura que tendrá previamente a su
grabación.
C O NT I NU A R
A la hora de ordenar las viñetas dentro del guion gráfico hay muchas opciones posibles;
algunos se leen de arriba hacia abajo mientras que otros se leen de izquierda a derecha.
Es recomendable hacerlo según la costumbre, es decir, de izquierda a derecha y de arriba
hacia abajo, tal y como si fuera un comic.
Para cada viñeta se deberá aportar la siguiente información adicional breve:
El número de la escena.
La identificación de la escena. Una pequeña descripción para ubicar a quien lo utilice
sobre lo que se está produciendo en la escena.
Número del plano o imagen dentro de la escena.

Características del storyboard


Breve descripción del audio. Se deben indicar los diálogos que se producen en esa
escena, así como la música y los efectos sonoros que se empleen.
Observaciones técnicas. Dando detalles del tipo de plano o movimiento de la cámara,
por ejemplo.
Transiciones. Se debe indicar cómo se efectuará la transición entre una viñeta y otra.
De modo que podrán realizarse por corte directo, por movimientos de cámara o de
lente de la cámara o por disolvencia entre una escena y la siguiente.
Se recomienda que el tamaño de las viñetas sea proporcional al formato que se emplee
para proyectar el resultado final.
C O NT I NU A R
Los guiones gráficos son muy empleados en la industria del cine donde, además de usarse
para una planificación de la posterior grabación, pueden ser empleados incluso para
convencer al productor de la calidad y el coste que supondrá para que este decida invertir
en su grabación.
Podrás observar ejemplos reales de storyboards desarrollados para películas famosas, ya
que son herramientas de gran ayuda para producciones audiovisuales profesionales.
Recientemente ha salido a la venta el storyboard de la trilogía de La guerra de las galaxias,
que podrás encontrar en Amazon.
En los siguientes enlaces podrás obtener información sobre storyboards de películas de
éxito mundial:
Lo que el viento se llevó.
Star Wars.
Psicosis.
Varios storyboards.

Ejemplos cinematográficos
C O NT I NU A R
Crea tu propio storyboard con Canva
Es muy sencillo crear tu propio storyboard con herramientas online como Canva donde deberás
seguir los siguientes pasos.
1. Escoger entre las diversas opciones de la biblioteca de plantillas profesionales de Canva.
2. Puedes subir tus propias fotos o imágenes o usar la biblioteca de imágenes de Canva
donde encontrarás una gran variedad de imágenes. Estas imágenes, tuyas o de la biblioteca de
Canva, podrás integrarlas y usarlas con la plantilla seleccionada de Canva.
3. Agrega todos los filtros que quieras para personalizar la plantilla e incluir textos descriptivos.
4. Cuando finalices podrás guardar tu resultado final y compartirlo a través de la propia página
de Canva.
Recuerda que puedes personalizar las plantillas de Canva de modo que tu storyboard sea único.
Para ello, podrás agregar encabezados, subtítulos y texto, así como modificar la fuente y el color
con tan solo un clic.
Además te permitirá trabajar en equipo, tan solo debes de hacer clic en el botón Compartir. De
ese modo podrás compartir tu storyboard y darle acceso a quien quieras para que lo pueda ver y
C O NT I NU A R
editar. Una vez terminado, será posible compartirlo por correo electrónico o descárgalo como
archivo de PDF para su impresión.

Recapitulación
Hasta este momento has aprendido que un storyboard, o guion gráfico en castellano, no
es más que una secuencia de imágenes o ilustraciones que servirán de guía al
argumento de una historia y ofrecen un modo de planificar y previsualizar un resultado.
No solo eso, sino que además conoces ahora que el objetivo del storyboard es el de es
narrar la historia con una secuencia de imágenes acompañadas de textos.
Conoces también ahora también que aunque no existe un modelo o plantilla estándar para el
storyboard, la mayoría de las plantillas tienen una estructura similar en la que podrás
encontrar los siguientes cuatro componentes: información del guion gráfico, viñeta o
cuadro de dibujo, descripción de la viñeta y observaciones. Además aprendiste que hacer
un storyboard no es un proceso nada complejo, simplemente basta con una hoja, un lápiz y
un guion técnico para poder saber cuáles serán los planos que hay que reflejar.
También sabes ahora que existe una serie de herramientas que se pueden usar para
diseñar y construir guiones gráficos digitales de un modo muy sencillo y además
gratuito. Estas herramientas aportan una gran colección de recursos entre los que podrás
encontrar imágenes, textos, formas, sonidos, etc.
Sabes ahora que las utilidades del storyboard son múltiples, entre ellas, las que se
enumeran a continuación: vídeos, películas, demostraciones y tutoriales. Aprendiste que para
cada viñeta se deberá aportar la siguiente información adicional breve: el número de la
escena, la identificación de la escena, el número del plano o imagen, una breve
descripción del audio, observaciones técnicas y las transiciones entre una viñeta y
otra.
Para finalizar, aprendiste que los guiones gráficos son muy empleados en la industria del cine
donde, además de usarse para una planificación de la posterior grabación, pueden ser
empleados incluso para convencer al productor de la calidad y el coste que supondrá de la
película para que este decida invertir en su grabación.
CONT I NU A R
Autoevaluación
Pregunta
01/03
¿A quién se le atribuye la creación del storyboard?
A Steve Jobs.
A Georges Méliès.
A Frank Sinatra.
Ninguno de los anteriores.
Pregunta
02/03
¿Cuál de los siguientes no es un componente del storyboard?
Viñeta.
Observaciones.
Letras de crédito.
Descripción de la viñeta.
Pregunta
03/03
Se recomienda que el tamaño de las viñetas sea proporcional al formato que se
emplee
para proyectar el resultado final.
Verdadero.
Falso.
A la hora de disponerte a manipular audio o vídeo digital es conveniente que dispongas
de las herramientas hardware adecuadas; de no ser así la calidad del resultado se
resentirá bastante. Para poder obtener resultados profesionales, necesitas conocer el
hardware necesario para obtener resultados satisfactorios.
En el epígrafe que vas a estudiar a continuación descubrirás en profundidad aspectos
relacionados con el hardware para la manipulación de audio y vídeo digital. No dejes de
avanzar para aprenderlo.
Para poder manipular de manera óptima el audio y vídeo digital, el hardware de tu
máquina tendrá unos requerimientos específicos, bastante más acentuados al tratar con
el vídeo. Las necesidades irán desde la RAM, hasta el almacenamiento, disponer de
tarjeta gráfica, una tarjeta de sonido, un procesador adecuado y evidentemente un buen

23. Hardware para la manipulación de


audio/vídeo digital
cableado que conecte tu ordenador con los dispositivos mediante los cuales podrás
capturar el vídeo o el audio.
Si no tienes necesidad de obtener resultados profesionales siempre podrás hacerte con
un equipamiento hardware para la manipulación de vídeo y audio mucho más asequible y,
por ejemplo, podrás editar el sonido para eliminar el ruido del modo que ya has visto en
las pantallas anteriores. Pero si quieres algo más profesional debes ir a dispositivos más
costosos, además de contar con elementos para poder ofrecer una iluminación adecuada
a tus vídeos. También, en función de los vídeos a realizar, sería interesante disponer de
un croma para poder extraer figuras y cambiar los escenarios de fondo. Con el croma se
consigue poder extraer un color de la imagen y reemplazar ese área que ocupaba por
cualquier otra imagen, el claro ejemplo de ello es el del vuelo de los superhéroes en el
cine.
C O NT I NU A R
Si quieres saber más acerca del hardware de vídeo y las unidades de
procesamiento gráfico y su evolución en los ordenadores personales, te
recomiendo que ojees el siguiente artículo de la Fundación Dialnet.
Hoy en día se usa bastante el streaming, la reproducción de contenidos desde la nube y
los servicios de televisión a la carta. Pero para poder llevar a cabo estos servicios se debe
emplear un hardware muy específico que cumpla con unas altas gamas de calidad. Si
necesitas usar las resoluciones más empleadas en este tipo de servicios, HD y 4K,
requerirás un ordenador con unas configuraciones determinadas que a continuación se
analizarán.
La máquina adecuada para ofrecer una resolución de 1080p debe ofrecer un compendio
de prestaciones suficientes con las que lograr la compatibilidad necesaria con el software
de edición y manipulación de vídeo.

Requerimientos hardware para edición de


vídeo en HD
C O NT I NU A R
En lo primero que debes fijarte es lograr un procesador adecuado. Los
procesadores más populares para este tipo de tarea son los AMD,
originalmente muy empleados en el “gaming”. Su precio razonable lo hacen
más atractivo que sus homólogos de Intel. No es complicado encontrar
procesadores AMD Ryzen con 8 núcleos y 16 hilos a 4.35 GHz a un precio
aproximado de 300 euros.
Otro de los principales requisitos se refiere a la placa base, ya que para renderizar igual
que para el gaming serán indispensables unas características mínimas. Son populares las
placas base de Gigabyte, que pueden ofrecer una solución que cumple con las
necesidades mínimas por un precio que puede rondar los 100 euros.
Ten en cuenta que los procesadores AMD Ryzen presentan problemas de
compatibilidad con algunas memorias RAM, asegúrate por tanto de comprar alguna que
sean compatible. Es recomendable que compres 2 memorias RAM de 8 GB, que podrás
encontrarlas por un precio aproximado de 250 euros.
También debes disponer de una tarjeta gráfica para poder realizar renderizaciones y que
pueda sacar el rendimiento adecuado a herramientas de software como Sony Vegas o
cualquier otra que emplees.

Otros requisitos para edición de vídeo en HD


Por último no olvides tu disco duro, es recomendable que uses un disco
duro SSD para almacenar en él el sistema operativo y el programa que
uses para editar y manipular los vídeos. Disponer de este tipo de discos
duros hará que la ejecución sea mucho más rápida, ya que a veces los
discos duros HDD suelen ser el cuello de botella del sistema.
C O NT I NU A R
En el caso de las resoluciones en 4K las necesidades serán más selectivas, ya que habrá
que aportar mayor potencia para acortar los tiempos de respuesta y obtener un
procesamiento más rápido que en el caso anterior. Es por ello que los componentes serán
más eficientes y rápidos y, por tanto, más caros.
En cuanto al procesador, será bueno seguir en la línea de los AMD Ryzen pero para este
caso es recomendable que disponga al menos de 12 núcleos y 24 hilos. Con eso obtendrás
potencia más que suficiente para poder editar cualquier vídeo en tiempos muy breves. Por
menos de 400 euros podrás encontrar un procesador de estas características.

Requerimientos hardware para edición de


vídeo en 4K
¿Recuerdas que era lo siguiente que necesitabas tener en cuenta? La placa
base que necesitas para tu procesador deberá ofrecer una buena
refrigeración, fases, conectividad y calidad general, pero sobre todo una
buena BIOS. Por un precio aproximado de 300 euros podrás encontrar
placas bases muy adecuadas.
C O NT I NU A R
En cuanto a la memoria RAM debes buscar alguna con unas frecuencias de al menos
3200 MHz. Por un precio aproximado de 250 euros encontrarás 4 módulos de 8 GB cada
uno para sumar entre ellos 32 GB con los que podrás trabajar sin problema.
También debes disponer de una tarjeta gráfica para poder realizar renderizaciones y que
pueda sacar el mejor partido a herramientas de software para la edición de vídeo como
Sony Vegas o cualquier otra que emplees.

Otros requisitos para la edición de vídeos en 4K


Por último, no olvides el disco duro. Lo más recomendable es que utilices
discos duros SSD M.2, que son los más rápidos del mercado y su precio es
muy competitivo. Puedes hacerte con alguno de una capacidad de 960 GB ya
que los vídeos en 4K tienen un mayor peso.
C O NT I NU A R
Este vídeo trata sobre cuáles son los componentes más importantes de un ordenador con
los que puedes hacerte en función de tu presupuesto, si quieres dedicarte a la edición de
vídeos.
No dejes de verlo porque te aportará información muy práctica con la que poderte
desenvolver de manera efectiva, repasarás los conceptos que has podido estudiar en las
pantallas anteriores y se te despejarán algunas dudas que te puedan surgir.
¡Dale al play!

El mejor ordenador para editar vídeos


Fuente de vídeo: https://www.youtube.com/watch?v=2v3t_0aNCKQ
C O NT I NU A R
Autoevaluación
Pregunta
01/03
Los programas de edición y efectos tienen unos requisitos mínimos
recomendados para
asegurar el correcto funcionamiento del programa.
Verdadero.
Falso.
Pregunta
02/03
Un procesador de 8 núcleos y velocidad de 2,5 GHz tendrá un rendimiento
mayor que
uno con cuatro núcleos y una velocidad de 4 GHz.
Verdadero.
Falso.
Pregunta
03/03
¿Qué sistema de almacenamiento ofrece una mayor velocidad?
HDD.
SSD.
M.2 SSD.
Ninguno de ellos.
Cuando estés realizando el montaje del vídeo podrás cortar y pegar escenas, añadir
transiciones, insertar rótulos, agregar efectos especiales, hacer fundidos, etc. Pero esta
fase, además de requerir mucho trabajo y esfuerzo, requerirá disponer de un
equipamiento hardware específico. Ya has visto que debes contar con un mínimo de 8 GB
de RAM, aunque en función de la resolución con la que trabajes será necesario trabajar
con 16 GB o incluso 32. Con menos de 8 GB podrás montar vídeo, pero de un modo muy
lento y propenso a errores, con lo que no es nada recomendable. Recuerda como regla
general que los equipos Mac están diseñados para trabajar en el ámbito audiovisual y
tienen un mejor desempeño que los PC.

Elementos hardware para la manipulación de


vídeo digital
Ahora que ya conoces de cuánta memoria RAM debes disponer, es el
momento de plantearte la capacidad de tus discos duros. Lo más
recomendable es tener al menos tres discos duros externos. ¿Te estás
preguntando por qué? Pasa a la siguiente pantalla para descubrirlo.
C O NT I NU A R
¿Quieres saber qué tipo de disco duro es el más recomendable a la hora de manipular
vídeos digitales? Lo más recomendable es disponer de discos duros HDD externos. Los
procesos de escritura y lectura serán continuos, y necesitarás disponer de una gran
cantidad de datos para poder trabajar el vídeo. Aunque lo más adecuado será tener el
programa de edición de vídeo junto con el sistema operativo usado en el disco duro
SSD del ordenador, a este habría que sumarle un disco duro externo de al menos 1 TB
para capturar vídeo, otro para renderizar y uno más para exportar y archivar los
vídeos. Es decir, tres discos duros externos en total para agilizar el sistema y optimizar tu
trabajo.

Discos duros para la manipulación de vídeo


digital
Además del disco duro interno es recomendable tener otros tres discos
duros externos. ¿Te estás preguntando cómo conectar estos discos duros
externos? El modo de conexión de los discos duros externos debería ser al
menos por medio de USB 2.0 o, si es posible, por medio de FireWire.
C O NT I NU A R
Además de la memoria RAM y de los discos duros tanto internos como externos, debes
contar con una tarjeta gráfica adecuada, que será el elemento clave para los programas
de edición de vídeo, sobre todo, cuando necesitas usar muchos efectos. Como viste en el
vídeo anterior, hay muchos de estos efectos que utilizan la tarjeta gráfica para
representarlos en pantalla en modo de previsualización. Además, es recomendable usar
un buen procesador. La norma es que mientras más núcleos y más capacidad, mejor
rendimiento y velocidad ofrecerán, así utiliza al menos 4 núcleos a 2,4 GHz.
Ten en cuenta que, a la hora de capturar vídeo, no podrás usar como cableado el USB,
tendrás que emplear cable FireWire y un puerto FW 800 a ser posible.

Otros elementos para la manipulación de vídeo


digital
C O NT I NU A R
En último lugar no menosprecies la importancia del teclado de edición, la
pantalla, escritorio, sillón ergonómico, reposapiés y todos aquellos
elementos que te faciliten el montaje. Es realmente útil, por ejemplo,
disponer de un teclado o funda de edición. Las fundas especiales de
silicona se ponen sobre el teclado de tu ordenador cuando estés montando
y en cada tecla tiene impresa una función que asigna el programa al
ejecutarlo.
Si necesitas llevar a cabo grabaciones de archivos de audio para después editar y
manipular el audio, podrás emplear tu ordenador o portátil para la grabación del audio de
un modo muy sencillo y económico. Tan solo necesitas saber qué hardware necesitas
para ello.
Si lo único que quieres grabar es un podcast o cantar sobre una pista musical de fondo,
tendrías más que suficiente con un micrófono USB. De ese modo tan solo tendrías que
conectar el micrófono al ordenador y grabar con el software de producción musical del
que dispongas.
Pero si necesitas grabar más pistas con distintos instrumentos reales, sería conveniente
usar una interfaz de audio. Tal interfaz no sería más que una tarjeta de sonido
profesional para poder obtener audio dentro y fuera de tu ordenador de un modo muy
sencillo. La interfaz de audio se conecta al ordenador generalmente mediante un puerto
PCIe, USB, FireWire o Thunderbolt. Conectarías el micrófono y el instrumento empleado en
la entrada la interfaz para la grabación, y los altavoces o auriculares en la salida de la
misma.
En caso de usar instrumentos acústicos necesitarás cómo mínimo un micrófono para
capturar la guitarra o un par para la toma estéreo si vas a grabar un piano acústico.
También existen micrófonos de condensador económicos muy adecuados para este
tipo de instrumentos. A veces es más adecuado el uso de un micrófono dinámico, que
son menos sensibles a las altas frecuencias y suavizan las fuentes de audio duras, como
amplificadores de guitarra eléctrica o cajas de batería.

Elementos hardware para la manipulación de


audio digital
Si solo usas instrumentos electrónicos los podrás conectar directamente a una entrada de
la tarjeta de sonido sin precisar del uso de micrófonos.
C O NT I NU A R
Deep fake
Se ha hecho muy popular en los últimos tiempos la aplicación FakeApp. Esta aplicación posee
un algoritmo que permite sustituir la cara de una persona por la de otra extraída de cualquier
otro vídeo.
Hoy en día, la aplicación debe seguir varios pasos para crear vídeos pero en el futuro se desea
simplificar el procedimiento para que quienes hagan uso de ella simplemente tengan que
seleccionar un vídeo en su ordenador, escoger una cara famosa y cambiar la cara del vídeo por la
nueva cara seleccionada, en un simple proceso, presionando solamente un botón.
Si bien es cierto que en algunos casos es fácil distinguir dónde se está cambiando la cara, en
otros es casi imposible detectar que el vídeo es falso y en las siguientes versiones se mejorará el
algoritmo de modo que será imposible del todo poder distinguirlo.
Actualmente, el proceso de entrenamiento se emplea con el rostro de actrices pero están
comenzando a usarse stories de Snapchat o Instagram donde el movimiento de la cara es más
natural y ofrece mayor información.
Los creadores de FakeApp afirman que tan solo con uno o dos buenos vídeos es posible hacer
C O NT I NU A R
un buen “deepfake”. Para ello solo se requiere disponer de una buena tarjeta gráfica que
soporte CUDA (es decir, NVIDIA). El procesamiento de esta aplicación puede ocupar unas 12
horas si se hace con detalle.
Esta aplicación está rodeada de gran polémica ya que se está usando para sustituir la cara de
actrices porno por la de actrices de películas reales.

Recapitulación
Hasta este momento has aprendido que para poder manipular de manera óptima el audio
y vídeo digital, el hardware de tu máquina tendrá unos requerimientos específicos,
bastante más acentuados al tratar con el vídeo.
No solo eso, sino que además conoces ahora que hoy en día se usa bastante el streaming, la
reproducción de contenidos desde la nube y los servicios de televisión a la carta. Pero para
poder llevar a cabo estos servicios se debe emplear un hardware muy específico que cumpla
con unas altas gamas de calidad.
Conoces también ahora que en el montaje del vídeo podrás cortar, pegar escenas, añadir
transiciones, insertar rótulos, agregar efectos especiales, hacer
fundidos. Pero esta fase, además de requerir mucho trabajo y esfuerzo, requiere que
dispongas de un equipamiento hardware específico.
Para finalizar, aprendiste que si necesitas llevar a cabo grabaciones de archivos de audio para
después editar y manipular el audio, debes poder emplear tu ordenador o portátil para la
grabación del audio de un modo muy sencillo y económico. Tan solo necesitas saber qué
hardware necesitas para ello.
CONT I NU A R
Autoevaluación
Pregunta
01/03
¿Cuáles son las resoluciones más empleadas en el streaming?
HD y 4K.
Resoluciones bajas ya que sino no sería posible realizar streaming.
720/704/640 × 480i60.
Ninguna de las anteriores.
Pregunta
02/03
¿Qué cantidad de RAM es aconsejable tener para editar vídeo en 4K?
8 GB.
16 GB.
32 GB.
Ninguno de los anteriores.
Pregunta
03/03
Si lo único que quisieras grabar fuera un podcast o cantar sobre una pista
musical de
fondo, tendrías más que suficiente con un micrófono USB.
Verdadero.
Falso.
En el epígrafe anterior has empezado a conocer los requerimientos de la tarjeta de sonido
a la hora de grabar audio. Ten presente que esta será un elemento determinante para que
la música que escuches disponga de una calidad adecuada, o que suene bien la
distribución del sonido envolvente de los juegos o películas que ejecutes en tu máquina.
Ahora te toca estudiar todos aquellos aspectos relacionados con el uso de la tarjeta de
sonido.
Sigue avanzando para descubrirlos.
La tarjeta de sonido de tu ordenador será determinante para que la música que escuches
disponga de una calidad adecuada o que suene bien la distribución del sonido envolvente
de los juegos o películas que ejecutes en tu máquina.

24. Tarjeta de sonido


A menos que te dediques a la producción de audio, la tarjeta de sonido será básicamente
un componente ignorado de los que forman tu PC. Generalmente, los ordenadores y
portátiles cuentan con una tarjeta de sonido integrada en la propia placa base del
dispositivo.
Antes de comprar una tarjeta de sonido para tu equipo, preocúpate de conocer las
características y la calidad que ofrece la tarjeta de sonido de la placa base integrada en tu
ordenador. Si no cumpliera tus necesidades, deberás comprar una tarjeta de sonido más
adecuada y que pueda adaptarse a tus exigencias.
Pero antes de comenzar a buscar tarjeta de sonido, debes de tener claro cuál será el uso
que le vas a dar y lo que esperas obtener a través de ella. En función de la utilidad que le
vayas a dar, necesitarás un tipo de dispositivo con unas características concretas. No será
lo mismo una tarjeta de sonido para realizar labores de producción musical, que una
destinada simplemente a la reproducción de archivos de audio, películas o videojuegos.
C O NT I NU A R
La tarjeta de sonido o placa de sonido, no es un dispositivo hardware esencial y se
considera parte de las ranuras de expansión de un equipo orientadas a la salida o
entrada del audio.
Su uso es generalmente el de poder disfrutar del audio presente en películas, en música o
en videojuegos. Para ello, habitualmente se emplea una conexión estándar de salida
de audio que posibilita la conexión con un juego de altavoces o bien unos
auriculares.
Pero también es posible conectar un dispositivo de entrada a través de este medio,
como por ejemplo un micrófono o cualquier otro dispositivo que tenga una salida de
audio para poder, de este modo, realizar grabaciones de audio.
Hoy en día es muy frecuente encontrar las tarjetas de sonido integradas en las placas
base con una calidad bastante básica que hará que tan solo sean empleadas de forma
generalizada y no por aquellas personas que busquen una exigencia de tipo profesional.
En tal caso suelen usarse tarjetas de sonido externas que se conectan mediante
USB.
Su funcionamiento genérico se basa en el uso de un chip que transforma las señales
analógicas en una serie de datos digitales a través de una conexión estándar que
permitirá conectar un micrófono, una salida de audio y una conexión auxiliar conocida
como salida de línea. Esta se conecta habitualmente a un equipo de mayor potencia o
bien se usa en forma combinada si se tiene sonido de varios canales como ocurre con las
tarjetas de sonido 5.1.

Uso de las tarjetas de audio


"SOUND CARD" por Cyberslayer bajo licencia CC BY-NC-SA 2.0
C O NT I NU A R
Este vídeo informa sobre qué es y cómo funciona una tarjeta de sonido o interfaz de
audio. Además explica qué es el audio y cómo se transforma y rutea por conversores,
amplificadores y demás.
El vídeo termina con el análisis de una tarjeta de audio, la interfaz Behringer U-Phoria
UM2 y las pruebas de sonido con micrófonos dinámicos y de condensador.
No dejes de verlo porque en las siguientes pantallas deberás responder una serie de
preguntas sobre su contenido.
¡Dale al play!

Cómo sonar igual que en un estudio con una


tarjeta de sonido barata
C O NT I NU A R
Fuente de vídeo: https://www.youtube.com/watch?v=4Wp8X7MvGB0
Autoevaluación
Pregunta
01/03
¿Qué transforma la señal eléctrica continua proveniente del micrófono en una
señal
discreta de unos y ceros?
El micrófono.
El conversor.
El amplificador.
Ninguno de los anteriores.
Pregunta
02/03
¿Cómo se llama la alimentación eléctrica que hace posible que funcione un
micrófono de
condensador?
Alta impedancia.
Preamplificación.
Phantom power.
Ninguno de los anteriores.
Pregunta
03/03
¿De cuánto es la señal de Phantom Power?
9 voltios.
21 voltios.
48 voltios.
Ninguno de los anteriores.

Factores a tener en cuenta al escoger tu tarjeta


de sonido
Muchas veces buscas una serie de características en tu tarjeta de sonido para la funcionalidad
que deseas cubrir con ella. A continuación se enumeran los aspectos que te pueden servir para
decidir cuál es la interfaz de audio más adecuada para ti:
• Sonido envolvente. Algunas de las tarjetas de sonido ofrecen sonido envolvente y
permiten oír todo lo que ocurre en tu entorno, por ejemplo, si estás jugando podrás escuchar
pasos acercándose cada vez más o en algunas películas podrás tener una experiencia
cinematográfica con sonido envolvente. Si ves películas o tu afición son los videojuegos es algo
a tener en cuenta.
• Frecuencia de respuesta. Este aspecto permite poder recibir el audio con claridad y
nitidez. El rango audible para el oído humano está entre los 20Hz y los 20KHz de modo que,
al buscar una tarjeta de sonido, deberás comprobar que proporcione un rango de frecuencias
superior a estos valores.
• La distorsión armónica total indica la cantidad de distorsión que produce. Algunas tarjetas
de sonido tienen un blindaje para protegerla frente a las distorsiones de audio de otros
C O NT I NU A R
dispositivos ubicados en el ordenador. Trata de buscar una tarjeta de sonido que ofrezca un
valor de distorsión armónica total lo más cercano posible a 0.
• Relación señal/ruido (SNR). Indica la relación entre la señal medida en decibelios deseada
en la salida de audio frente a la potencia del ruido no deseado. Mientras mayor sea el valor del
SNR, mayor será la calidad del audio producido ya que tendrá menos ruido de fondo. Debes
tratar de buscar valores de SNR superiores a los 105 dB.
• Extensiones de Audio Ambiental (EAX). Sobre todo indicado si eres fan de los
videojuegos ya que muchos juegos utilizan estas extensiones de audio EAX para ofrecer
efectos de sonido envolvente real y crear una experiencia inmersiva en el escenario del juego.

Recapitulación
Hasta este momento has aprendido que la tarjeta de sonido de tu ordenador será
determinante para que la msica que escuches disponga de una calidad adecuada o
que suene bien la distribución del sonido envolvente de los juegos o películas que
ejecutes en tu máquina.
No solo eso, sino que además conoces ahora que la tarjeta de sonido o placa de sonido no es
un dispositivo hardware esencial y se considera parte de las ranuras de expansión de un
equipo orientadas a la salida o entrada del audio.
Para finalizar, aprendiste que hoy en día es muy frecuente encontrar las tarjetas de sonido
integradas en las placas base con una calidad bastante básica que hará que tan solo sean
empleadas de forma generalizada y no por aquellas personas que busquen una exigencia de
tipo profesional. En tal caso suelen usarse tarjetas de sonido externas que se conectan
mediante USB.
CONT I NU A R
Autoevaluación
Pregunta
01/03
Generalmente, los ordenadores y portátiles cuentan con una tarjeta de sonido
integrada
en la propia placa base del dispositivo.
Verdadero.
Falso.
Pregunta
02/03
¿Qué tipo de tarjetas de sonido suelen emplearse para un uso profesional?
Tarjetas de sonido externas.
Tarjetas de sonido integradas en la placa base.
Tarjetas de vídeo.
Ninguno de los anteriores.
Pregunta
03/03
La tarjeta de sonido de tu ordenador no es determinante para que la música
que
escuches disponga de una calidad adecuada.
Verdadero.
Falso.
En los requerimientos del cliente.
En el manual del proyecto.
Imagina que debes conectar varios micrófonos a tu equipo de tal manera que les saques
el máximo rendimiento. No es una tarea sencilla el conectarlos ya que necesitas tener los
conocimientos suficientes para, al menos, saber cuál es el cable adecuado.
En este epígrafe descubrirás las principales conexiones de audio empleadas en la
actualidad, podrás ver las diferencias existentes entre ellas y cuándo deben emplearse, de
tal modo que al finalizar tengas claro cuál es la conexión más conveniente y qué cables
necesitarás emplear.
¿Te apetece? ¡Pues adelante!
Actualmente hay gran cantidad de conexiones de audio en el mercado, por lo que, para su
estudio, las dividirás en dos grupos dependiendo del tipo de señal que transmiten,
analógica o digital.

25. Conexiones de audio


Los conectores más habituales para el audio analógico son el jack, el RCA y el
DIN. Mientras que los más usados para el audio digital son el S/PDIF coaxial, el TOSLink,
XLR y el Cannon.
¿Qué diferencia existe entre los cables de audio analógicos y digitales? Está claro que
ambos transmiten información de audio. Pero, mientras que los cables analógicos
transmiten señales de audio eléctricas, los cables digitales transmiten información digital
en código binario.
Además, hay otra clasificación en función de si son o no balanceados. Los cables no
balanceados son más propensos a recibir interferencias de radio y ruido. Los cables no
balanceados, tienen en su interior dos cables, un cable conductor y un cable de toma de
tierra. Mientras que los cables balanceados están diseñados para atenuar cualquier
interferencia o zumbido eléctrico gracias a un cable interno adicional, ya que en su
interior posee dos cables conductores y un cable de toma de tierra. Así, al disponer de dos
cables internos el ruido se cancela, pero para que la conexión sea balanceada todos los
puntos de tu circuito de cables estos deberán ser balanceados.
C O NT I NU A R
Existe una gran variedad de tipos de conectores de audio específicos que serán usados
en función de la aplicación en la cual se vayan a emplear o en función del tipo de señal
con el que se trabaje. En esta pantalla aprenderás los más populares y sabrás cuándo es
más adecuado utilizar uno u otro.
Pulsa en estas pestañas para conocerlos:

Tipos de conexiones de audio


RCA –
Conector RCA es un tipo de conector eléctrico común en el ámbito de la imagen y el sonido. En
varias áreas ha sustituido al conector más popular de audio, el jack. Se usa bastante desde que
los reproductores de casete se hicieron populares, allá por los años 70.
Actualmente es usado en algunos televisores antiguos y en otros equipos como grabadores de
vídeo o DVD. La señal de los RCA no es balanceada y generalmente corresponde a -10 dB.

DIN –
Conector DIN es aquel que posee un extremo circular. Fueron los primeros en
estandarizarse para su uso con señales de audio analógicas. Algunos de estos conectores se
emplearon en la transmisión de vídeo analógico y en interfaces digitales como, por ejemplo, MIDI
o el conector PS/2 de teclado y mouse de IBM.

Jack –
Conector jack es el conector más popular de audio y se emplea en numerosos dispositivos
para la transmisión de sonido en formato analógico. Existen varios tipos de jack, los más
usados son los minijack, que tienen 3.5 mm y son usados en dispositivos portátiles, como los
mp3 para la salida de los cascos. Existe otro tamaño de 2.5 mm menos utilizado. La versión
mayor es la de 6.35 mm y es la que se emplea en audio profesional y con instrumentos
musicales eléctricos.

Speakon –
Conector Speakon es el conector empleado en la conexión de amplificadores y altavoces.
Los conectores Speakon están diseñados con sistemas de bloqueo y admiten conexiones con
soldadura o mediante tornillos. Las terminaciones machos se encuentran siempre en el cable,
con conectores idénticos a ambos extremos y encontrarás las hembras en los paneles de
conexión. Están completamente protegidos y blindados de la manipulación accidental de
cualquiera y pueden soportar altas potencias.

XLR Cannon –
Conector XLR Cannon. Es el empleado en el ámbito del sonido profesional. Es similar al
conector DIN, ya que dispone de vástagos metálicos dispuestos en un ángulo de 180º y
envueltos en un anillo metálico a modo de blindaje.

TOSLINK –
Conector de audio óptico TOSLINK. Se trata de un conector creado por Toshiba para señales
digitales de audio ópticas. Se desarrolló para la conexión con reproductores de CD y
receptores de señales PCM. Este conector pretende reducir la cantidad de cables que van
desde el reproductor de DVD o Blu-ray, hasta el amplificador en los sistemas de sonido
envolvente. Además, no se ve afectado por el ruido electromagnético.
C O NT I NU A R
Gracias a este vídeo podrás aprender sobre las diferentes entradas que tiene las tarjetas
de sonido, así como los diferentes conectores de audio.
No dejes de verlo porque complementa lo que ya has aprendido en la pantalla anterior,
además de que en la siguiente deberás responder a una serie de preguntas sobre su
contenido.
Dale al play.

Conectores, cables de audio y entradas de la


tarjeta o interfaz de sonido
Fuente de vídeo: https://www.youtube.com/watch?v=QslIBU1jWRc
C O NT I NU A R
Autoevaluación
Pregunta
01/03
¿Qué conexiones permite la entrada híbrida?
Conexión coaxial y entrada jack.
Conexión XLR y entrada de línea.
Conector XLR y jack.
Ninguno de los anteriores.
Pregunta
02/03
¿ Para qué se usa principalmente la versión minijack?
Para conectar auriculares a dispositivos de reproducción de audio.
Para la conexión con instrumentos eléctricos musicales.
Para transmitir señales de vídeo digital.
Ninguno de los anteriores.
Pregunta
03/03
¿Cuál es el conector que tiene un extremo delimitado por una camisa metálica
circular
que tiene unos pines que pueden variar en número?
Jack.
DIN.
XLR.
En el manual del proyecto.

Cables balanceados vs. cables no balanceados


metros para evitar interferencias.
A la hora de escoger entre cables balanceados y no balanceados ten en cuenta que todo tu
circuito de cables debe ser balanceado para que la conexión lo sea. Esto incluye las salidas
de tu hardware, los cables y las entradas en las que conectas los cables. Si alguna de las partes
no es balanceada, tu conexión no lo será.
Tu hardware será balanceado si dispone de salidas o entradas XLR. Además, deberá figurar esta
característica en el propio equipo o en su manual de uso. Existen algunos dispositivos que
claramente no son balanceados, como las guitarras eléctricas o los bajos, aquellos que
tienen una salida mono o estéreo de tipo jack o aquellos que tienen entradas o salidas
RCA.
Conocer la diferencia entre cables balanceados y no balanceados es muy importante a la hora de
escoger los cables adecuados para cada situación. Una buena elección evitará pérdidas de
señal o interferencias desagradables en tus grabaciones. Incluso podría provocar un daño en
tu material la elección de un cable inadecuado.
Si tu equipo es balanceado debes usar sin duda cables balanceados, pero si no tienes una
conexión balanceada, usa cables lo más cortos posible, que no sean mayores de 1,8
C O NT I NU A R
Recapitulación
Hasta este momento has aprendido que a veces es complicado conectar distintos
equipos de sonido, ya que necesitas tener los conocimientos suficientes para al menos
poder saber cuál es el cable adecuado. No solo eso, sino que además conoces ahora que
los conectores más habituales para el audio analógico son el jack, el RCA y el
DIN. Mientras que los más usados para el audio digital son el S/PDIF coaxial, el TOSLink,
XLR y el Cannon.
Conoces también ahora también que el conector RCA es un tipo de conector eléctrico
común en el ámbito de la imagen y el sonido. En varias áreas ha sustituido al conector más
popular de audio, el jack. Se usa bastante desde que los reproductores de casete se
hicieron populares.
Además, aprendiste que el conector DIN es aquel que posee un extremo circular y fueron
los primeros en estandarizarse para su uso con señales de audio analógicas.
También sabes ahora que el conector jack es el conector más popular de audio y se
emplea en numerosos dispositivos para la transmisión de sonido en formato analógico.
Sabes ahora que el conector Speakon es el conector empleado en la conexión de
amplificadores y altavoces.
Aprendiste que el conector XLR Cannon. Es el empleado en el ámbito del sonido
profesional.
Para finalizar, aprendiste que el conector de audio óptico TOSLINK es un conector creado
por Toshiba para señales digitales de audio ópticas.
CONT I NU A R
Autoevaluación
Pregunta
01/03
La señal de los RCA es balanceada.
Verdadero.
Falso.
Pregunta
02/03
¿Qué conector es el que se usa en audio profesional y con instrumentos
musicales
eléctricos?
Jack.
DIN.
XLR.
Ninguno de los anteriores.
Pregunta
03/03
¿Qué conector es similar al conector DIN?
Jack.
DIN.
XLR Cannon.
Ninguno de los anteriores.
Las tarjetas de captura son dispositivos que transforman la señal de vídeo en un
flujo de datos que pueden ser procesados en un entorno informático, de tal modo que
esos datos recibidos por el ordenador podrán destinarse a generar ficheros para trabajar
con ellos de múltiples modos.
En este epígrafe podrás aprender en profundidad diversos aspectos relacionados con la
captura de la señal de vídeo analógico.
No dejes de avanzar en el tema.
A la hora de escoger la capturadora debes tener en cuenta el tipo de señal de vídeo con
el que vayas a trabajar. Así, podrás encontrar capturadoras con un solo tipo de señal de
entrada y otras muchas que dispondrán de una variedad de tipo de señales. Por ello será
importante elegir la capturadora adecuada, esta acción puede conllevar un ahorro
económico significativo. Si vas a trabajar con formatos digitales debes escoger una

26. Capturadora de vídeo analógico


capturadora con entradas SDI y HDMI. O si vas a trabajar con contenido antiguo que solo
puedas obtener en analógico deberás adquirir una capturadora analógica.
En función de la tarjeta que tenga tu ordenador, tendrás que emplear una externa si no
cumple con tus requerimientos.
La capturadora de vídeo es una tarjeta para expansión de capacidades y ofrece la
función de captar señales de vídeo/audio, para poder después editarlas y manipularlas en
función de las necesidades de la persona usuaria. La tarjeta capturadora de vídeo suele
encontrarse dentro de las ranuras de expansión o slots integradas en la placa base. Las
tarjetas capturadoras de vídeo disponen de distintos puertos para poder conectar una
multitud de dispositivos externos tales como reproductores DVD o Betamax, videocasetes,
televisores, etc.
Entre los diversos tipos de interfaz, el empleado genéricamente por las capturadoras de
vídeo es la interfaz PCI (Peripheral Components Interconect). Ofrece una capacidad de
datos de 32 bits y 64 bits, y una velocidad de transferencia que va desde los 125.88 MB/s
hasta los 503.54 MB/s respectivamente. Contando con una velocidad interna de trabajo de
33 MHz para 32 bits y 66 MHz para 64 bits.
C O NT I NU A R
Básicamente su funcionamiento consiste en capturar las señales externas de vídeo
utilizando una conexión HDMI. De esta manera, por medio de la captura recogen el audio
o vídeo para guardarlo a posteriori en formato digital. Para ello codifican las secuencias de
vídeo en el formato adecuado. Por medio de este proceso se puede incluso transmitir en
directo (streaming) contenidos de audio o vídeo.
Hay algunas diferencias importantes entre los distintos tipos de tarjetas capturadoras, en
función de su utilidad y sus capacidades, variará también su precio. A continuación verás
los tres tipos de capturadoras más populares existentes en el mercado. Pulsa en las
imágenes para descubrirlas:

Tipos de capturadoras de vdeo


Sintonizadoras de TV
Son las más baratas y su precio ronda
los 50 euros. A través de esta tarjeta
podrás ver la televisión en tu
ordenador y capturar su señal de
vídeo. Son muy populares y es
frecuente encontrarlas en los
C O NT I NU A R

Tarjetas de captura
Con ellas podrás capturar imágenes y
realizar el proceso inverso, es decir,
enviar imágenes desde tu ordenador
a un dispositivo analógico. Todas las
tarjetas de vídeo actuales ofrecen
salida de vídeo y muchos opinan que
Tarjetas de edición
Además de servir para enviar y recibir
vídeo desde y hacia dispositivos
analógicos y digitales, te permitirán
realizar la edición de ellas. Ofrecen
filtros y transiciones en tiempo real e
incluso la compresión por hardware,
Uno de los usos más comunes de las capturadoras de vídeo es la grabación
en alta definición o estándar desde la PS3, XBOX 360 o Wii para después
subir el resultado a Internet. Además, también se pueden utilizar para pasar
los vídeos en DVD a formato HD.
Un dispositivo de captura de vídeo es una pieza de hardware que permite transferir audio
y vídeo desde una videograbadora, videocámara u otros dispositivos, a tu ordenador para
que pueda almacenarse en un disco duro, ya sea para edición o simplemente para fines
generales de archivo.
Las capturadoras de vídeo tienen unos componentes fácilmente identificables, ya que son
visibles al no tener ningún tipo de cubierta protectora, es decir, tales tarjetas pueden
apreciarse a simple vista.
Estos se enumeran a continuación:

Componentes de la capturadora de vdeo

Tarjeta
Es el contenedor del resto de los componentes, es decir, la placa en la que el resto de componentes
estarán montados.

Chip de procesamiento
Se encarga de llevar el procesamiento y gestión de la captura de los vídeos, por lo que se encargará
del
funcionamiento básico de la tarjeta.

Conector
Suelen estar insertados en los slots o ranuras de la placa base y a través de estas conexiones se
envían
y reciben las señales de vídeo capturadas.

Puerto
Permite que la recepción de la señal de vídeo externa se reciba desde el dispositivo que sea.

Soporte
Posibilita la fijación de la tarjeta a la carcasa contenedora del ordenador de modo que se aferre a la
caja y
se eviten movimientos que pudieran provocar que se desconecte del slot de la placa base.
C O NT I NU A R

No dejes de ver este vídeo si quieres aprender cómo convertir tus vídeos VHS a formato
digital.
Seguro que alguna vez lo has pensado y para hacerlo basta con utilizar una capturadora
de vídeo analógico.
No dejes de verlo atentamente porque en la siguiente pantalla deberás responder una
serie de preguntas sobre su contenido.

Convertir VHS a digital


Fuente de vídeo: https://www.youtube.com/watch?v=_fSMDod9wHw
C O NT I NU A R
Autoevaluación
Pregunta
01/03
¿Cómo se conecta la capturadora a la videocámara?
Mediante un cable RCA.
Mediante un puerto USB.
Mediante firewire.
Ninguno de los anteriores.
Pregunta
02/03
¿Qué otro tipo de conexión ofrece la capturadora del vídeo además de la
conexión para
cable RCA?
USB.
Firewire.
S-Vídeo.
Ninguno de los anteriores.
Pregunta
03/03
El software para realizar la captura viene junto a la capturadora y con ella
podrás hacer
modificaciones a la señal capturada.
Verdadero.
Falso.

Cómo pasar de VHS a otros formatos digitales


El proceso para transferir tus vídeos grabados en cintas VHS a otros formatos digitales no es
nada complicado, como podrás ver a continuación. Tan solo debes de seguir los siguientes pasos:
1. Lo primero que deberás hacer será conectar el reproductor de vídeo VHS a tu ordenador.
Para ello seguramente requieras una capturadora de vídeo que se conectará a tu ordenador
por el puerto USB y a tu reproductor de vídeo usando un cable RCA. Si no dispone de esas
conexiones igual necesitarás usar un adaptador de euroconector a cable RCA.
2. Una vez que estén correctamente conectados, debes dar comienzo al proceso de
digitalización de tus cintas VHS. Para ello debes iniciar la aplicación para la captura de
vídeo en tu ordenador y comenzar a reproducir la cinta VHS en su reproductor VHS en el
punto en el que desees comenzar a grabar.
3. Cuando quieras finalizar la grabación, simplemente debes detener el software de
grabación para dar fin al vídeo digital resultante y para detener la reproducción del casete
VHS en el vídeo.
4. Una vez que ya has obtenido el resultado digital de la grabación del vídeo podrás
almacenar este en cualquier formato, ya más adecuado para su almacenamiento, como un
C O NT I NU A R
pendrive o un DVD. Y ya dispondrás de tus recuerdos familiares grabados en cinta analógica en
otro tipo de almacenamiento que hará que perdure mucho más en el tiempo.

Recapitulación
Hasta este momento has aprendido que las tarjetas de captura son dispositivos que
transforman la señal de vídeo en un flujo de datos que pueden ser procesados en
un entorno informático.
No solo eso, sino que además conoces ahora que a la hora de escoger la capturadora
debes tener en cuenta el tipo de señal de vídeo con el que vayas a trabajar. De modo
que podrás encontrar capturadoras con un solo tipo de señal de entrada y otras
muchas que dispondrán de una variedad de tipo de señales.
Conoces también ahora que existen tres tipos de capturadoras: sintonizadoras de TV,
tarjetas de captura y tarjetas de edición.
Para finalizar, aprendiste que los componentes de una capturadora de vídeo son:
tarjeta, chip de procesamiento, conector, puerto y soporte.
C O NT I NU A R
Autoevaluación
Pregunta
01/03
Si no dispones de capturadora integrada en tu placa base no podrás disponer de
ninguna
externa.
Verdadero.
Falso.
Pregunta
02/03
¿Cuál es el tipo de capturadora de vídeo más barata?
Sintonizadoras de TV.
Tarjetas de captura.
Tarjetas de edición.
Ninguno de los anteriores.
Pregunta
03/03
¿Qué parte de la capturadora es la que posibilita la fijación de la tarjeta a la
carcasa
contenedora del ordenador?
El puerto.
El soporte.
La tarjeta.
Ninguno de los anteriores.
Las tarjetas de vídeo o tarjetas gráficas llevan a cabo el procesamiento de los datos
que provienen del procesador principal y los convierten en datos que pueden
representarse en dispositivos tales como monitores o televisores. Tiene una gran variedad
de arquitecturas, incluso cuando se trata de un chip de vídeo integrado en una placa
madre, en este caso se le conoce como unidad de procesamiento gráfico (GPU).
En este epígrafe podrás descubrir en profundidad todos los aspectos relacionados con las
tarjetas de vídeo.

27. Tarjeta de vídeo


Las tarjetas de vídeo son dispositivos electrónicos encargados de gestionar el modo en el
que se muestran las imágenes y el texto que aparece en el monitor de tu ordenador. La
Las tarjetas gráficas realizan la traducción de la información que se procesa en el
ordenador y se muestra en el monitor, de modo que se pueda entender por parte de
cualquier persona. Este dispositivo también es conocido como controlador de vídeo,
adaptador de vídeo, acelerador de vídeo o acelerador gráfico. Existe una gran variedad
de modelos disponibles en la actualidad y la gran mayoría están orientadas a personas
que requieren mucha capacidad gráfica para trabajar, por ejemplo, en la edición de vídeos
o en el desarrollo de videojuegos.
La salida de la tarjeta gráfica, es decir, las imágenes que genera, se transmiten mediante
los puertos de vídeo a través de cables especiales que guían la señal hacia uno o varios
monitores. Mientras que los puertos de vídeo son parte de la tarjeta gráfica, los demás
elementos no lo son, y el monitor será un elemento externo, es decir, un periférico ajeno al
resto de los componentes del ordenador.
C O NT I NU A R
calidad de la tarjeta de vídeo será determinante e influirá en muchos aspectos, sobre todo en lo
referido a videojuegos, edición de vídeo o 3D.
Los primeros sistemas de procesamiento de vídeo eran muy lentos. La CPU tenía una gran
carga de trabajo al procesar los datos gráficos y la cantidad de datos transferidos
implicaba cargas excesivas en el sistema. Además, el convertidor de analógico a digital
leía el contenido de la memoria de vídeo, lo convertía en una señal RGB analógica y lo
enviaba a través del cable de vídeo al monitor, pero para hacer esto tenía que esperar a
que la CPU dejara de trabajar, y viceversa.
El problema se resolvió con la introducción de chips de procesamiento de gráficos
colocados en las tarjetas gráficas modernas. Así, la CPU envía un conjunto más pequeño
de instrucciones que son ejecutadas por el procesador de gráficos de la tarjeta de vídeo,
que está diseñado para manejar estas tareas a velocidades mucho mayores que el
software que se ejecuta en la CPU del sistema. De esta manera, como también hay menos
datos para transferir, también hay menos congestión en el sistema y la carga de trabajo
de la CPU se reduce considerablemente.
Los componentes electrónicos que forman parte de una tarjeta de vídeo son estos que
puedes conocer pulsando en estas pestañas:
Es el conector desde el que saldrá el cable que se usará para guiar la señal de salida hacia el
monitor. Hay varios tipos de ellos, como puedes apreciar a continuación:
Puerto VGA. Es el conector estándar y más popular de los monitores. En él se conecta el
cable de la computadora que enviará la señal de salida hacia el monitor.

Componentes de una tarjeta de vídeo


PU E R T O DE CO NE X IÓ N ME MO R IA CH IP DE V ÍDE O
Puerto DVI (Digital Video Interface). Se trata del conector de salida que se usa para
conectar con monitores digitales planos.
Puerto HDMI (High Definition Multimedia Interface). Es el conector de salida de alta
calidad que se emplea para conectar con cualquier dispositivo que soporte esta tecnología
de audio y vídeo digital. Está desbancando al VGA y es el conector más popular de los
monitores modernos.
Puerto TV. Algunas las tarjetas de vídeo también permiten ver la señal de televisión
mediante un chip que transforma la señal de audio digital en análoga compatible con
la TV.
Las tarjetas de vídeo disponen de su propia memoria en la que se almacena toda la información
para mostrarla posteriormente. Mientras más memoria disponga una tarjeta de vídeo, mayor
cantidad de datos permitirá procesar y, por tanto, podrá ofrecer una mejor calidad en el monitor.
Puedes encontrar actualmente en el mercado tarjetas de vídeo de 2 Gb , 4 Gb y hasta más
memoria.
PU E R T O DE CO NE X IÓ N ME MO R IA CH IP DE V ÍDE O
Se trata de la CPU de la tarjeta de vídeo. Se le conoce como la unidad de procesamiento de
gráficos (Graphics Processing Unit, GPU) y se encarga de generar los cálculos necesarios para
mostrar una imagen, eximiendo de esas gestiones al microprocesador de la computadora, con el
consiguiente ahorro de tiempo y energía.
PU E R T O DE CO NE X IÓ N ME MO R IA CH IP DE V ÍDE O
C O NT I NU A R
La minería de las criptomonedas hace tiempo que es una opción posible de monetización
si inviertes en equipos especializados y está demostrado que las unidades de
procesamiento gráfico de las tarjetas gráficas son una buena herramienta para esto.
Pero el gran acopio de tarjetas gráficas para su uso en la minería de criptomonedas ha
provocado que su precio se dispare. Cada vez que se lanza una nueva criptomoneda,
surge de nuevo una tendencia desmedida de comprar tarjetas gráficas, es un problema
que se da sobre todo en Estados Unidos.
El uso que se les suele dar es conectar el máximo número posible de tarjetas gráficas
que soporte la placa base. Con este grupo de GPUs trabajando en paralelo se minan
criptodivisas y de ese modo se genera dinero virtual en criptomonedas. Esos picos de
compra masiva provocan una escasez de tarjetas gráficas que desestabiliza el equilibrio
entre la oferta y la demanda. El resultado de ello es que a veces resulte complicado
encontrar una tarjeta gráfica para tu equipo, al menos por un precio razonable.

La subida de precios de las tarjetas gráficas


debido a su uso en la minería de criptomonedas
Los precios de las tarjetas de vídeo en España son mucho más elevados de lo que los
fabricantes establecían en sus lanzamientos. Y eso cuando están disponibles, ya que la
mayoría de ellos están temporalmente agotados.
Como se comentaba anteriormente, este problema se agudiza en Estados Unidos, donde la
minería de criptodivisas ha provocado el agotamiento de las existencias de todo tipo de
tarjetas gráficas. Y las gráficas disponibles, si es que las hay, tienen precios disparatados
que podrían equivaler a equipos completos.
C O NT I NU A R
Este vídeo de la empresa Dell te ofrece información de manera clara y sencilla sobre
tarjetas gráficas, sus componentes, principales tipos, rendimientos de cada uno de ellos,
utilidades, funciones, etc.
Aprovecha para repasar los conceptos estudiados en las pantallas anteriores y aprender
otros nuevos que seguro que te ayudan a manejarte en tu ámbito profesional.
Estate atento porque en la siguiente pantalla deberás responder a algunas preguntas
sobre su contenido.

Tarjetas gráficas. ¿Qué son y para qué sirven?


Fuente de vídeo: https://www.youtube.com/watch?v=r_GlNgkE1lo
C O N T I NU A R
Autoevaluación
Pregunta
01/03
¿Qué tipos de tarjetas de vídeo existen en función de estar o no formando parte
de la
placa base?
Internas o externas.
Dedicadas o integradas.
Adaptadores o capturadoras.
Ninguno de los anteriores.
Pregunta
02/03
La tarjeta integrada usa su propia memoria para ejecutar sus tareas.
Verdadero.
Falso.
Pregunta
03/03
Si usas Windows y quieres saber qué tarjeta gráfica usas en tu ordenador, basta
con ir al
Menú de Inicio y escribir “administrador de dispositivos”, tras pulsar en él,
busca la
opción “adaptadores de pantalla” y expándelo para ver la tarjeta gráfica de tu
equipo.
Verdadero.
Falso.

Cómo escoger tu tarjeta gráfica


Lo primero que debes comprobar a la hora de adquirir una tarjeta gráfica para tu equipo es si
esta es compatible con tu equipo actual. Y no debes fijarte solo en los conectores, sino que
también deberás comprobar la fuente de alimentación, la placa base y las ranuras PCI. Y,
aunque parezca absurdo, cuida también que la tarjeta quepa en tu torre, ya que hoy en día las
tarjetas gráficas actuales tienen un tamaño considerable.
La comprobación de la fuente de alimentación es importante ya que las tarjetas más potentes
de la actualidad necesitan una fuente que les proporcione la energía suficiente.
Pero ojo, ya que no te servirá de nada el adquirir una tarjeta de alta gama si tu equipo no dispone
de un procesador y una memoria a su altura. Incluso hasta tu monitor puede ser un cuello de
botella. Por lo que, si deseas una tarjeta gráfica que ofrezca una resolución en 4K, no podrás
apreciar su potencia si tu monitor solo ofrece resoluciones de 1080p.
Hay varios aspectos en los que deberás fijarte además de su compatibilidad. Observa la potencia
y velocidad de una tarjeta gráfica, que te indicarán los TFLOPS de potencia bruta, los núcleos
CUDA o la velocidad o frecuencia de funcionamiento. En los tres casos un número mayor de
frecuencia, TFLOPS o núcleos CUDA indicarán que tienen una mayor potencia.
C O NT I NU A R
Comprueba también la cantidad, el tipo y el ancho de banda de la memoria. Ojo, porque el tipo de
memoria y su ancho de banda son más determinantes incluso que la cantidad bruta de la misma.
Fíjate también en aspectos como el consumo, la refrigeración, los conectores o las salidas de
vídeo que ofrecen a quien las adquiera.

Recapitulación
Hasta este momento has aprendido que las tarjetas de vídeo o tarjetas gráficas llevan a
cabo el procesamiento de los datos que provienen del procesador principal y
convertirlos en datos que pueden representarse en dispositivos tales como monitores o
televisores.
No solo eso, sino que además conoces ahora que la salida de la tarjeta gráfica, es decir, de las
imágenes que genera se transmiten mediante los puertos de vídeo a través de
cables especiales que guían la señal hacia uno o varios monitores.
Conoces también ahora que los componentes electrónicos que forman parte de una
tarjeta de vídeo son los que a continuación se enumeran: puertos de conexión, memoria y
chip de vídeo.
Para finalizar, aprendiste que el gran acopio de tarjetas gráficas para su uso en la minería
de criptomonedas ha provocado que su precio se dispare.
CONT I NU A R
Autoevaluación
Pregunta
01/03
¿A qué llamamos la CPU de la tarjeta de vídeo?
A su memoria.
A la unidad de procesamiento de gráficos.
A sus conectores.
Ninguno de los anteriores.
Pregunta
02/03
¿Qué ha provocado que se dispare el precio de las tarjetas gráficas?
Un uso cada vez más extendido de edición de vídeos.
Un uso cada vez más extendido de videojuegos.
Su uso para la minería de datos.
Ninguno de los anteriores.
Pregunta
03/03
Mientras más memoria disponga una tarjeta de vídeo, mayor cantidad de datos
permitirá procesar y, por tanto, podrá ofrecer una mejor calidad en el monitor.
Verdadero.
Falso.
A día de hoy la programación con Flash está herida de muerte, aunque en sus buenos
tiempos fue considerado el estándar para la creación de contenidos animados para
su difusión a través de Internet. En su día fue una potente herramienta de animación
y diseño con un entorno de programación para aplicaciones multimedia interactivas. Es
decir, Flash permite crear animaciones y elementos gráficos que ofrecen
comportamientos interactivos.
Aunque desde el año 2010 llevan intentando enterrar la tecnología Flash, lo cierto es que
hasta ahora ha sobrevivido, con todos sus defectos, pero también con sus virtudes
incontestables. ¿Quieres descubrir qué es lo que ha convertido a Flash en un
superviviente de negro futuro?
Sigue leyendo para averiguarlo.

28. Animaciones Flash


Con las animaciones Flash se han creado desde películas a series de animación, se
distribuye en el formato de archivo SWF. Ofrece un cierto tipo de movimiento y estilo visual
bastante simple pero que gozó de gran popularidad. De hecho, muchas series de
televisión, anuncios publicitarios y cortometrajes premiados se han realizado con Flash.
En los años 90 el ancho de banda era muy escaso, apenas 56 kbit/s, y obligaba a realizar
archivos de bajo peso para agilizar la carga de las páginas web. Por ello triunfó Flash ya
que permitía publicar cortos y experiencias interactivas en menos de 1 MB.
La mayoría de las animaciones Flash están creadas con figuras basadas en vectores que
resultan en un aspecto gráfico bastante simple pero que hacía que fueran mucho más
ligeras de tamaño.
C O NT I NU A R
Puedes ver series de animación realizadas con Flash que fueron realizadas
para verse en Internet. Así, puedes ver series de animación internacionales
como The Goddamn George Liquor Program o una serie animada española
de gran éxito como “Cálico Electrónico”.
Flash gozó de una época dorada en la que cualquier página web que quisiera ofrecer un
aspecto moderno y profesional debía incluir alguna animación realizada con ella. Incluso
había sitios web realizados completamente en Flash.
A continuación, se enumeran algunas de las características más relevantes de estas
animaciones:

Las características de las animaciones Flash


El uso de Flash permite además de animaciones espectaculares, una gran
interactividad con la persona usuaria.
Ofrece un rápido aprendizaje y su uso es sencillo. Con muy poco tiempo de
experiencia podrás crear animaciones muy sofisticadas.
El entorno de Flash ofrece herramientas para probar tus creaciones y verlas tal como
las vería la persona consumidora final antes de publicarlas. Además, las animaciones
desarrolladas con Flash son multiplataforma, se ven del mismo modo con
independencia del navegador y del sistema operativo.
Aunque incorporen elementos complejos o interactivos, se descargan rápidamente,
ya que tienen unos tamaños relativamente modestos.
Es sencillo incorporar, a través de un sistema de bibliotecas, en una animación
Flash imágenes, sonido y vídeo, incluso ficheros externos, sincronizados o no con las
animaciones.
C O NT I NU A R
Muchos son los problemas que ha ido experimentando Flash a lo largo de su historia,
hasta llegar un momento en el que ha incluso perdido fuelle con el escaso o nulo apoyo
que le ofrecen Apple, Facebook, Google, Microsoft o Mozilla.
Han ido surgiendo nuevas tecnologías como HTML5, WebGL y WebAssembly que parece
que van a acabar derrotando a Flash. Cada vez cogen más fuerza como alternativas para
desarrollar animaciones.
Steve Jobs ya predijo que nos encontramos en “la era móvil (..) de dispositivos de baja
potencia, interfaces táctiles y estándares web abiertos, todas las áreas en las que Flash se
queda corto".
El novedoso uso de HTML5 y las aplicaciones nativas para dispositivos móviles han
cubierto el hueco de Flash en los smartphones o tablets. Allí donde no podía llegar Flash,
al no estar preparado para interactuar con pantallas táctiles, han llegado nuevas
tecnologías adaptadas a estos nuevos entornos.
Flash también flaquea en seguridad ya que presenta fallos que ponen en riesgo la
seguridad de quien lo utilice ya que podría permitir que algún atacante acabara tomando
el control de los dispositivos que ejecutaran la animación Flash. Estas vulnerabilidades
críticas han acabado haciendo mucho daño y dando la razón al grupo de empresas que
han decidido dejar de dar soporte a Flash.
A día de hoy el navegador más utilizado en el mundo, Google Chrome, anuncia que dejará
de soportar esta tecnología en el 2020.

Los problemas de Flash en la actualidad


C O NT I NU A R
Mediante este vídeo puedes aprender los rudimentos básicos de creación de movimientos
mediante Adobe Flash. No dejes de verlo para comprender la popularidad de esta
tecnología debida a la sencillez de su uso.
Además, en la pantalla siguiente deberás responder a una serie de preguntas sobre su
contenido.
¡No te lo pierdas!

Adobe Flash. Guía de movimiento básico


Fuente de vídeo: https://www.youtube.com/watch?v=SuI0SWaw0Jo
C O N T I NU A R
Autoevaluación
Pregunta
01/03
Debes añadir guía de movimiento clásica para dotar de movimiento a la figura
que hayas
trazado.
Verdadero.
Falso.
Pregunta
02/03
La velocidad de Flash, que no podrás modificar, es de 20 fotogramas por
segundo.
Verdadero.
Falso.
Pregunta
03/03
¿Qué atajo de teclas debes usar para probar la animación?
Control + P.
Alt + E.
Control + Enter.
Ninguno de los anteriores.

Flash tiene fecha de caducidad: 2020


Actualmente la popularidad que Flash tenía prácticamente ha desaparecido, incluso sus propios
creadores se han ido desmarcando de una plataforma que tiene ya los días contados. Su propia
empresa, Adobe, ya ha anunciado que en 2020 dejará de distribuir y actualizar Flash
Player. Se comienza a animar a emplear otro tipo de estándares abiertos para sustituir a Flash.
Quien sentó un precedente clave fue Steve Jobs, quien tras la llegada del iPhone prohibió el
uso de Flash en los iPhone y los iPad.
Algunas de las grandes empresas ya han comenzado a dejar de ofrecer soporte a Flash:
• Chrome. Ha comenzado a pedir permiso para reproducir contenidos Flash, y acabará
eliminando Flash completamente de Chrome a finales de 2020.
• Firefox. También ha comenzado a preguntar en qué sitios deseas habilitar Flash, y lo
deshabilitará por completo en 2019.
• Edge. Ya te avisa sobre contenidos Flash, y a finales de 2020 lo deshabilitará completamente
tanto en Edge como en Internet Explorer.
• Safari. Apple comenzó a bloquear contenidos Flash en su navegador desde 2016.
C O NT I NU A R
• Facebook. Existe una gran cantidad de juegos y contenidos en Flash en esta red social. Los
responsables de Facebook han solicitado a sus desarrolladores que los modifiquen.

Recapitulación
Hasta este momento has aprendido que, a pesar de que a día de hoy Flash está herida de
muerte, en sus días fue considerado el estándar para la creación de contenidos
animados para su difusión a través de Internet. Fue una potente herramienta de
animación y diseño con un entorno de programación para aplicaciones multimedia
interactivas. Permite crear animaciones y elementos gráficos que ofrecen
comportamientos interactivos.
No solo eso, sino que además conoces ahora que Flash gozó de una época dorada en la
que cualquier página web que quisiera ofrecer un aspecto moderno y profesional
debía incluir alguna animación realizada con ella. Incluso había sitios web realizados
completamente en Flash.
Conoces también ahora que el uso de Flash permite aportar además de animaciones
espectaculares, una gran interactividad con las personas usuarias.
Además, aprendiste que muchos son los problemas que ha ido experimentando Flash a
lo largo de su historia, hasta llegar un momento en el que ha incluso perdido fuelle con el
escaso o nulo apoyo que le ofrecen Apple, Facebook, Google, Microsoft o Mozilla.
Para finalizar, aprendiste que Steve Jobs ya predijo que “la era móvil trata de dispositivos
de baja potencia, interfaces táctiles y estándares web abiertos, todas las áreas en las que
Flash se queda corto".
C O NT I NU A R
Autoevaluación
Pregunta
01/03
¿En qué formato de archivo se distribuye Flash?
PSD.
SWF.
FSH.
Ninguno de los anteriores.
Pregunta
02/03
¿Cuál de las siguientes no es una característica de Flash?
Ofrece un rápido aprendizaje y su uso es sencillo.
Permite, además de animaciones espectaculares, una gran interactividad con las personas usuarias.
Los archivos creados con esta tecnología se descargan rápidamente ya que tienen unos tamaños
relativamente modestos.
Es una tecnología muy popular hoy en día con mucha vida por delante.
Pregunta
03/03
Han ido surgiendo nuevas tecnologías como HTML5, WebGL y WebAssembly
que
parece que van a acabar derrotando a Flash.
Verdadero.
Falso.
Anteriormente la captura del vídeo se hacía de manera analógica e incluso su
almacenamiento se realizaba de manera analógica.
Esto provoca ahora el que tengas que hacer conversiones a almacenamiento digital si
quieres conservar por más tiempo tus grabaciones en analógico. Pero esto es un problema
que no existe en la actualidad ya que la captura de vídeo ya se hace en digital a menos
que seas un enamorado del vídeo analógico.
Este último epígrafe trata precisamente de cómo realizar captura de vídeo digital.
No te lo pierdas.
Hoy en día existen una gran cantidad de dispositivos que te permiten capturar vídeo
digital, lo que te será complicado es lo contrario, encontrar dispositivos para la captura de
vídeo analógico, al menos que estén operativos al cien por cien. Existen cámaras miniDV,

29. Captura de vídeo digital


cámaras DVD, cámaras de tarjetas de memoria, tu propia webcam o incluso tu teléfono
móvil. Con todos ellos podrás capturar vídeo digital con diversas resoluciones.
Aunque parezca mentira, la cámara en los teléfonos móviles se ha convertido en un
elemento muy importante, que incluso muchas a veces determina que te decidas por un
modelo u otro. Ofrecen además estabilizador de vídeo, aunque otras veces tan solo
cuentan con estabilizador de imagen para la fotografía, no para el vídeo.
Algo que realmente es determinante al capturar vídeo es la tasa de bits, ya que influye
bastante en la calidad de imagen del vídeo. Con lo que, aunque emplees una resolución
de 4K, siempre ofrecerás resultados claramente superiores a una mayor tasa de bits. Pero,
por otro lado, los archivos de vídeo con una alta tasa de bits darán como resultado
archivos mucho mayores.
C O NT I NU A R
Siempre debes tener en cuenta la resolución y la tasa de bits que ofrece.
Como curiosidad, el iPhone 11 graba vídeo con una resolución de 4K y con
una velocidad de 24 fps, 30 fps, o 60 incluso fps.
Un dispositivo de captura de vídeo es una componente de hardware que permite
transferir audio y vídeo desde una videocámara u otro dispositivo a un ordenador para
que pueda almacenarse en un disco duro, ya sea para edición o simplemente para fines
generales de archivo. A la hora de elegir el más adecuado, evidentemente antes deberás
saber para qué lo quieres, es decir, ¿solo necesitas hacer copias de seguridad sin
procesar? o ¿deseas poder editar los archivos después?
Pulsa en estas pestañas para conocer los dispositivos de captura de vídeo digital más
populares:
Una buena parte de vídeocámaras digitales graban vídeo y audio en cintas Mini DV. La medida de
los casetes es de 2,6 x 1,9 x 0,5 pulgadas (largo x ancho x alto). Las cintas Mini DV tienen 65
metros de largo y pueden contener hasta 11 GB de datos que pueden almacenar 80 minutos
de vídeo digital. Se pueden conectar directamente a un ordenador mediante un puerto
Firewire.
Tipos de dispositivos de captura de vídeo digital
CÁ MA R A S MINIDV CÁ MA R A S DV D
CÁ MA R A S DE
ME MO R IA
W E B CA M
TE
M
Están destinadas a la grabación de las imágenes en formatos digitales como el DVD de modo que
la persona usuaria podrá reproducir el vídeo en su hogar o conectando la cámara a la TV o
insertando el DVD en el reproductor.
Realmente el almacenamiento en cinta o DVD está ya obsoleto. En mucho menos espacio
pueden almacenarse grandes archivos y además permite llevar de manera cómoda otras tarjetas
por si completases alguna.
CÁ MA R A S MINIDV CÁ MA R A S DV D
CÁ MA R A S DE
ME MO R IA
W E B CA M
TE
M
CÁ MA R A S MINIDV CÁ MA R A S DV D
CÁ MA R A S DE
ME MO R IA
W E B CA M
TE
M
Se trata de pequeñas cámaras digitales conectadas al ordenador y mediante la que podrás
capturar imágenes y transmitirlas a través de Internet o a una página web o a otro ordenador de
forma privada. Requieren de un ordenador para poder transmitir o grabar vídeo. Pero también
existen otras cámaras que son autónomas y, para diferenciarlas de las cámaras web, se les
llama cámaras de red.
Su característica esencial es su portabilidad, que te permite además de comunicarte desde
casi cualquier lugar poder grabar vídeo en formato digital cada vez con unas mayores
prestaciones ya que, últimamente, es algo muy demandado por las personas usuarias.
CÁ MA R A S MINIDV CÁ MA R A S DV D
CÁ MA R A S DE
ME MO R IA
W E B CA M
TE
M
CÁ MA R A S MINIDV CÁ MA R A S DV D
CÁ MA R A S DE
ME MO R IA
W E B CA M
TE
M
C O NT I NU A R
Este vídeo te informa sobre las distintas opciones de tarjeta de captura para usar en tu
ordenador para recoger la señal de tu cámara digital.
Podrás comprobar la práctica de los conceptos estudiados hasta ahora y, en la siguiente
pantalla, deberás responder una serie de preguntas.
¡Dale al play!

¿Qué tarjeta de captura necesito para hacer


streaming?
Fuente de vídeo: https://www.youtube.com/watch?v=BHn_GX3n_bI
C O NT I NU A R
Autoevaluación
Pregunta
01/03
¿Cuál de los siguientes no es un modo de los indicados para las capturadoras
externas?
DVI.
USB 3.
Thunderbolt.
Ninguno de los anteriores.
Pregunta
02/03
Si lo deseas puedes conectar más de una capturadora externa a un mismo
puerto.
Verdadero.
Falso.
Pregunta
03/03
Existen tarjetas que te permitirán conectar de manera simultánea cuatro
cámaras con tu
ordenador.
Verdadero.
Falso.

Como escoger tu videocámara


hoy en día las cámaras de vídeo actuales suelen incorporar su propio disco duro para almacenar
las imágenes o bien usar tarjetas de memoria.
• Sistema de grabación. Las grabaciones en cintas o DVD prácticamente han desaparecido y
• Tasa de bits. Está muy relacionada con la resolución, que es el tamaño de imagen, mientras la
tasa de bits es la cantidad de bits por segundos que llenan ese espacio. Mientras mayor sea la
resolución de vídeo, mayor cantidad de bits requerirá, por lo tanto mayor es la tasa de bits.
Actualmente se usa el 4K.
y codificarla mediante el sistema de bits en una señal eléctrica. El tamaño y la calidad del sensor
determinarán la calidad y el tamaño de la imagen. Hay distintos tipos de sensores como el CCD o
el CMOS.
• Resolución. Las cámaras pueden tener un formato de grabación estándar o en alta definición.
• Sensor de imagen. Se trata de un chip electrónico fotosensible que se encarga de captar la luz
Cuando vayas a comprar una cámara de vídeo digital, debes de fijarte en algunos aspectos
esenciales que determinarán el rendimiento y la calidad de sus grabaciones. A continuación, se
enumeran algunos de los más importantes:
C O NT I NU A R
Recapitulación
Hasta este momento has aprendido que anteriormente la captura de vídeo se hacía de
manera analógica, de la misma manera que su almacenamiento. Esto provoca ahora que
tengas que hacer conversiones a almacenamiento digital si quieres conservar por más
tiempo tus grabaciones en analógico.
No solo eso, sino que además conoces que hoy en día existen una gran cantidad de
dispositivos que te permiten capturar vídeo digital, lo que te será complicado es lo contrario,
encontrar dispositivos para la captura de vídeo analógico, al menos que estén operativos al
cien por cien. Has aprendido también que existe una gran cantidad de dispositivos de
captura de vídeo digital. A continuación, se enumeran algunos de los más populares:
cámaras miniDV, cámaras DVD, cámaras de tarjetas de memoria, tu propia webcam o
incluso tu teléfono móvil.
Para finalizar, aprendiste que a la hora de escoger tu videocámara debes fijarte en su
sensor de imagen, en su resolución, su tasa de bits y en el formato de grabación.
CONT I NU A R
Autoevaluación
Pregunta
01/03
Los archivos de vídeo con una alta tasa de bits darán como resultado archivos
más
pequeños.
Verdadero.
Falso.
Pregunta
02/03
¿Cómo se llama la webcam que no requiere estar conectada a un ordenador?
Capturadoras de vídeo.
Webcam externa.
Cámara de red.
Ninguno de ellos.
Pregunta
03/03
Las grabaciones en cintas o DVD están de vigente actualidad.
Verdadero.
Falso.

Enhorabuena
¡Enhorabuena!
Has finalizado la unidad didáctica
Diseño y desarrollo de
aplicaciones Web
A continuación, podrás acceder a todos los documentos descargables mencionados a lo
largo de la Unidad:
analisis_de_trafico_wireshark.pdf
2.5 MB
AES_DVB.pdf
73.7 KB
IEEE.pdf
83.6 KB

Documentos descargables
ITU.pdf
74.8 KB
SMPTE.pdf
84.2 KB
C O NT I NU A R
C O NT I NU A R
Bibliografía
Rubiales, M.: Curso de Desarrollo Web: HTML, CSS y JavaScript, Anaya
Multimedia, 2017.
Cabezas, L.M.: Desarrollo Web con PHP y MYSQL, Anaya Multimedia, 2017.
Martinez, C.: Vídeo Digital, Anaya Multimedia, 2006.
Kauffmann, S.: Edición de Vídeo con Avid Media Composer, Anaya Multimedia,
2010.
Glosario
A –
Addons
También conocidos como extensiones o plugins. Son programas que funcionan solo
anexados a otro y que incrementan sus funcionalidades.
API
Interfaz de programación de aplicaciones, conjunto de subrutinas, funciones y
procedimientos.

B –
Back-end
Capa de acceso a datos o motor del proceso.

C –
Códec
Programa o dispositivo hardware capaz de codificar o decodificar una señal o flujo de datos
digitales.
CPU
La unidad central de procesamiento.

E –
E-commerce
Comercio electrónico. Compra y venta de productos o de servicios a través de medios
electrónicos, tales como redes sociales y otras páginas web.

F –
Front-end
Capa de presentación, interfaz.

H –
Hacker
Pirata informático.
Host
Ordenadores u otros dispositivos conectados a una red que proveen y utilizan servicios de
ella.
HTML
Lenguaje de marcas de hipertexto, lenguaje de marcado para la elaboración de páginas
web.

I –
IETF
Grupo de Trabajo de Ingeniería de Internet. Se trata de una organización internacional
abierta de normalización.
IDE
Integrated Development Environment, entorno de desarrollo integrado o entorno de
desarrollo interactivo. Proporciona servicios integrales para facilitar el desarrollo de
software.

J –
Jack
Conector de audio analógico que se utiliza para conectar micrófonos, auriculares y otros
sistemas de señal analógica a dispositivos electrónicos.
JDK
Kit de desarrollo Java. Se trata del software necesario para el desarrollo de programas en
Java.

K –
Kinetoscopio
Precursor del moderno proyector de películas, aunque el dispositivo realmente no se
trataba de un proyector de películas.

P –
Pixel
La menor unidad homogénea en color que forma parte de una imagen digital.
Plugin
Complemento o aplicación que se relaciona con otra para agregarle una función nueva.

R –
RAM
Memoria de acceso aleatorio, en la RAM se cargan todas las instrucciones que ejecuta la
unidad central de procesamiento.

S –
SSL
Secure Socket Layer o capa de conexión segura.
Servlet
Clase Java para generar páginas web de forma dinámica a partir de los parámetros de la
petición que envíe el navegador web.
Streaming
Retransmisión en directo o emisión en continuo.

T –
C O NT I NU A R
TDT
Televisión digital terrestre.
TLS
Transport Layer Security o seguridad en la capa de transporte.

U –
URL
Un localizador de recursos uniforme (Uniform Resource Locator) estándar que designa
recursos en una red.

W –
Whatsapp
Aplicación que permite enviar y recibir mensajes instantáneos desde el teléfono móvil
mediante Internet.

T –
Tutoriales de gran interés para el desarrollo web.
https://www.w3schools.com/
Recursos para el desarrollo web
https://www.bluevertigo.com.ar
Instituto Nacional de Ciberseguridad (INCIBE)
https://www.incibe.es/
Información sobre la Ley de Servicios de la Sociedad de la Información y del
Comercio Electrónico
http://www.lssi.gob.es/Paginas/index.aspx
Foro de comunicación sobre vídeo y fotografía digital
https://videoedicion.org/
Un vistazo al nuevo Apache NetBeans versión 11
https://www.youtube.com/watch?v=bAsdyFAcOGU

Enlaces de interés
E NL A CE S DE INT E R É S FU E NT E S DE V ÍDE O S
E NL A CE S DE INT E R É S FU E NT E S DE V ÍDE O S
Visión general del entorno de desarrollo Eclipse
https://www.youtube.com/watch?v=k5A-RvCKVMY
Introducción de Git y Control de Versiones
https://www.youtube.com/watch?v=SMWItqi3Y-0
¿Qué es un lenguaje de programación?
https://www.youtube.com/watch?v=RKH5nSi_FuM
Tecnologías de desarrollo web del lado del cliente
https://www.youtube.com/watch?v=Cvk9dDBLcEI
Tipos de lenguajes de servido
https://www.youtube.com/watch?v=Lz24-yRQfuw
¿Qué es un servlet?
https://www.youtube.com/watch?v=tj7w1wFvr7M
¿Qué es un JSP?
https://www.youtube.com/watch?v=au-r5ZCLQsU
Elementos esenciales en una tienda online
https://www.youtube.com/watch?v=A5RZgp2ZitA
Cómo aceptar pagos por Internet fácilmente
https://www.youtube.com/watch?v=-ii4v8LLbCs
¿Por qué fracasan la mayoría de las tiendas online?
https://www.youtube.com/watch?v=hLg8UJusm80
Imagen digital
https://www.youtube.com/watch?v=6dwI_aZBtJ8&t=417s
Tamaño vs resolución de una imagen
https://www.youtube.com/watch?v=6Ch28jakr7s
Modos de color en diseño gráfico, RGB, CMYK y HSB
https://www.youtube.com/watch?v=tvKq1zKc5oY
Hipertextualidad, Interactividad y multimedialidad
https://www.youtube.com/watch?v=dbSUca9X9kE
La creación multimedia
https://www.youtube.com/watch?v=UQjrPTrQDT8
Recursos multimedia
https://www.youtube.com/watch?v=n6_DMIxsyNk
Edición de vídeo con Virtualdub
https://www.youtube.com/watch?v=PR0zejrA4HQ
Cinco programas de edición de vídeo gratuitos
https://www.youtube.com/watch?v=NBXqdBU3bE0
¿Qué es un Pixel?
https://www.youtube.com/watch?v=Aeu-f9Ye0tQ
¿Qué son los fotogramas o frames por segundo? La imagen en movimiento.
https://www.youtube.com/watch?v=YC_hTkZzVjU
¿Qué es la relación de aspecto? (Las 6 relaciones de aspecto más usadas)
https://www.youtube.com/watch?v=eRIfQavVy1g
¿Cómo utilizar los fotogramas en vídeo?
https://www.youtube.com/watch?v=vuLFYn832kg
¿Por qué las ruedas de los carros giran al revés?
https://www.youtube.com/watch?v=aBbWPgi6Pho
Vídeos entrelazados y progresivos
https://www.youtube.com/watch?v=P4Ro5M7EePQ
Compresión, formatos y códecs de vídeo, todo lo que debes saber
https://www.youtube.com/watch?v=vydPJ_iaQ8o
Tipos de códecs de vídeo
https://www.youtube.com/watch?v=o3JrHaGc3Dw
Cómo elegir formato de vídeo adecuado según distintos usos
https://www.youtube.com/watch?v=wzwmZku0hgk
Búsquedas avanzadas en IEEE Xplore
https://www.youtube.com/watch?v=F0JcyKfmSe0
La gran diferencia entre NTSC y el PAL
https://www.youtube.com/watch?v=qUTtPZLwRqU
¿Qué son las señales NTSC, PAL & SECAM para los productores de vídeo y cine
https://www.youtube.com/watch?v=HahRZl2n4bE
Betamax vs. VHS
https://www.youtube.com/watch?v=qaTFmyAhF9Y
Cómo pasar Video8 Handycam a digital
https://www.youtube.com/watch?v=2f6GXl__6SU
El Blu-ray está muriendo. ¿Cuales serían las causas?
https://www.youtube.com/watch?v=deXsfUTf5QU&t=36s
Conector RCA. Vídeo compuesto vs. vídeo por componentes
https://www.youtube.com/watch?v=FmMcRWWBkT0
Conector VGA y conector RS-232
https://www.youtube.com/watch?v=tJ_UPvAYWf8
Euroconector o scart
https://www.youtube.com/watch?v=JLfg8nCEDSw
Conector BNC
https://www.youtube.com/watch?v=J22XWOQBHjA
Conector DVI
https://www.youtube.com/watch?v=scqte3f20gE
Conector FireWire
https://www.youtube.com/watch?v=YRTwhufCjFk
Conector HDMI
https://www.youtube.com/watch?v=Uk2_PGKUy34
Distintos tipos de cable de audio y vídeo
https://www.youtube.com/watch?v=kKPNL5nTa94
Tipos de conectores
https://www.youtube.com/watch?v=DDAAXseU37M
Conceptos de audio digital
https://www.youtube.com/watch?v=tTbzGK_vjX8
Audio digital explicado: cuantización, PCM, bits y Hertz
https://www.youtube.com/watch?v=H2QWiuojp5E
Los formatos de audio digital: WAV, AIFF, MP3, AAC, FLAC, ALAC
https://www.youtube.com/watch?v=qbc0iGkPM24
Convertir casetes a digital MP3
https://www.youtube.com/watch?v=yQLjSISU_do
Instalación e interfaz de la herramienta Audacity
https://www.youtube.com/watch?v=CEP_43yrdeA
Herramientas de Audacity
https://www.youtube.com/watch?v=EStWDgKsn6o
Editando fragmentos de audio (cortar, copiar, pegar y efectos)
https://www.youtube.com/watch?v=CE--zUoVLkA
Eliminación de ruido
https://www.youtube.com/watch?v=esc28SNRiVg
Ecualización de voz
https://www.youtube.com/watch?v=k4n89bZgMI8
¿Qué es un storyboard?
https://www.youtube.com/watch?v=j8cKQkEGSNA
Cómo hacer tu storyboard con StoryboardThat
https://www.youtube.com/watch?v=Oj5L5mxdUrE
El mejor ordenador para editar vídeos
https://www.youtube.com/watch?v=2v3t_0aNCKQ
Cómo sonar igual que en un estudio con una tarjeta de sonido barata
https://www.youtube.com/watch?v=4Wp8X7MvGB0
Conectores, cables de audio y entradas de la tarjeta o interfaz de sonido
https://www.youtube.com/watch?v=QslIBU1jWRc
Convertir VHS a digital
https://www.youtube.com/watch?v=_fSMDod9wHw
Tarjetas gráficas. ¿Qué son y para qué sirven?
https://www.youtube.com/watch?v=r_GlNgkE1lo
Adobe Flash. Guía de movimiento básico
https://www.youtube.com/watch?v=SuI0SWaw0Jo
¿Qué tarjeta de captura necesito para hacer streaming?
https://www.youtube.com/watch?v=BHn_GX3n_bI
C O NT I NU A R
Preguntas frecuentes
¿Existe alguna web de ayuda a desarrolladores de sitios web?
Sí, hay bastantes, pero existe una muy completa y con muchos ejemplos:
https://www.w3schools.com
1
¿Existe alguna web que contenga recursos multimedia para usarlos en el
desarrollo de sitios web?
Claro, hay una página que recopila distintos elementos, ya sean imágenes,
vídeos, fuentes, iconos, sonidos, etc. Si usas el scroll horizontal podrás ir viendo
la cantidad de propuestas que ofrece esta página que actúa como recopiladora
de páginas interesantes para el diseño web: https://www.bluevertigo.com.ar
2
¿Puedo usar cualquier tipo de recurso que encuentre en Internet?
No, debes prestar atención a la licencia de uso que lo acompaña, si tiene
copyright no podrás usarlo. Trata de buscar recursos con licencias con Creative
Commons que te permitan su uso.
3
¿Cómo puedo hacer que mis obras no tengan copyright?
Cuando haces una fotografía o grabas un vídeo, al resultado final
automáticamente se le asignan derechos de autor mediante el copyright, por lo
que si quieres compartir tus obras lo deberás indicar explícitamente; para ello
4
deberás darle alguna de las licencias de libre uso de Creative Commons:
https://creativecommons.org/share-your-work/
Si quiero comprar una cámara de vídeo, ¿existen páginas que establezcan
comparativas para poder escoger con mejor criterio?
Sí, existe una gran cantidad de sitios web que sirven justo para ese cometido,
simplemente para hacer comparativas entre las diversas cámaras de vídeo
existentes. Por ejemplo https://los100mejores.com/mejores-videocamarascalidad-
precio/, o http://www.compramejor.es/mejores-videocamaras/
5
DERECHOS RESERVADOS 2018, por © Ideaspropias Editorial.__

También podría gustarte