Sonido Binaural en Postproducción Audiovisual
Sonido Binaural en Postproducción Audiovisual
Sonido Binaural en Postproducción Audiovisual
Índice
1.Introducción (pág.2)
2. Sonido binaural(pág.2)
2.1 Nuestros órganos auditivos (pág.2)
2.1.1 Antropometría (pág.3)
2.1.2 Respuesta en frecuencia (pág.3)
2.1.3 Direccionalidad (pág.4)
2.2 Interpretación (pág.4)
2.2.1 Diferencia Interaural de Tiempo(pág.4)
2.2.2 Diferencia de Intensidad Interaural (pág.5)
2.2.3 HRTF Función de transferencia (pág.6)
2.2.4 Otros (pág.8)
3. Microfonía (pág.9)
3.1 Análisis de microfonía (pág.9)
1.Introducción
El sonido binaural es aquel que intenta proporcionar una sensación similar o igual a la de
estar físicamente en la habitación o el lugar donde se producen los sonidos. Actualmente
disponemos de herramientas de captación (EJ: ku100, 3dio, Roland WPM-10 Wear Pro…)
que son capaces de captar sonido de forma muy similar a la de nuestros órganos auditivos.
Éstos se utilizan en algunas grabaciones musicales concretas, captación de ambientes y
sobre todo, en realidad virtual. También disponemos de herramientas informáticas basadas
en algoritmos capaces de recrear parte de estos procesos de forma digital (Dear VR,
BINCI...) con la ventaja de que algunos pueden modificar en tiempo real los parámetros del
receptor. Éstos se utilizan en videojuegos y en realidad virtual mayoritariamente.
En este proyecto vamos a analizar, interpretar y recrear, todos los procesos que ocurren
desde que un sonido es emitido hasta que es interpretado por nuestro cerebro, con el fin de
crear un vídeo con sonido inmersivo. Gran parte del procesado de audio se realizará en
postproducción, es decir, sin la utilización de técnicas de captación como son las cabezas
binaurales ni la utilización de procesadores específicos.
2. Sonido binaural
2.1 Nuestros órganos auditivos
Los humanos captamos variaciones de presión
con nuestros órganos auditivos y los
interpretamos en nuestro cerebro. El oído
humano se suele estudiar en tres partes
diferenciadas: el oído externo, oído medio y oído
interno. El oído externo es la parte del oído que
está en contacto con el aire del exterior. Está
formado por el pabellón auricular (oreja) y el
canal auditivo externo. El oído externo está
separado del oído medio por el tímpano.
En la cavidad timpánica se encuentra
suspendida la conocida como cadena de
huesecillos, compuesta por los huesos martillo,
yunque y estribo. La cadena de huesecillos conecta dos membranas: el tímpano por un lado
y la membrana oval por otro. En la cóclea se encuentra el órgano de Corti dónde están las
células pilosas. Estas células transforman un estímulo mecánico en un estímulo eléctrico
que transmiten a las fibras del nervio coclear.
2.1.1 Antropometría
-El pabellón auricular está formado por cartílago recubierto de piel. Normalmente su tamaño
se encuentra entre los 5.5 y 6.5 cm de altura por 3 a 4.5 cm de anchura.
-La separación aproximada entre los oidos es de 14,5 cm.
-El conducto auditivo externo mide alrededor de 2.5 cm de longitud
-El tímpano tiene forma oval y un diámetro de alrededor de 1 cm
En esta gráfica podemos observar, por ejemplo, que a 100dBSPL los humanos percibimos
menor diferencia de intensidad entre frecuencias, es decir, respuesta significativamente
plana. Y que desde 0dBSPL hasta 50dBSPL no podemos escuchar las frecuencias más
graves o subgraves, esto se debe a que nuestro tímpano no se excita en estas frecuencias
hasta llegar a cierto nivel de presión sonora. Aunque no es correcto hablar de respuesta en
frecuencia, podemos hacer deducciones sólidas que aplicaremos posteriormente.
2.1.3 Direccionalidad
De igual forma que con la respuesta en frecuencia, no podemos disponer de una gráfica de
el ángulo de captación de nuestros oídos, pero disponemos de sistemas suficientemente
fiables de los cuales podemos extraer esta información.
En la siguiente imagen podéis ver los patrones de directividad espacial captados con un
micrófono omnidireccional en la oreja derecha de un KEMAR 45BC-3 (Cabeza y torso).
Haciendo la comparativa con los patrones polares que utilizamos en microfonía, la imagen
anterior podríamos catalogarla como supercardioide pero habrá que tener en cuenta alguna
condición que comentaremos posteriormente.
En la imagen observamos dos fuentes sonoras: Fuente A=0º respecto el receptor , Fuente
B=90º respecto el receptor.
En la fuente A no habrá diferencia temporal entre los oidos. Por lo que nuestro cerebro
interpretará que la señal está delante o detrás (según la DIT).
Sin embargo en la fuente B hay una diferencia de 15cm que se traduce en que el sonido
llegará 0,45ms antes al oído derecho que al izquierdo. De esta forma el cerebro interpretará
que el sonido proviene desde la derecha.
Para localizar la procedencia del sonido también usamos las diferencias interaurales de
intensidad. Su funcionamiento se basa en la comparación de energía que llega a los
diferentes oídos. La diferencia de intensidad se produce principalmente por el factor
denominado efecto sombra.
Para explicar el efecto sombra debemos antes entender una propiedad del sonido llamada
“Difracción”. La difracción del sonido es la capacidad del sonido para rodear un obstáculo,
Para que se dé esta propiedad, el tamaño del elemento a sortear debe ser inferior a la
longitud de onda de la frecuencia que lo debe sobrepasar. De esta explicación
interpretamos que las altas frecuencias el sonido no podrá sortear el obstáculo, produciendo
reflexiones, refracciones y absorciones. En la ilustración superior derecha podemos
observar que, a altas frecuencias, la cabeza genera efecto sombra atenuando la energía
que llega al oído más alejado de la fuente. Por ámbito general, decimos que a partir de 1500
Hz las IID se vuelven fundamentales para la localización del sonido. Sin embargo, para
frecuencias menores no son realmente útiles, y sobre todo se hará uso de las DIT (2.2.1
Diferencia Interaural de Tiempo).
Imagen 3: 0º inclinación
Podemos deducir que la función de transferencia afecta sobre todo a las frecuencias por
encima de los 5KHz. cuya longitud de onda es por ámbito general, del tamaño de nuestros
pabellones auditivos.
2.2.4 Otros
50Hz 200Hz 600Hz 2kHz 6kHz 10kHz 13kHz 16kHz 18kHz 20kHz
-0dB -0dB -0dB -0,1dB -0,8dB -1,9dB -3dB -4dB -4,8dB -5,5dB
3. Microfonía
El primer aspecto que debemos tener en cuenta cuando queremos conseguir un sonido
realista, es la microfonía. Para este proyecto necesitaremos distintos tipos de recursos
sonoros: voces, efectos, ambientes y mediciones. Es necesario incidir que este trabajo se
basa principalmente en el procesado, razón por la que se trata de evitar las técnicas de
captación binaural ya nombradas anteriormente.
Siguiendo los estándares de captación binaural, una de las pruebas realizadas ha sido la de
un micrófono de medición a través de la protesi de un pabellón auricular con el fin obtener
las ventajas anteriormente mencionadas respecto al micrófono y corregir su patrón polar
haciéndolo similar a la del órgano humano.
Este micrófono ofrece sonido nítido, buena relación señal/ruido y una respuesta en
frecuencia adecuada para la captación de voces (realzando levemente las bandas de
frecuencia que atribuimos generalmente a la inteligibilidad de la voz, atenuando el sonido
“nasal” y elevando los agudos para para proporcionar “brillo” a esta). Sin embargo la
sensación auditiva que produce no se asemeja a la de nuestros oídos, debido a su
respuesta en frecuencia y en gran parte por la forma que responde a los transitorios.
4. Procesadores
Como hemos visto en el punto 2.2 (Audición espacial) para crear sensación de procedencia
necesitaremos alterar la frecuencia y el tiempo de llegada entre “oidos”. Para crear
sensación espacial, podemos utilizar procesadores de frecuencia, de tiempo (duración) y de
nivel.
Aunque disponemos de infinidad de procesadores, vamos a mencionar los plugins que son
o pueden ser relevantes para este proyecto.
- Alteración de fase: Para seleccionar las frecuencias que se requiere modificar, los
ecualizadores utilizan filtros. Una de las características de los filtros es que producen
variaciones en la fase de las frecuencias que se está procesando.
Esta propiedad puede ser contraproducente, ya que en este proyecto vamos a
trabajar con pequeños retardos (2.2.1 Diferencia Interaural de Tiempo). Una posible
solución es utilizar ecualizadores de fase lineal. Éstos ecualizadores son capaces de
alterar la amplitud de un rango de frecuencias sin afectar a la fase éstas. Por otra
parte estos plugins consumen muchos recursos de procesamiento y generalmente
producen latencia en la señal, aunque esta latencia pueda ser remediada por la PDC
(Plugin Delay Compensation).
Reverb: <La reverberación es un fenómeno sonoro producido por las reflexiones, que
consiste en la permanencia del sonido una vez que la fuente original lo ha dejado de emitir.>
Para recrear este fenómeno acústico utilizamos los plugins de reverb, que pueden ser
algorítmicos o convolucionales. Las reverbs algorítmicas generan las colas repitiendo las
señales con muy poco espacio temporal entre ellas y de forma aleatoria. De esta forma
consiguen emular las reflexiones de un espacio. Las reverbs de convolución son plugins
capaces de convolucionar impulsos grabados en espacios con reverb, con las señales a las
que se la queremos añadir. En este proyecto utilizaremos la reverb de convolución “SIR”. Es
una reverb de convolución gratuita que permite importar impulsos.
Delay: Consiste en retrasar la señal. Podemos utilizarla para generar conjuntos de retardos
espaciados temporalmente, que sumados entre ellos y con la señal original, recrean el
fenómeno acústico llamado “eco”. En nuestro caso utilizaremos el delay para generar los
destiempos que ocurren entre nuestros oídos ( 2.2.1 Diferencia Interaural de Tiempo). Para
ello tendremos en cuenta estos criterios.
- Tiempo mínimo de retardo: Según hemos visto en otros apartados del proyecto, la
diferencia de tiempo entre oídos puede ser desde 0ms hasta de 0,69ms. Estos son
valores muy pequeños que no todos los plugins de delay son capaces de producir.
Por eso se debe encontrar un plugin capaz de retrasar la señal en centésimas de
milisegundo.
5. En este proyecto
Una vez analizados los conceptos y herramientas necesarios para la realización del
proyecto, se procede a la realización de este. A continuación se muestra la hoja de ruta
utilizada en este proyecto.
2 Captación “Room Tone” 5.1.2 -Edirol R44 Marxadella -AMB RT: WAV 48kHz
-2xRode M5 (Torrent) L,R,Mono 24
-1xECM 8000
-Soportes
-Cableado
-Gopro
x960 .MP4
5.1 Captación
5.1.1 Vídeo
Para la realización de este proyecto se han utilizado dos tipos de captación visual. Una
principal y otra de referencia.
- Referencia de vídeo(GoPro 3): Esta imagen ha servido para medir las distancias y la
posición del emisor. Esto se ha conseguido añadiendo marcas en el suelo. Se
decidió utilizar este tipo de cámaras por su objetivo gran angular con el fin de poder
observar todos los indicadores de posición y distancia.
5.1.2 Sonido
FX Pasos: Para esta captación se utilizó el “Rode M5” con el fin de conseguir coherencia
entre los sonidos. El micrófono se posicionó en picado a unos 45º pues es el ángulo
intermedio en el que suelen captar los pasos nuestros oídos. Esta captación tipo “Foley”, la
interpretó el mismo sujeto y zapatos que en el video original, aunque en distinto suelo.
Room Tone: Cuando se planteó esta captación se tuvieron en cuenta dos tipos de recursos
sonoros: Ambientes y Room Tone.
Los ambientes suelen ser utilizados para ubicar la escena y son captados en estéreo. En
este caso, utilizamos 2xRode M5 con una técnica similar a la ORTF. La “Room Tone” es el
sonido de la habitación cuando no hay fuentes sonoras y se suele captar en mono. Para
este proyecto se utilizó un ECM8000. Se llevaron a cabo ambas grabaciones, pues como
comentaremos en el siguiente apartado (5.1.3), la microfonía estaba disponible y no añadía
tiempo extra a la realización. Finalmente, debido a que las diferencias entre señales fueron
prácticamente inexistentes, se decidió utilizar la grabación en mono (Room tone) con el fin
de economizar recursos de memoria.
Microfonía utilizada:
Sonido directo: Es el sonido que ha captado la propia cámara y que utilizaremos en la fase
de sincronización (5.2 Sincronización).
Medición de niveles: Para ello disponemos de dos señales distintas. Una sería la de
nuestro micrófono de medición y por otra parte dispondremos de la captación estéreo
realizada con los rode M5. La finalidad de estas mediciones será especificar en qué medida
caerá el nivel de la señal respecto la distancia de la fuente.
Medición de Impulsos: Los impulsos (ECM8000) nos servirán para nuestra reverb de
convolución. (Se adjunta vídeo en el CD)
-
Medición de retardos: Para esta medición de referencia nos valdremos de los Rode tal y
como se a explicado en la introducción de este apartado. De esta forma, se ha podido
comprobar la diferencia temporal que había entre ambos diafragmas.
5.2 Sincronización
Durante las distintas etapas de postproducción y captación se han llevado a cabo varias
sincronizaciones.
Vídeos: Para tener una buena referencia de la posición del emisor respecto al receptor, se
han sincronizado los vídeos de nuestras dos cámaras.
ADR: Debido a la naturaleza del proyecto, ha sido necesario captar las voces en un
entorno controlado. Para generar la sensación de que es el emisor quien produce la voz es
necesario que esta esté perfectamente sincronizada, no solo temporalmente, si no también
en la expresión y caracterización. Para ello se han grabado distintas tomas mientras el
“actor” veía en tiempo real el material visual, apoyándose en las referencias para la
interpretación. Simultáneamente se han descartado las tomas menos válidas y ajustado en
el “time-line”.
Pasos: Los pasos han sido captados de forma muy similar que las voces. Esta técnica la
llamamos “Foley” y también ha sido corregida en el proceso de captación.
5.3 Edición
Sin ánimo de entrar en detalles, en lo que refiere a la edición de vídeo, una vez
sincronizadas las imágenes, se ha cambiado el tamaño de una de ellas y se ha posicionado
en una de las esquinas del margen de pantalla. El siguiente paso fué calibrar el color de
ambas para que fueran coherentes.
El siguiente paso sería la limpieza de los audios. Para ello, se ha utilizado el plugin de
Izotope RX “De-Noise”,
5.4 Mezcla
En este apartado vamos a detallar, paso a paso, los procedimientos que se han realizado
en la etapa de mezcla de este proyecto. En la siguiente imagen se puede observar un
diagrama de bloques en el que se muestra la ruta que siguen cada una de nuestras
señales. (Disponible en el CD)
El primer paso a la hora de empezar a mezclar, ha sido ajustar el nivel de las voces, pasos
y Room. Para ello se han tenido en cuenta las mediciones y se han buscado referencias de
los niveles habituales (dBSPL) que generan estas fuentes. Según se ha podido observar en
distintas páginas web, la voz en una conversación es de unos 60dBSPL. En este caso, el
emisor produce más nivel que en una conversación normal pero se percibe a más distancia.
Calcularemos de forma aproximada que al receptor llegarán unos 65dBSPL. Entonces
empezamos la medición de nuestras referencias. En la siguiente tabla se muestran los
resultados:
Voz -15 65
Pasos -30 50
Room -50 30
El concepto más importante llegado a este punto, es el nivel en el que mezclar en nuestro
proyecto. Entonces se ha basado en la lógica para decidir qué valor es el más adecuado
para el nivel de salida en nuestro máster.
Recordar que el rango dinámico de nuestro proyecto es de unos 35dB (pico máximo/nivel
mínimo). A día de hoy nuestros equipos digitales ofrecen en 24 bits un rango dinámico de
138dB así que aún “perdiendo” 9dB de margen, (138-9-35=94) nos quedan 94 dB’s antes de
percibir pérdida de información. Si se hubiera ajustado cerca de los 0dBFs, habría sido
demasiado alto, obligandonos a reducirlo de forma considerable en la reproducción, en el
caso de querer disminuir la señal, en un “knoob” logarítmico obtendremos menos control
sobre la señal.
Una vez hecho esto, empezamos a procesar las voces y pasos. Primero insertamos un
ecualizador con el fin de adecuar el timbre de estas a la respuesta en frecuencia que
producen nuestros órganos auditivos. Para ello se tienen en cuenta las curvas isofónicas
mostradas en punto 2.1.2 de este proyecto.
Debido a los cambios de posición del emisor, se ha podido percibir en las referencias que
se produce una pérdida de agudos significantes cuando el emisor no proyecta el sonido
directamente al receptor. Por eso se ha añadido otro ecualizador que se ha automatizado
para recrear este fenómeno. Siempre teniendo en cuenta el analizador de las referencias y
comparando enviando a nuestro analizador “extra”.
En el caso de los pasos y aunque se trate de una característica propia del receptor, se ha
añadido otra EQ con el fin de emular la posición (altura) de la fuente en base a los principios
de HRTF (Función de transferencia).
Con el fin de ajustar “definitivamente” los niveles, se han enviado las pistas “VOZ y PASOS”
a nuestra pista auxiliar (ST) con el plugin de “Reverb”, pues la suma de la señal de
reverberación con las originales, va a afectar al nivel final de nuestro proyecto. El plugin
contiene el impulso estéreo de las muestras captadas a 2m de distancia, 1m a la izquierda y
1m a la derecha ya editadas. De esta forma, empezamos a editar los parámetros de
nuestra reverb (aunque se trata de una reverb de convolución y en teoría presenta las
mismas características de nuestra sala, hay que tener en cuenta que la medición se realizó
con ruido rosa y a un nivel que no es similar al que producen nuestras fuentes sonoras).
El siguiente paso ha sido agrupar las voces y los pasos. Esto se debe a que ambas fuentes
provienen de un mismo emisor y por lo tanto, su posición siempre será igual. Entonces
procedemos a procesar en base a las características comentadas en el punto 2.2.5
automatizamos el nivel (Ley cuadrática inversa) y la respuesta en frecuencia (Absorción del
aire). En base a nuestras referencias y conceptos teóricos.
La salida es este grupo la enviamos a un nuevo canal auxiliar (MONO), donde se tenía
prevista añadir una ecualización que serviría para adaptar la respuesta de las señales a la
de nuestros oídos. Pero esto se ha llevado a cabo anteriormente debido a que es muy
complicado procesar para conseguir realismo, previendo el resultado con tanta antelación.
Además el timbre de uno de los elementos (PASOS), debía ser corregido con anterioridad.
Por esta razón, no será necesario su uso.
Este canal auxiliar lo enviamos a otros dos auxiliares(MONO), Panoramizados uno para
nuestro oído derecho y otro para nuestro oído izquierdo. Ambos contienen insertados un
plugin de “delay” para generar diferencias de tiempo entre los oidos (DIT 2.2.1) y un “EQ”
para recrear las diferencias de intensidad (DII 2.2.2).
Como podéis observar en la imagen siguiente, la sombra acústica que produce nuestro
cráneo, además de una pérdida notable en la banda de agudos, produce también
alteraciones en frecuencias específicas que son complicadas y laboriosas de reproducir en
un ecualizador.
El siguiente paso, ha sido re-agrupar las señales en un grupo (Stereo) donde se han
simulado los procesos “HRTF”. Para ello, se inserta un ecualizador y de igual manera que
con la “DII”, se analiza el funcionamiento de nuestros pabellones auditivos (ambeo orbit y
analizador con la curva simplificada).
Finalmente, escuchando nuestro proyecto, nos damos cuenta que nuestras señales
principales suenan demasiado nítidas. Entonces se decide añadir una segunda pista de
reverberación en la que añadimos el impulso cercano (1m), con el fin de recrear las
primeras reflexiones. Una reverb corta que nos ayuda a naturalizar la voz.
5.5 Exportación
Se han realizado dos exportaciones finales en este proyecto: Audio y vídeo con audio.
5.6 Reproducción
Para conseguir la sensación de inmersión sonora, será necesario utilizar auriculares y
reproducir a un nivel concreto (valor máximo de pico 65 dBSPL aproximadamente). Esto se
debe a que se ha tratado la respuesta en frecuencia tal y como se percibe respecto a su
nivel, si escuchamos el producto a un nivel poco apropiado, la sensación que producirá no
será adecuada.
Respecto a la relación del sonido con la imagen, para distinguir de forma correcta la
posición del emisor, será necesario que la relación distancia/tamaño de la pantalla sean las
adecuadas. Si no fuera así y por ejemplo, la persona que observa el producto se encuentra
a más distancia de la pantalla, escuchará el emisor totalmente por la izquierda mientras el
movimiento que percibe es mucho menor. Por esa razón, en un principio se planteó hacer la
captación visual en binocular con el fin de reproducir el resultado en soportes VR.
6. Conclusiones
Finalmente, podemos afirmar que “NO se han conseguido íntegramente los resultados
esperados”, pero debemos reflexionar sobre qué se ha conseguido, qué no se ha
conseguido y por qué.
Es importante aclarar que cada receptor tiene distinto tamaño de cabeza, pabellones
auditivos, umbral de audición... Incluso las curvas isofónicas son una media del
comportamiento de los oídos de distintos sujetos. Esto significa que cada uno de los
receptores de este proyecto puede percibir de forma distinta los resultados. Hay que tener
en cuenta que el mezclador del proyecto ha influido notoriamente en los resultados, pues
aún disponiendo de valores medios, el factor subjetivo ha sido inevitable.
También sobre la captación, se puede sospechar que una captación cercana no puede ser
similar a la de nuestra audición pues aún procesando el timbre, la sensación que produce
no ha sido del todo efectiva.
perjudiciales para el producto que la propia alteración de fase. Por esta razón, se ha
desestimado utilizar ecualizadores de fase lineal en este proyecto.
En cuanto a la reverb, se debe señalar algunos aspectos que no ayudan a generar el sonido
natural que deseamos recrear. El primer aspecto que queremos tratar está relacionado con
el impulso grabado. Debido a que no es posible reproducir un sonido que pase de la nada a
una señal con la energía suficiente. El impulso que se creó era una señal muy corta que
empezaba y acababa con “fades” muy cortos. Esto hizo que la reverb tuviera un pequeño
pre delay que realmente no se correspondía con las reflexiones de la sala. Probablemente
la solución habría sido cortar este “fade” en el proceso de edición realizado antes de
importarlo al plugin de reverb.
Como hemos visto en el apartado 5.3 (Mezcla), para reproducir la “Diferencia Interaural de
Intensidad” habría sido necesario ecualizar y filtrar de forma muy específica en algunas
frecuencias, por cuestiones prácticas, se ha decidido simplificar este proceso y esto puede
haber afectado a la precisión de la interpretación. También si analizamos la relación DIT/DII
encontramos pequeñas inconsistencias de las cuales podemos hacer ciertas deducciones.
Debo señalar que en el momento de decidir cómo procesar, se han utilizado muestras de
valores intermedios. Esto significa que para representar un movimiento de la fuente sonora
de 90º horizontal, se han tomado como referencias los valores de las frecuencias y de
tiempo en 0º, 45º y 90º. Si pudiéramos representar la diferencia de tiempo y la fluctuación
de frecuencia como líneas en una misma gráfica, es lógico pensar que estas serían curvas,
pues nuestro cráneo no es una esfera perfecta. Pero no se ha tenido en cuenta que estas
curvas pudieran ser complejas y que se comportarán de forma distinta, creando de esta
forma desajustes entre ellas que hacen que esta recreación no sea del todo efectiva.
Se puede decir que la función de transferencia ha sido el proceso más perjudicado por la
simplificación de procesado que se ha llevado a cabo, haciendo que la sensación sea la
menos realista de todas las técnicas que se han llevado a cabo en este proyecto. Esto se
debe a que el HRTF se basa principalmente en filtrados muy específicos que habrían sido
realmente complicados de producir de forma manual. Cuando se ha analizado la función de
transferencia con el analizador (Smooth alto) se han podido divisar pequeñas variaciones en
el timbre que se han exagerado con el fin de propiciar la sensación de posición del emisor.
Siendo de este modo, podemos decir que no es práctica la utilización de esta técnica para
un producto de sonido inmersivo, aunque podemos extrapolar algunos procedimientos para
mezcla 2.0 (como la creación de planos fuera de encuadre). Para la creación de planos
binaurales sería más eficiente utilizar “dummy’s” o en el caso de no poder realizarlos en
captación. Utilizar plugins de panoramización binaural junto con “Proximity” que es un plugin
tipo fader que recrea la distancia (mediante la reducción de nivel y agudos) o similar.
Para concluir, hay que decir que la percepción del sonido es un complejísimo proceso
natural con infinidad de variantes y que es realmente difícil de recrear de forma manual.
Mucho más complicado con los recursos que se han dispuesto.
7.Contenidos del CD
- Análisis microfonía
+ C4000 :
● 1x WAV
● 1x PDF
+ ECM 8000 :
● 1xWAV
● 1x PDF
+ ECM 8000 (Prótesis) :
● 1x Audio
+ Rode M5 :
● 1x WAV
● 1x PDF
- Bibliografía:
● 9x PDF
● 4x txt
● 1xHTML
- Captación de impulsos:
● 1x .MOV
- Imágenes:
● 20x .JPG
- Máster:
● 1x WAV
● 1x MP4
- Mezcla:
● 1xJPG
- Proyecto:
● 1xPDF
8. Bibliografía
-Wikipedia oído:
https://es.wikipedia.org/wiki/O%C3%ADdo
-Laboratorio C: Psicoacústica:
http://www.labc.usb.ve/paginas/EC4514/AUDIO/PSICOACUSTICA/Psicoacustica.html (CD)