Tesis Barrera Román Aarón 04 Dic 2017
Tesis Barrera Román Aarón 04 Dic 2017
Tesis Barrera Román Aarón 04 Dic 2017
MR
Maestría en Ciencias
en Ciencias de la Computación
Tesis
para cubrir parcialmente los requisitos necesarios para obtener el grado de
Maestro en Ciencias
Presenta:
Aarón Barrera Román
Resumen de la tesis que presenta Aarón Barrera Román como requisito parcial para la
obtención del grado de Maestro en Ciencias en Ciencias de la Computación.
Since the beginning of electroencephalography as a tool for the study of the human
brain at the end of the 1920s, its application fields have been increasing, making it
increasingly versatile joined to the emergence of new technologies with which it has
remained in vogue due to its remarkable advantages such as low implementation cost,
high temporal resolution and its non invasive nature. Such characteristics, make the
electroencephalography an ideal technology for emerging application fields such as
the brain-computer interfaces, which are interfaces controlled directly or indirectly by
the user’s brain activity. On the other hand, it is said that in electroencephalography,
the precision of the measurements is sacrificed, so that the signals obtained from elec-
troencephalography studies are complex and formed by different components known
as brain waves or rhythms. During the first electroencephalographic recordings, a com-
ponent with a frequency of 10 Hz identified as “Large Amplitude Rhythm” was studied,
which was later renamed as alpha wave, because it was the first observed brain wave.
Nowadays, alpha wave detection is often used as an initial test for the electroencep-
halographic data acquisition system, due to the presence of these brain waves can
be identified without specialized electrophysiology knowledge, this is why such experi-
ment can be considered a good starting point for more complex electroencephalograp-
hic studies. As a first approach towards a more complex study, this research is focused
in developing a system capable of extracting electroencephalographic signals by the
means of a brain-computer interface, which are later transformed into pseudo-images
that keep the spatial, power and frequency features from the original signals, that are
finally interpreted through a computational model based in a hierarchical structure that
mimics the way the visual information is processed by the human brain. This last step
allows the system to determine whether or not the original electroencephalographic
signals contain activity in the alpha band.
Dedicatoria
A mi familia y amigos.
v
Agradecimientos
A mis padres María Irene Román López y Jesús Noe Barrera Gámez por sembrar
A mis hermanos Daniel Barrera Román y Enrique Noe Barrera Lozoya por enseñar-
A mis ninos Paula Román López y Jesús Román López, quienes me han motivado y
A mis primos y amigos, quienes en cada borrachera estuvieron conmigo para re-
A la memoria de mis abuelos Reyna López Ortíz y Manuel de Jesús Román Gaxiola
humildad.
vi
Al profesor Manuel Hernández, quien me ha motivado para que el fin último de esta
Al profesor Jose Briseño quien me guió y aportó valiosas ideas para llevar a cabo
esta investigación
etapa de experimentación.
A los mexicanos que con sus aportaciones hicieron posible la realización de mis
Tabla de contenido
Página
Resumen en español . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . ii
Resumen en inglés . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . iii
Dedicatoria . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . iv
Agradecimientos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . v
Lista de figuras . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . x
Lista de tablas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . xiii
Capítulo 1. Introducción
1.1. Planteamiento del problema . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4
1.2. Objetivo general . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5
1.3. Objetivos específicos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6
1.4. Alcance de la tesis . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6
1.5. Aportaciones . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 7
1.6. Organización de la tesis . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 9
Capítulo 4. EvoEEG
4.1. Adquisición . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 65
4.2. Pre-procesamiento . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 67
4.2.1. Espectro de potencia y filtrado . . . . . . . . . . . . . . . . . . . . . . 68
4.2.2. Almacenamiento . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 68
4.2.3. Parámetros estadísticos . . . . . . . . . . . . . . . . . . . . . . . . . . 69
4.3. Formación de pseudo-imágenes . . . . . . . . . . . . . . . . . . . . . . . . . 69
4.3.1. Proyección . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 69
4.3.2. Interpolación . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 73
4.3.3. Normalización . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 74
4.3.4. Mezcla de bandas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 76
4.3.5. Aplicación de máscara . . . . . . . . . . . . . . . . . . . . . . . . . . . 77
4.4. Clasificación . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 79
Capítulo 5. Experimentación
5.1. Condiciones de experimentación . . . . . . . . . . . . . . . . . . . . . . . . . 80
5.1.1. Condiciones ambientales . . . . . . . . . . . . . . . . . . . . . . . . . . 80
5.1.2. Configuración del equipo de adquisición . . . . . . . . . . . . . . . . 81
5.1.2.1. Parámetros de hardware . . . . . . . . . . . . . . . . . . . . . . . . 82
5.1.2.2. Parámetros de software . . . . . . . . . . . . . . . . . . . . . . . . 83
5.1.3. Sujetos de estudio . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 84
5.2. Registro de señales EEG . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 85
5.2.1. Instalación de OpenBCI . . . . . . . . . . . . . . . . . . . . . . . . . . . 85
5.2.2. Pruebas preliminares . . . . . . . . . . . . . . . . . . . . . . . . . . . . 87
5.2.3. Adquisición de señales EEG . . . . . . . . . . . . . . . . . . . . . . . . 91
5.3. Pre-procesamiento y formación de pseudo-imágenes . . . . . . . . . . . . 92
5.3.1. Etiquetado de pseudo-imágenes . . . . . . . . . . . . . . . . . . . . . 93
5.4. Clasificación de señales EEG . . . . . . . . . . . . . . . . . . . . . . . . . . . . 100
Lista de figuras
Figura Página
Figura Página
Figura Página
54. Curva de aprendizaje general para todas las ejecuciones de los experi-
mentos descritos en la Tabla 4 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 104
55. Flujo de información a través de la corteza visual artificial para la detec-
ción de actividad alfa . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 109
56. Tablero OpenBCI de 32 bits ensamblado. . . . . . . . . . . . . . . . . . . . . . . . 118
57. Conectores macho para el módulo Daisy. . . . . . . . . . . . . . . . . . . . . . . 119
58. Módulo Daisy OpenBCI ensamblado. . . . . . . . . . . . . . . . . . . . . . . . . . 120
59. Receptor inalámbrico programable OpenBCI ensamblado. . . . . . . . . . . . 120
xiii
Lista de tablas
Tabla Página
– Michio Kaku.
2
Capítulo 1. Introducción
El cerebro humano es sin duda uno de los sistemas más complejos en el universo
conocido y el interés por comprender su funcionamiento se remonta a la antigüedad.
Está conformado por alrededor de cien mil millones de células nerviosas llamadas
neuronas, mismas que comparten las características y partes de otras células, pero a
diferencia de estas, su carácter electromecánico les permite transmitir señales eléctri-
cas a través de largas distancias (Siuly et al., 2016).
para analizar su carga mental, medir su nivel de atención o facilitar su interacción con
equipo de cómputo (Girouard, 2009).
Para llevar a cabo un análisis de las señales extraídas directamente desde el cuero
cabelludo mediante una Interfaz Cerebro-Computadora utilizando la técnica de Electro-
encefalografía (EEG), tales señales deben ser filtradas para remover señales espurias
y separadas en sus diversas componentes.
Gran Amplitud”, que posteriormente fue renombrada como “onda alfa”, por tratarse
de la primera onda cerebral observada (Buzsáki, 2006).
El cerebro humano está compuesto por un gran número de neuronas, mismas que
se interconectan formando patrones complejos y se encuentran en constante comuni-
cación.
Para llevar a cabo sus múltiples funciones (e.g. procesamiento de información pro-
veniente de los sentidos, regulación motriz, razonamiento, planeación, orientación,
etc.), el cerebro descompone la tarea en cuestión en una serie de operaciones de
5
menor dimensión. Tal reducción se lleva a cabo en diversas regiones, lo cual dispara
actividad electrocelular en distintas zonas del cerebro.
Es por esta razón que obtener información relacionada con estados mentales espe-
cíficos a partir de un conjunto de señales obtenidas por medio de electroencefalografía
resulta una tarea sumamente compleja.
Para los fines de este trabajo, y como primer paso orientado hacia un estudio de
mayor complejidad, la investigación se enfoca en la detección automatizada de ondas
alfa. Este fenómeno ha sido relacionado con el estado de vigilia (Huupponen et al.,
2002) y su detección permite llevar a cabo un monitoreo del nivel de atención en los
sujetos de estudio. La presencia de estas ondas cerebrales resulta prominente en las
regiones posteriores del cerebro.
Una vez generados los programas que permiten llevar a cabo la clasificación de
las pseudo-imágenes construidas, se lleva a cabo una validación cruzada en la
que se dividen las pseudo-imágenes en distintos grupos utilizados para entrena-
miento, validación y prueba. El proceso es repetido múltiples ocasiones con la
finalidad de proveer validez estadística a los experimentos.
1.5. Aportaciones
2.1. Electroencefalografía
La primera máquina de registro EEG fue introducida en 1929 por Hans Berger (Co-
llura, 1993), quien era neuropsiquiatra de la universidad de Jena en Alemania. Él utilizó
el término alemán “elektrenkephalogramm” para describir las representaciones grá-
ficas de las corrientes generadas en el cerebro. También sugirió que tales corrientes
cambiaban dependiendo del estado funcional del cerebro, tal como, sueño, anestesia
y epilepsia. Esta revolucionaria idea fue la que dio lugar a una nueva rama de las
ciencias de la salud llamada neurofisiología.
Figura 1. Hans Berger, creador del primer equipo EEG (imagen tomada de: http://www.psychiatrie.
uk-j.de/Geschichte.html).
Durante un registro EEG una serie de terminales conductivas o electrodos son co-
locados en distintas posiciones de la superficie del cuero cabelludo, utilizando desde
cinta adhesiva, hasta algún tipo de casco o gorro de tela o plástico para mantenerlos
en su posición durante el estudio. Con la finalidad de maximizar el contacto eléctrico
entre las terminales conductivas y el cuero cabelludo, en algunos casos se aplica pasta
conductiva dependiendo del tipo de electrodos utilizados.
2.1.2. Montaje
Amplificador
Electrodo 2
7µV en F4 7µV
Amplificador
0µV en C4
7µV en F4 0µV
Amplificador
7µV en C4
7µV en F4 14µV
Amplificador
-7µV en C4
Fp1
Amplificador Fp1-F3
F3
F3
Amplificador F3-C3
C3
C3
Amplificador C3-P3
P3
una posición distinta que los electrodos de “registro”. Las posiciones de la línea
central son frecuentemente utilizadas debido a que no amplifican la señal en un
hemisferio respecto al otro. Otra referencia popular consiste en promediar física
o matemáticamente un par de electrodos que se colocan en los lóbulos de las
orejas.
Fp1
Amplificador Fp1-A2
A2
F3
Amplificador F3-A2
A2
C3
Amplificador C3-A2
A2
Fp1
Amplificador Fp1-Promedio
Promedio
F3
Amplificador F3-Promedio
Promedio
C3
Amplificador C3-Promedio
Promedio
En la actualidad, con los EEGs digitales, todas las señales son típicamente digita-
lizadas en alguna configuración de montaje (comúnmente referencial). Debido a que
cualquier montaje puede ser construido matemáticamente a partir de cualquier otro,
los EEGs pueden ser desplegados por cualquier equipo EEG en la configuración de
montaje deseado.
El cerebro humano consiste en cerca de cien mil millones de células nerviosas lla-
madas neuronas, quienes son las responsables de generar las cargas eléctricas del
cerebro. Las neuronas comparten las mismas características y partes de otras célu-
las, pero su carácter electromecánico les permite transmitir señales eléctricas y pasar
18
mensajes entre ellas a través de largas distancias. Las neuronas tienen tres partes
básicas: cuerpo celular (soma), axón y dendritas (Carlson, 2002a; Purves et al., 2004)
como se muestra en la Figura 8.
- Canal EEG
+ Amp
Ref
Cuero
Cabelludo
Cráneo
Duramadre
Aracnoides
Espacio
Subaracnoide
- -
Piamadre
- -
Sinapsis Activa
+ +
+ + Axón Aferente
+ +
Axón Eferente
Los potenciales eléctricos detectables en la superficie del cuero cabelludo son ge-
nerados por la sumatoria de PSPs de inhibición y excitación de baja frecuencia pro-
venientes de las células neuronales piramidales que crean dipolos eléctricos entre el
soma y las dendritas apicales (ver Figura 9). Estos PSPs se suman en la corteza y se
extienden hasta la superficie del cuero cabelludo donde pueden ser registrados como
EEG. Los APs de las células nerviosas tienen una distribución de campo potencial mu-
cho más pequeña y son mucho más cortos en su duración comparados con los PSPs.
Los APs entonces no contribuyen significativamente a los registros EEG de cuero ca-
belludo o intracraneales. Solamente grandes poblaciones de neuronas activas pueden
generar actividad eléctrica detectable en el cuero cabelludo (Carlson, 2002b; Sanei
y Chambers, 2007; Purves et al., 2004). Cuando el voltaje es generado por una so-
la célula, es típicamente tan pequeño que no puede ser medido con precisión con la
tecnología de la actualidad.
coordinación. El cerebelo también está asociado con los movimientos musculares vo-
luntarios, habilidades motrices finas, la postura y la regulación del balance. El tronco
encefálico se localiza debajo del cerebro y conecta al telencéfalo con la médula espi-
nal. El tronco encefálico es como el disco duro de una computadora y es el panel de
control principal del cuerpo. Controla funciones vitales del cuerpo, incluyendo la respi-
ración, conciencia, movimiento de ojos y boca, retransmisión de mensajes sensoriales
(dolor, calor, ruido, etc.), latidos del corazón, presión sanguínea y el hambre.
Estudio de biorretroalimentación.
Esta lista confirma el gran potencial del análisis EEG y motiva la necesidad de
técnicas avanzadas de procesamiento de señales para ayudar a los especialistas en
la interpretación de las señales EEG. Los patrones EEG son muy importantes para
entender las actividades cerebrales mediante la identificación de las características
morfológicas o examinando bandas de frecuencia asociadas con distintas actividades
mentales o estados de conciencia. Las bandas de frecuencia pueden ser divididas en
cinco categorías.
Gamma
Beta
Alfa
Theta
Delta
Las ondas delta, que abarcan el rango entre 0.5 y 4 Hz son las mayores en amplitud,
pero las menores en frecuencia. Están asociadas principalmente a sueño profundo,
desórdenes cerebrales y el estado de vigilia.
Las ondas theta abarcan el rango entre 4 y 8 Hz y tienen una amplitud usualmente
mayor a los 20 μV. Estas surgen de estrés emocional, especialmente de frustración o
desilusión, actividad inconciente, inspiración creativa y meditación profunda.
24
Las ondas alfa comprenden el rango de frecuencias entre 8 y 13 Hz, tienen una am-
plitud entre 30 y 50 μV, y son especialmente detectables en las regiones posteriores
de la cabeza (lóbulo occipital) cuando el sujeto tiene los ojos cerrados o se encuentra
en estado de relajación. Usualmente son asociadas con actividad mental intensa, es-
trés y tensión. La actividad alfa registrada en las áreas sensorial-motrices es también
llamada actividad mu.
Las señales eléctricas EEG que tienen origen fuera de la actividad cerebral son
llamadas artefactos. Los registros EEG son casi siempre contaminados por tales arte-
factos. La amplitud de estas señales es en gran parte relativa a la amplitud de las
señales corticales de interés, por esta razón, interpretar señales EEG clínicamente re-
quiere experiencia considerable.
La Figura 13 muestra una ilustración de los cuatro tipos más comunes de artefactos
en registros EEG humanos, mismos que se describen a continuación:
2. Falso contacto de electrodo: Son causados por pobre contacto eléctrico (lo que
impide el paso de corriente eléctrica) entre el electrodo y la piel. Se presenta
como una onda de gran amplitud en uno o más canales.
3. Tragar: Como su nombre lo indica, ocurre por los movimientos musculares origi-
nados al tragar o pasar saliva.
4. Falso contacto de referencia: Son causados por el pobre contacto eléctrico entre
el electrodo de referencia y la piel. Se presenta como una onda de gran amplitud
en todos los canales.
Figura 13. Ejemplos de los principales tipos de artefactos en el EEG humano (Siuly et al., 2016).
26
Adrian y Matthews también descubrieron que las ondas alfa se encuentran en ma-
yor amplitud en la parte trasera de la cabeza, y normalmente resultan más evidentes
cuando el sujeto de estudio tiene los ojos cerrados y se encuentra relativamente re-
lajado. El ritmo alfa desaparece si la atención del sujeto se encuentra completamente
ocupada, como en el caso en que se encuentre realizando aritmética mental, y regre-
sa cuando el sujeto deja de concentrarse. Este fenómeno es conocido como “bloqueo
alfa”.
Adrian y Matthews observaron también que las ondas alfa desaparecían específica-
mente cuando el sujeto enfocaba su vista en algo y podían producirse incluso cuando
los ojos se encuentran abiertos, pero teniendo un campo visual uniforme (un arreglo
de vidrio opalizado en forma de tazón frente a la cara, iluminado con lámparas en
forma de anillo). Claramente inhibido por la estimulación visual enfocada, el ritmo alfa
podía ser también modulado por una fuente de luz intermintente. Adrian y Matthews
encontraron que era posible obtener una frecuencia tan alta como 25 Hz bajo las condi-
ciones adecuadas. Además observaron que intermitencias de 10 Hz en la iluminación,
potenciaban las ondas alfa, duplicando su amplitud comparada con aquella registrada
cuando el sujeto de estudio tenía los ojos cerrados.
Los fenómenos esenciales de las ondas alfa fueron establecidos hace ya varias dé-
cadas, y se puede discutir que sólo se conoce un poco más sobre ellos en la actualidad.
Nuestro entendimiento de la fisiología del EEG como un todo también se ha desarrolla-
do de manera lenta a lo largo de éste período. En la siguiente sección se narra el gran
27
reto que representó lograr la aceptación de la idea de que las ondas alfa se originan en
el cerebro. Esta propuesta generó un acalorado debate en las publicaciones académi-
cas durante los principios de la década de 1970, ilustrando sorprendentemente cómo,
a pesar de 40 años de investigación y una historia similarmente extensa de la aplica-
ción clínica de las técnicas EEG, se conocía muy poco sobre el origen y significado de
las ondas alfa.
Una tercer posible explicación es que exista un generador central para las ondas
alfa, y que se exprese de manera independiente en cada lóbulo occipital. Henderson,
en 1976, asumió un generador común para todas las ondas alfa registradas en el cuero
cabelludo, y sugirió una posición a partir de los registros multicanal, correspondiente
al núcleo ventrolateral del tálamo izquierdo, en el cual toda la actividad alfa podría ser
originada.
Un reto asombrosamente persuasivo para la idea aceptada de que las ondas alfa
tenían origen en la corteza occipital fue presentado en 1970 por Olof Lippold, cuya
teoría de que las ondas alfa eran causadas por la vibración de los globos oculares fue
realmente tomada en cuenta para todos los hechos conocidos sobre ellas.
La hipótesis de Lippold era esencialmente que cuando se cierra el ojo, los músculos
que controlan su movimiento comenzarán a vibrar, tal como cualquier otro músculo lo
hace, y esta vibración resultará en el movimiento del globo ocular. En la parte trasera
del ojo se encuentra una capa de tejido sensible a la luz conocido como retina, y a
través de ella se encuentra un potencial eléctrico en reposo de cerca de un milivolt (el
potencial corneo-retinal), una carga masiva en términos electrofisiológicos (La escala
de los registros EEG normalmente se establece en el orden de los microvolts). Cual-
quier movimiento del ojo resultará en un cambio en el campo eléctrico, especialmente
en la parte delantera de la cabeza (el electro-oculograma se basa de hecho en este
principio). La creencia de Lippold era que de alguna manera, estos cambios de poten-
cial resonaban a través del cráneo, y así eran más fácilmente medibles en el occipucio,
manifestandose como ondas alfa en los registros EEG.
29
Con la finalidad de probar esta hipótesis, Lippold enfrió un ojo mientras de forma
simultánea calentaba el otro, con agua, y encontró que el ritmo alfa en el lado frío
(medido occipitalmente) era más lento que aquel medido en el lado caliente. Sugirió
que este efecto era causado por una diferencia en el retraso inherente en el arco de
reflejo de estiramiento para ambos ojos, efecto causado por la diferencia de tempe-
ratura. Similarmente, Lippold alteró el potencial corneo-retinal mediante la exposición
de los ojos de los sujetos de estudio a distintos niveles de iluminación, y observó
que la amplitud alfa estaba altamente correlacionada con la magnitud del potencial
corneo-retinal, como lo predecía su teoría. De esta forma, no resulta sorprendente que
la teoría de Lippold recibiera mucha atención.
Una predicción esencial de este modelo es que la gente sin ojos (normalmente, a
quienes les fueron extirpados por motivos clínicos) deberían mostrar ausencia de on-
das alfa, debido a que no presentan potencial corneo-retinal. Hablando generalmente,
la gente ciega presenta ritmo alfa escaso o nulo. Un reporte sobre un sujeto sin ojos
que presentaba ondas alfa, fue rechazado por Lippold después de haber examinado a
profundidad al sujeto por si mismo. A pesar de el hecho de que el paciente no tenía
retina, la membrana que reviste al ojo se encontraba en un estado constante de agi-
tación. Lippold interpretó que estos hechos mostraban que la fuente del alfa no eran
de hecho los músculos extraoculares y el potencial corneo-retinal, sino los muñones
de músculo y los revestimientos de la órbita, aunque no era claro cómo esta actividad
podía ser transformada como actividad occipital.
Una prueba más directa de la explicación periférica del ritmo alfa fue reportada por
Cavonius y Estevez-Uscaryn en 1974, utilizando un aparato que permitía la estimula-
ción independiente de la corteza visual izquierda o derecha (Los nervios sensoriales
del ojo van sistemáticamente al hemisferio izquierdo o derecho, dependiendo de la
mitad del campo visual y del ojo del cual provienen). Descubrieron que la estimulación
en patrones sólo causaba “bloqueo alfa” en un lado de la cabeza (el mismo del campo
visual que estaba siendo utilizado, como lo hubiera predicho la anatomía), a pesar del
hecho de que ambos ojos recibieron información idéntica. Esto parecía terminar con la
teoría de Lippold conclusivamente, aunque aún no hay explicación para la evidencia
de correlación existente entre la amplitud de las ondas alfa y el tamaño del potencial
corneo-retinal.
30
Wertheim in 1974 desarrolló una hipótesis en la que, al igual que Lippold, vincula
las ondas alfa con los sistemas de retroalimentación y control de los ojos. El com-
portamiento atento siempre está acompañado de la utilización de retroalimentación
oculo-motriz en las personas con vista normal, y en 1981 sugirió que es el uso de in-
formación aferente de la retina sobre la posición del ojo lo que atenúa las ondas alfa.
Es decir, las ondas alfa no son generadas periféricamente pero son bloqueadas por el
uso de retroalimentación periférica proveniente de los ojos. En otras palabras: “... el
grado de desincronización del EEG occipital no está relacionado con el procesamiento
de información visual, pero puede ser considerado como un reflejo del grado en que la
información retinal es usada para el control oculo-motriz.
Resulta claro con la evidencia aquí discutida que la actividad alfa no es completa-
mente producida por artefactos (aunque es posible que una proporción pequeña de la
actividad de 10 Hz tenga origen corneo-retinal) y que su expresión es determinada en
gran parte por las funciones oculo-motrices periféricas.
Un campo relativamente nuevo, pero emergente para los EEGs es el de las inter-
faces cerebro-computadora (BCI3 ). Las BCI son una tecnología que busca una nueva
forma de comunicación entre un cerebro y una computadora. Una BCI es un sistema
basado en una computadora que adquiere señales cerebrales, las analiza, y las tra-
duce en comandos que en muchos de los casos son retransmitidos a dispositivos de
salida para llevar a cabo una acción determinada (ver Figura 14).
Las BCI tienen diversas aplicaciones, especialmente para personas con discapaci-
dad como: nuevas formas para jugar videojuegos, interacciones sociales permitiendo
aplicaciones sociales detectar sentimientos y emociones, ayudar a personas parcial
3 Del inglés: Brain-Computer Interface
32
Las BCI no requieren movimiento físico real, y por lo tanto pueden servir como me-
dio de comunicación para personas que tienen discapacidades motrices severas. Las
BCI podrían también reducir los síntomas resultantes de accidentes cerebro-vasculares,
autismo, desordenes emocionales y de atención.
Existen dos tipos de BCIs: invasivas, que se basan en señales registradas por elec-
trodos implantados sobre la corteza cerebral (lo cual requiere intervención quirúrgica),
y no invasivas, basadas en señales registradas por electrodos colocados sobre el cuero
cabelludo (fuera de la cabeza) (Wolpaw et al., 2002). En investigación reciente, las BCI
no invasivas son la técnica preferible.
Pre-Procesamiento
Extracción de
Características
Digitalización
BCI
Clasificación
Señales
EEG
Control de
Movimiento
Retroalimentación
En general, los sistemas BCI permiten a individuos interactuar con el ambiente ex-
terno mediante el control consciente de sus pensamientos en lugar de la contracción
muscular (e.g. interfaces humano-computadora controladas mediante señales mioe-
léctricas). Un sistema BCI típicamente requiere el seguimiento de un proceso de lazo
33
Una BCI puede detectar y clasificar patrones de señales cerebrales asociados con
tareas o eventos específicos. Lo que el usuario tiene que hacer para producir estos
patrones se determina mediante la estrategia mental que la BCI emplea. La estrate-
gia mental es la base de cualquier comunicación cerebro-computadora. La estrategia
mental determina qué es lo que el usuario debe hacer, con la finalidad de producir
patrones cerebrales que la BCI pueda interpretar. Las estrategias mentales más comu-
nes son imaginación motriz y atención selectiva. La imaginación motriz consiste en la
imaginación de un movimiento sin la necesidad de llevarlo a cabo. Por otro lado, las
BCIs basadas en atención selectiva, requieren estímulo externo provisto por el sistema
BCI. El estímulo puede ser auditivo o táctil.
2.3.1. OpenBCI
Postes de plástico: Son colocados en las 4 perforaciones del tablero principal del
sistema OpenBCI, permiten su estabilización y facilitan su instalación en estruc-
turas para sujeción de electrodos.
Siguiendo las ideas de Fourier, las señales como las que son extraidas del cuero
cabelludo mediante los electrodos superficiales EEG pueden ser representadas en el
40
1 2
0.5 1
a) 0 c) 0
-0.5 -1
-1 -2
0 0.5 1 0 0.5 1
Tiempo (s) Tiempo (s)
1 1
0.8 0.8
0.6 0.6
b) d)
0.4 0.4
0.2 0.2
0 0
0 10 20 30 0 10 20 30
Frecuencia (Hz) Frecuencia (Hz)
Figura 22. Señales en los dominios del tiempo y la frecuencia: a) señal senoidal en el dominio del tiempo,
b) señal senoidal en el dominio de la frecuencia, c) señal compuesta en el dominio del tiempo y d) señal
compuesta en el dominio de la frecuencia.
41
Este sencillo ejemplo ilustra la idea de por qué se utilizan las representaciones en
frecuencia. Basicamente, tratamos de obtener una imagen sencilla de algunas de las
características básicas de la señal, que usualmente no son obvias en las representa-
ciones ruidosas y complejas en el tiempo.
+∞
Z
X(ω) = (t) e−jωt dt , (1)
−∞
+∞
1
Z
(t) = X(ω) ejωt dω , (2)
2π
−∞
y obtiene de vuelta la señal original (t) expresada como una suma (o una integral
para ser precisos) de funciones seno y coseno de diferentes frecuencias, ponderadas
por los coeficientes de Fourier X(ω). Nótese la simetría de las Ecuaciones (1) y (2),
en el sentido de que podemos cambiar (t) por X(ω) tan solo cambiando el signo del
exponente complejo y agregando un factor de normalización.
Esto da una idea muy intuitiva de la transformada de Fourier. Por supuesto es sólo el
emparejamiento entre la señal original (t) y los exponenciales complejos (o funciones
seno y coseno) de distintas frecuencias.
Las señales digitales tienen duración finita y son muestreadas con cierta frecuen-
cia de muestreo. Estos factores introducen varios problemas que vamos a discutir a
continuación. Consideremos la señal discreta [n], n = 1, ..., N, que ha sido derivada
de una señal contínua (t) mediante el muestreo en intervalos iguales Δt (i.e. con una
1
frecuencia de muestreo ƒs = ). Obviamente, la duración de la señal es T = N ∗ Δt.
Δt
Análogo al caso contínuo (Ecuaciones (1) y (2)), la transformada discreta de Fourier se
define como:
N−1
X
X(k) = [n] e−j2πkn/ N k = 0, ..., N − 1 , (4)
n=0
y la señal [n] puede ser reconstruida con la transformada inversa discreta de Fourier:
43
1 N−1
X
[n] = X[k] ej2πkn/ N . (5)
N n=0
Los coeficientes de Fourier X[k] son números complejos que pueden ser represen-
tados en forma cartesiana o polar, como:
k
ƒk = . (7)
NΔt
1 1
Δƒ = = . (8)
NΔt T
1 ƒs
ƒN = = , (9)
2Δt 2
Para ilustrar la idea de este fenómeno, hagamos referencia a la Figura 23. Supo-
niendo que se muestrea una señal continua senoidal con un período de muestreo
relativamente grande δt. Debido a que el muestreo es demasiado disperso, resulta im-
posible obtener la señal original subyacente, y lo que es aún peor, una oscilación lenta
que no se encontraba en la señal original puede ser observada (ver los marcadores de
las muestras digitales). Este efecto es conocido como solapamiento: la introducción
de frecuencias bajas espuria debido a un muestreo inadecuado de la señal.
Δt
Figura 23. Ilustración del efecto de solapamiento: El muestreo inadecuado de la señal introduce oscila-
ciones espuria de baja frecuencia.
En casos reales, como son los registros EEG, no tenemos una señal senoidal a
una frecuencia determinada para la que podemos establecer una razón de muestreo
apropiada. Lejos de eso, tenemos señales ruidosas con actividad en distintas bandas
de frecuencia y la razón de muestreo es establecida por nuestro sistema de adquisición
de datos EEG. Entonces, con la finalidad de evitar el efecto de solapamiento, tenemos
45
que garantizar que el teorema de muestreo de Shannon sea verificado, es decir, que
ƒs 1
la frecuencia máxima de la señal ƒm cumpla ƒm < = . Esto se logra mediante
2 2Δt
la aplicación de filtros pasabajas “anti-solapamiento”. Cabe mencionar que el filtrado
“anti-solapamiento” tiene que ser llevado a cabo por el hardware antes de que la señal
sea digitalizada, ya que una vez digitalizada, no hay forma de deshacerse del efecto
de solapamiento.
De acuerdo a la Ecuación (6) donde se muestra que los coeficientes de Fourier pue-
den ser escritos en forma polar en términos de amplitud y fase. Una señal estacionaria
no lineal, por ejemplo, una secuencia de picos epilépticos, es representada en el domi-
nio de Fourier como una suma de senoidales, cada una de ellas sumado con una fase
particular para reproducir las formas de pico no lineales. Pero si ignoramos las fases,
perdemos información crítica que caracteriza el patrón no lineal de la señal original
(i.e. los picos). Ahora, de acuerdo a la Ecuación (10), que es únicamente el cuadrado
de la amplitud de los coeficientes de Fourier definidos en la Ecuación (6). El problema
es que usualmente miramos el espectro de potencia de la señal y descartamos la fase.
Es esta la razón por la que perdemos información sobre las estructuras no lineales con
la FT. Pero incluso si mantenemos la información de la fase, la representación de los
patrones no lineales como sumas de senoidales con fases particulares, parece algo
incómodo. En la práctica, la FT es utilizada para extraer las características lineales de
las señales y se recurre a métodos alternativos para estudiar los procesos no lineales.
47
1.5 1.5
1 1
0.5 0.5
a) 0 c) 0
-0.5 -0.5
-1 -1
-1.5 -1.5
0 0.1 0.2 0.3 0.4 0.5 0 0.1 0.2 0.3 0.4 0.5
Tiempo (s) Tiempo (s)
1 1
0.8 0.8
0.6 0.6
b) d)
0.4 0.4
0.2 0.2
0 0
0 5 10 15 20 0 5 10 15 20
Frecuencia (Hz) Frecuencia (Hz)
Figura 24. Ejemplo del efecto de fuga: a) La senoidal presenta un número entero de ciclos y b) su
espectro de potencia presenta un sólo pico en 6 Hz. c) La senoidal presenta un número no entero de
ciclos y d) su espectro de potencia es esparcido alrededor de 5 Hz.
la FT será periódica, y discretizar las frecuencias (como también se hace, debido a que
no podemos obtener una distribución contínua de frecuencias para datos reales) im-
pone periodicidad en el dominio del tiempo (Oppenheim y Schaffer, 1999). Si la señal
senoidal de la esquina superior izquierda de la Figura 24 es repetida una y otra vez,
resultará en una senoidal suave, debido a que para este caso el punto de inicio es
exactamente la continuación del punto final. Por el contrario, si la señal de la esquina
superior derecha de la Figura 24 es repetida, se introducirán discontinuidades, mismas
que causan el efecto de fuga. En otras palabras, si se pretende sintetizar la señal de
la esquina superior derecha de la Figura 24, incluyendo las discontinuidades causadas
por la repetición, es necesario utilizar en principio todas las componentes del espectro
y especialmente aquellas entre 2 y 8 Hz.
Rectangular
Bartlett
Hanning
Hamming
6 Blackman
Una manera simple de evitar que ocurra tal efecto, sería tomando un número en-
tero de ciclos. Sin embargo, las señales reales tienen actividad a frecuencias distintas
y es en general imposible definir una sola periodicidad. Una alternativa para evitar
tales discontinuidades es mediante el recorte de los bordes de la señal utilizando una
función ventana apropiada. Sin embargo, al aplicar ventanas para disminuir el efecto
de fuga, se sacrifica la resolución en frecuencia. Una formulación matemática precisa
se encuentra fuera del campo de este documento (ver (Oppenheim y Schaffer, 1999;
49
Jenkins y Watts, 1968)) pero intuitivamente podemos ver que un recorte excesivo de
la señal disminuye la duración efectiva de la misma en la que distintas fecuencias es-
tán definidas y, como se muestra en la Ecuación (8), la longitud de la señal determina
su resolución en frecuencia. Varias ventanas han sido propuestas para optimizar este
sacrificio y sus ventajas y desventajas dependiendo de la aplicación. Entre ellas, las
ventanas más populares son Barlett, Hanning, Hamming y Blackman, como se muestra
en la Figura 25. Para una revisión a profundidad de las mismas, referirse a (Oppenheim
y Schaffer, 1999; Jenkins y Watts, 1968).
Los instrumentos de medición son utilizados para llevar a cabo el monitoreo de pro-
piedades físicas cuya naturaleza es continua, ya que el mundo que nos rodea también
lo es. Sin embargo, cuando se utilizan instrumentos de medición digitales, es necesa-
rio discretizar las mediciones tanto en magnitud como en tiempo, con la finalidad de
que estas puedan ser registradas.
Cuando un conjunto de valores presenta una tendencia central alta. Es decir, una
tendencia a agruparse alrededor de un valor particular, entonces puede resultar útil
caracterizar el conjunto por sus momentos estadísticos.
50
N
1X
̄ = j , (11)
N j=1
que estima el valor alrededor del cual el agrupamiento central ocurre. Cabe mencio-
nar que la media no es el único estimador disponible de esta cantidad, y tampoco
necesariamente el mejor. Para valores tomados de una distribución con “colas” muy
anchas, la media puede converger pobremente o no converger, conforme los datos se
incrementan.
(N+1)/ 2 ,
N impar
med = . (12)
1 (N/ 2 + (N/ 2)+1 ),
N par
2
Si una distribución presenta una fuerte tendencia central, de tal forma que la mayor
parte de su área se encuentra debajo de un pico, la mediana es un estimador del valor
central.
51
N
1 X
Vr(1 , ..., N ) = (j − ̄)2 , (13)
N−1 j=1
Æ
σ(1 , ..., N ) = Vr(1 , ..., N ) . (14)
N
1X j − ̄ 3
Ske(1 , ..., N ) = , (15)
N j=1
σ
Oblicuidad Kurtosis
Positiva
Negativa (leptokurtica)
Negativa Positiva (platykurtica)
Por supuesto, cualquier conjunto de N valores medidos es muy probable que tenga
un valor diferente de cero para la Ecuación (15), incluso si la distribución subyacente
es de hecho simétrica (presenta oblicuidad cero). Para que la Ecuación (15) sea sig-
nificativa, es necesario tener una idea de su desviación típica como un estimador de
la oblicuidad de la distribución subyacente, sin embargo, desafortunadamente esto
depende de su forma.
( )
N
1X j − ̄ 4
Krt(1 , ..., N ) = −3 , (16)
N j=1
σ
donde el término −3 origina que su valor sea cero cuando es calculada para una dis-
tribución normal.
Área: Muchas técnicas de proyección están diseñadas para conservar las áreas,
por ejemplo, al colocar una moneda de cualquier tamaño en el mapa resultan-
te, esta cubre exactamente la misma área en cualquier otra parte del mapa.
En este tipo de proyecciones, las formas, ángulos y escala se encuentran conse-
cuentemente distorsionadas, aunque usualmente existen algunas partes de estos
mapas que conservan tales características correctamente o casi correctamente.
Escala: Ninguna técnica de proyección genera un mapa que muestre la escala co-
rrectamente en todas partes, sin embargo, existen usualmente una o más líneas
en el mapa a lo largo de las cuales la escala se conserva. Mediante la selec-
ción apropiada de la ubicación de tales líneas los errores de escala en cualquier
otro lugar pueden ser minimizados, aunque algunos errores pueden seguir siendo
grandes, dependiendo del tamaño del área proyectada y la técnica de proyección.
Son llamadas proyecciones equidistantes.
Dirección: Mientras los mapas ortomórficos muestran las direcciones locales rela-
tivas correctamente en cualquier punto dado, existe un grupo de proyecciones de
mapas llamado azimutal (o zenital), en el que las direcciones de todos los puntos
del mapa se muestran correctamente respecto al centro. Una de estas proyec-
ciones también conserva las áreas, otra es ortomórfica, y otra es equidistante.
También hay proyecciones en las cuales las direcciones desde dos puntos son
correctas, o en las que las direcciones desde todos los puntos hacia uno o dos
puntos seleccionados son correctas, pero estas son raramente utilizadas.
proyección las distancias medidas desde el centro y las direcciones son correctas, el
único punto del mapa resultante que no sufre distorsión es el centro de la proyección
y el punto opuesto al centro se muestra como un círculo alrededor del mapa.
Para llevar a cabo una proyección utilizando esta técnica, se debe primeramente
llevar a cabo una conversión de las posiciones 3D de los puntos a proyectar del sistema
cartesiano al sistema de coordenadas esféricas utilizando las siguientes Ecuaciones:
q
r= 2 + y 2 + z 2 , (17)
q
ee = rctn2 z, 2 + y2 , (18)
donde la función rctn2 de las Ecuaciones (18) y (19) se conoce como tangente
inversa de cuatro cuadrantes y los parámetros de entrada , y y z representan las
coordenadas 3D de los puntos a proyectar.
π
= − ee · cos(z) , (20)
2
π
y= − ee · sen(z) , (21)
2
3.4. Interpolación
Se pretende estimar ƒ () para una arbitraria mediante, de alguna manera, dibujar
una curva suave a través (y quizás más allá) de . Si la deseada se encuentra entre
la menor y la mayor de las ’s, el problema es llamado interpolación; si por otro
lado, se encuentra fuera de ese rango, es llamado extrapolación, que es un proceso
considerablemente más arriesgado.
Existe una extensiva literatura matemática consagrada a los teoremas sobre qué
tipo de funciones pueden ser bien aproximadas mediante cuáles funciones de interpo-
lación. Sin embargo, tales teoremas resultan poco prácticos en el trabajo día a día; si
se conoce suficiente sobre la función para aplicar un teorema cualquiera, usualmente
no es necesario interpolar sobre una tabla de sus valores.
La interpolación consiste en encontrar una función que pueda ser aplicada con la
finalidad de generar información para puntos desconocidos a partir de la información
disponible en puntos conocidos. Esta se relaciona con, pero es distinta de, la aproxima-
ción de funciones, que consiste en encontrar una función aproximada (pero fácilmente
calculable) para ser utilizada en lugar de una más complicada. En el caso de la interpo-
57
Es fácil encontrar funciones discontínuas que pueden producir un error bajo cual-
quier esquema de interpolación. Consideremos por ejemplo la siguiente:
1
ƒ () = 32 + n (π − )2 + 1
, (22)
π4
(a)
(b)
Figura 27. Ejemplos de interpolación. (a) Una función suave (línea sólida) es más precisamente inter-
polada por polinomios de orden superior (línea punteada) que por polinomios de orden inferior (línea
rayada). (b) Una función con esquinas abruptas o derivadas con cambios rápidos es menos polinomial
(línea rayada). Incluso algunas funciones suaves, como exponenciales o funciones racionales pueden ser
incorrectamente aproximadas utilizando polinomios de orden superior.
59
Hoy, el cómputo evolutivo es un área prometedora que coincide con lo que Turing
describió como el objetivo general de hacer que las computadoras resuelvan proble-
mas automáticamente como lo hacemos los humanos. Esta noción, es diferente de
los enfoques de inteligencia de máquina típicos que intentan resolver problemas con-
fiando en la lógica y conocimiento (como también Turing propuso), así como también
en métodos analíticos y matemáticos. De esta manera, Turing describió un proceso
evolutivo como una estrategia adecuada para lograr la inteligencia de máquina.
intercambia uno de los genes de la solución por alguno de los genes disponibles en
el acervo genético. La finalidad del proceso de mutación es introducir cierta variabili-
dad a las soluciones con la finalidad de explorar posibilidades que probablemente no
estaban siendo consideradas en la población actual.
Existen diversas maneras de formar una nueva generación dependiendo de los pa-
rámetros del algoritmo evolutivo. Las nuevas generaciones pueden componerse exclu-
sivamente de individuos nuevos o de combinaciones entre individuos nuevos y exis-
tentes, basándose en el valor de aptitud de los últimos. La nueva generación está
sujeta una vez más a los procesos de selección, mutación y cruce, para formar así las
próximas generaciones.
El ciclo finalizará una vez que el criterio de paro sea cumplido. Este criterio pue-
de ser establecido como un umbral en el valor de aptitud para uno o más individuos,
es decir, una vez que se encuentre una o varias soluciones suficientemente satisfac-
torias. El criterio de paro también puede establecerse como una cantidad máxima de
generaciones, o una combinación entre valores de aptitud y cantidad de generaciones.
Capítulo 4. EvoEEG
Como ya ha sido mencionado, para los fines de este trabajo, y como primer paso
orientado hacia un estudio de mayor complejidad, la investigación se enfoca en un
estado mental específico que ha sido caracterizado con anterioridad: el estado alfa.
Esta onda cerebral se usa como indicador del estado de vigilia y permite monitorear el
nivel de atención. Se caracteriza por ser más prominente en las regiones posteriores
del cerebro.
4.1. Adquisición
10-20 que fue descrito en la Sección 2.1.1 y es ampliamente utilizado para llevar a ca-
bo estudios relacionados con señales electroencefalográficas. La Figura 28 muestra la
instalación completa del sistema OpenBCI en la estructura Mark IV con sus respectivos
electrodos.
Las señales de cada uno de los 16 canales se obtienen como una serie de medi-
ciones a lo largo del tiempo. La frecuencia con la que se muestrean tales mediciones
es de 250 Hz, es decir, las lecturas son registradas a una tasa de 250 muestras por
segundo. Tales lecturas representan la diferencia de potencial existente en el lugar
donde se posiciona cada uno de los electrodos de registro con respecto al electrodo
de referencia, que para efectos de este estudio, se ha establecido como un mismo
nodo conectado al lóbulo de ambas orejas, con la finalidad de no amplificar la señal de
un hemisferio respecto al otro, de acuerdo a la configuración de montaje referencial
explicada en la Sección 2.1.2. La Figura 29 muestra las posiciones seleccionadas para
la colocación de los electrodos de registro y referencia.
4.2. Pre-procesamiento
Una vez recibidas las señales digitales de los 16 canales, se procede a llevar a cabo
una serie de transformaciones a las mismas, con la finalidad de convertirlas en una
serie de pseudo-imágenes, para posteriormente ser clasificadas mediante un modelo
68
4.2.2. Almacenamiento
Una vez que las señales originales han sido filtradas y se ha calculado el espectro
de potencia de las señales resultantes, este se almacena en vectores de 125 medicio-
nes para cada canal. Esto tiene el objetivo de contar con una representación de las
variaciones que tuvo la magnitud de las señales filtradas durante segmentos cortos
de tiempo.
una serie de valores que puedan arrojar información adicional del comportamiento de
los grupos de mediciones en cada segmento de tiempo.
Una vez calculados los parámetros de interés que contienen información relacio-
nada con las variaciones de la potencia en las señales originales, estos son utilizados
para comenzar a formar una serie de pseudo-imágenes. El objetivo de este proceso
es contar con una representación visual de la evolución de las señales cerebrales a
lo largo del tiempo. A continuación se describe el proceso de formación de pseudo-
imágenes.
4.3.1. Proyección
cados los electrodos de registro físicamente. Estas matrices serán las plantillas sobre
las cuales se construirá cada una de las pseudo-imágenes.
Para seleccionar los pixeles donde los valores calculados serán colocados, primera-
mente es necesario conocer las coordenadas tridimensionales de los electrodos. Estas
se obtienen haciendo mediciones directas sobre Mark IV, la estructura de plástico que
sostiene los electrodos y los fija en las posiciones seleccionadas. Para establecer las
coordenadas (, y, z) de cada punto, se considera como origen el centro del óvalo des-
crito por la base de Mark IV y las mediciones son expresadas en milímetros como se
puede apreciar en la Figura 30.
80
60
40
20
0
−100
−50
100
0
50
50 0
−50
100 −100
Con la finalidad de llevar a cabo tal proyección es posible trasladar los puntos de
sus posiciones tridimensionales originales a través de vectores normales al plano hasta
que tales puntos lo intersecten, eliminando la coordenada z y conservando las posicio-
nes en y y, sin embargo, el problema de este método es que además de introducir
una distorsión considerable en el mapa resultante, la distancia relativa entre las posi-
ciones de cada uno de los electrodos se pierde como se aprecia en la Figura 31a.
100 1.5
80
1
60
40
0.5
20
a) 0 b) 0
−20
−0.5
−40
−60
−1
−80
−100 −1.5
−100 −50 0 50 100 −2 −1.5 −1 −0.5 0 0.5 1 1.5 2
Figura 31. Comparación entre métodos de proyección: a) proyección burda y b) proyección azimutal
equidistante.
El hecho de conservar las distancias relativas entre los electrodos resulta conve-
niente, ya que provee una estimación más precisa de la influencia real del valor de
potencia de cada electrodo durante la construcción de las pseudo-imágenes finales.
menor, con el objetivo de evitar que los valores sean ubicados en la periferia de las
matrices, pero a su vez aprovechando la resolución disponible.
Como primer paso para la construcción de las pseudo-imágenes, los valores de los
parámetros estadísticos calculados en la Sección 4.2.3 son colocados en las ubicacio-
nes mostradas en la Figura 32, las coordenadas de tales puntos se encuentran en las
columnas “s ” y “ys ” de la Tabla 1.
73
250
200
150
100
50
0
0 50 100 150 200 250
Figura 32. Proyección final de las posiciones tridimensionales de los electrodos a la matriz que servirá
como plantilla para la construcción de pseudo-imágenes.
4.3.2. Interpolación
El proceso descrito hasta este punto coloca una serie de valores asociados a las
variaciones temporales de la potencia de cada uno de los electrodos en 3 matrices
de 256x256 pixeles. Cada una de estas matrices está relacionada con un parámetro
estadístico: la primera con la media, la segunda con la mediana y la tercera con la
desviación típica. Tales matrices se encuentran en su mayoría vacías, ya que solo 16
de sus 65,536 pixeles tienen asignado un valor.
Con la finalidad de asignar un valor al resto de los pixeles se lleva a cabo una inter-
polación de acuerdo a la descripción de esta operación en la Sección 3.4. El método
de interpolación aplicado es “Spline biarmónica”, un algoritmo de interpolación bidi-
mensional que toma una serie de valores conocidos y sus coordenadas como entrada,
y entrega un conjunto de valores a la salida para cada una de las coordenadas no
incluidas en la entrada.
4.3.3. Normalización
Una vez que se tiene una primera versión de las pseudo-imágenes, estas requieren
ajustes radiométricos con la finalidad de mostrar la información contenida en ellas
con la mayor claridad posible. Como se puede apreciar en la imágen del lado derecho
en la Figura 33, la mayor parte de los pixeles contiene valores de radiometría baja
(tonos obscuros). Esto se debe a que los valores calculados a partir de los parámetros
estadísticos y por lo tanto también los valores estimados mediante la interpolación
son bajos comparados con el espectro disponible. La uniformidad en la tonalidad de
los pixeles en la imágen dificulta la apreciación de los detalles, lo cual podría causar
problemas durante la etapa de clasificación.
75
Media Mediana
de observar las tonalidades que predominan son azul y amarillo, esto se debe a que
la pseudo-imagen de la desviación típica, que constituye la banda azul, tiene un valor
completamente distinto al de las otras dos pseudo-imágenes, lo cual significa que la
correlación entre las bandas azul y roja o azul y verde es baja. Por otro lado la tona-
lidad amarilla se genera por la mezcla de las pseudo-imágenes de la media, que se
asocia con la banda roja, y la mediana, que se encuentra en la banda verde, mismas
que tienen valores muy similares, es decir, la correlación entre las bandas verde y roja
es alta.
El algoritmo empleado para llevar a cabo la interpolación estima valores para todos
aquellos pixeles que se encuentran dentro del área delimitada por los pixeles periféri-
cos, cuyas posiciones fueron determinadas mediante el proceso de proyección descrito
en la Sección 4.3.1. Este algoritmo también lleva a cabo una extrapolación, misma que
genera datos para los pixeles que se encuentran fuera del área mencionada.
Considerando los principios físicos de la adquisición de las señales que dieron orí-
gen a las pseudo-imágenes, no es conveniente extrapolar la información radiométrica
a los pixeles que se encuentran fuera del área delimitada por los pixeles periféricos.
Por esta razón es pertinente aplicar una máscara que cancele los valores radiométricos
de los pixeles que se encuentran fuera del área de interés.
Figura 36. Aplicación de máscara para obtener la versión final de las pseudo-imágenes.
4.4. Clasificación
Tales pseudo-imágenes son utilizadas para llevar a cabo el entrenamiento del mo-
delo computacional descrito en la Sección 3.6. Este modelo computacional consiste en
una estructura jerárquica que imita la forma en que la información visual es procesada
e interpretada por el cerebro humano; i.e.,corteza visual artificial. Una vez entrenada
esta estructura jerárquica mediante “Programación Cerebral”, se generan programas
que resuelven el problema de clasificación de las pseudo-imágenes en cuestión.
𝝁 𝝈 𝝈𝟐
BP
OpenBCI Señales EEG Espectro de Almacenamiento Parámetros Proyección Interpolación Normalización Mezcla de Bandas Aplicación de Clasificación
(16 Canales) Potencia y Estadísticos (3 matrices) Máscara (Modelo CVA)
Filtrado
Adquisición
Pre-Procesamiento
Formación de Pseudo-Imágenes
Clasificación
Figura 37. Diagrama del sistema electrónico-computacional para la detección de ondas alfa mediante
la clasificación de pseudo-imágenes generadas a partir de señales EEG.
80
Capítulo 5. Experimentación
Existe evidencia que demuestra que las ondas alfa son atenuadas cuando una fuen-
te de iluminación directa incide sobre los ojos del sujeto de estudio. Además se dice
que fluctuaciones en la iluminación pueden originar variaciones en la intensidad de las
señales de interés (Empson, 1986). Por estas razones, durante el registro de señales
electroencefalográficas se mantiene una iluminación indirecta constante.
parámetros configurables tanto a nivel software, como hardware. De esta forma, la in-
terfaz permite tener acceso a las señales a distintos niveles de procesamiento: desde
las señales analógicas crudas, hasta señales amplificadas, digitalizadas y filtradas.
Figura 38. Conexión de los tableros principal y auxiliar del sistema OpenBCI en conjunto.
Además, para tener acceso a las señales amplificadas y digitalizadas, como la ex-
perimentación lo requiere, es necesario utilizar el receptor inalámbrico de la Figura 17
con el objetivo de obtener el nivel de procesamiento deseado en la señal. Cabe men-
cionar que antes de llevar a cabo la digitalización de la señal, los tableros del sistema
OpenBCI aplican filtros “anti-solapamiento” en todos los canales con la finalidad de
evitar el efecto descrito en la Sección 3.1.3.
terminales de referencia en los tableros principal y auxiliar. El nodo formado por di-
cha conexión eléctrica se conecta a un par de electrodos tipo broche, mismos que
son colocados en el lóbulo de ambas orejas del sujeto de estudio durante el registro.
En la Figura 39 se muestran las conexiones necesarias para establecer una referencia
común entre los tableros principal y auxiliar del sistema OpenBCI.
Figura 39. Modificaciones para referenciar eléctricamente los tableros principal y auxiliar del sistema
OpenBCI al mismo par de electrodos.
debe a que este estudio constituye el primer paso para el análisis de fenómenos de
mayor complejidad en el futuro, entonces, resulta de utilidad conservar la gama com-
pleta de señales adquiridas durante los experimentos aquí descritos.
Durante las pruebas iniciales se hicieron algunas observaciones que sugerían que
la potencia de las señales electroencefalográficas en la banda alfa era menor conforme
aumentaba la edad de los sujetos de estudio. Sin embargo, la edad no fue considerada
como un parámetro crítico para la selección, ya que la potencia de las señales en la
banda alfa en la mayoría de los sujetos de estudio era suficientemente prominente
para ser detectada.
Teniendo en cuenta que este trabajo constituye el primer paso para estudiar fe-
nómenos de mayor complejidad en el futuro, se utilizaron únicamente las señales de
dos de los sujetos de estudio, ambos de sexo masculino, uno de 48 años de edad y
el otro de 17 años de edad. Las señales extraídas de un tercer sujeto de estudio de
85
Esta sección tiene como objetivo describir el procedimiento para llevar a cabo la
adquisición de las señales electroencefalográficas con la interfaz cerebro-computadora
OpenBCI.
1. El sujeto de estudio debe sentarse en una silla con la finalidad de que se encuen-
tre a una altura adecuada para que el responsable de los experimentos pueda
llevar a cabo la instalación y ajuste de OpenBCI de manera sencilla.
2. Todos los electrodos primeramente deben ser girados por la parte plástica en
sentido contrario a las manecillas del reloj de forma suave para evitar daños o
desconexiones en el cableado. Esto se hace con la finalidad de permitir la libera-
ción de espacio para la colocación libre de la estructura MarkIV sobre la cabeza
del sujeto de estudio como se muestra en la Figura 40.
86
3. Una vez colocada la estructura MarkIV, se lleva a cabo el ajuste de los electrodos
girándolos por la parte plástica en el sentido de las manecillas del reloj para que
estos se deslicen a través de los agujeros roscados hasta hacer contacto con el
cuero cabelludo como se muestra en la Figura 41.
toque el cuero cabelludo del sujeto de estudio. Ajustarlos en exceso podría causar
molestias durante la experimentación.
Antes de comenzar cada uno de los experimentos para el registro de señales elec-
troencefalográficas, se realizan una serie de pruebas con la finalidad de asegurar que
el equipo de adquisición de datos se encuentre funcionando correctamente de acuerdo
a la configuración seleccionada. En esta etapa también se verifica la correcta instala-
ción de la interfaz cerebro-computadora OpenBCI de acuerdo a los pasos descritos en
la sección anterior.
Dependiendo del estudio, la cantidad de canales para llevar a cabo el registro debe
ser seleccionada. Considerando que este estudio requiere el registro de señales por
medio de 16 canales, entonces es necesario seleccionar la opción 16 CHANNELS.
El resto de las secciones no deben ser modificadas, por lo que para continuar con
el registro es necesario presionar el botón START SYSTEM, lo que resultará en una
pantalla similar a la mostrada en la Figura 45.
Mientras en pantalla se muestran las variaciones de las señales a lo largo del tiem-
po, se le notifican al sujeto de estudio las condiciones deseables para el experimento,
así como la dinámica del mismo de acuerdo a la descripción contenida en la Sección
5.2.3. La Figura 46 muestra la apariencia de la pantalla durante la prueba.
Además los pasos descritos en la sección anterior deben ser repetidos, con excep-
ción de que esta vez se debe utilizar un nombre de archivo que permita una fácil aso-
ciación del mismo con el experimento ejecutado. Es recomendable utilizar el formato:
nombre_e, donde nombre debe ser sustituido por el nombre del sujeto de estudio, y
la e debe ser sustituida por el número de experimento para ese sujeto de estudio.
5. Finalmente, ya que han transcurrido 120 segundos desde el inicio del experimen-
to, el responsable del experimento detiene la adquisición de señales y le indica
al sujeto de estudio que el experimento ha concluido.
92
Ojos abiertos
Ojos cerrados
Adquisición EEG
Mediante un análisis visual preliminar, es posible observar que las primeras pseudo-
imágenes generadas contienen datos anómalos: la primera presenta valores radiomé-
tricos extremadamente bajos, comparada con el resto, mientras que en las siguientes
10 o 12 pseudo-imágenes, se pueden observar valores radiométricos muy prominen-
tes, mismos que son causados por una reacción natural que presenta el sistema elec-
trónico de adquisición de señales (OpenBCI) durante los primeros 5 o 6 segundos del
registro. De igual manera, las últimas dos pseudo-imágenes generadas pueden ser
consideradas como información residual, ya que fueron construídas debido a la ter-
minación tardía por parte del responsable de los experimentos. Debido a las razones
mencionadas anteriormente, tales pseudo-imágenes pueden ser descartadas en los
siguientes procesos.
Este proceso de depuración es necesario debido a que, a pesar de que los expe-
rimentos fueron diseñados para tener segmentos definidos de tiempo donde debería
existir actividad en la banda alfa, resulta imposible asegurar que durante tales seg-
mentos de tiempo la actividad alfa ocurre de forma estable. De igual forma, existe la
posibilidad de que se presente actividad alfa prominente en los segmentos de tiempo
donde, de acuerdo al diseño de los experimentos, no se espera que esto ocurra, esto
se debe a la naturaleza de las señales de interés.
lizados fuera de esa zona. De esta forma, en la parte izquierda de la pantalla, se deben
presionar los botones asignados a todos los canales, excepto para los canales 7 y 8,
cuyos electrodos de registro se ubican en ambos hemisferios del lóbulo occipital.
Una vez realizados los ajustes descritos anteriormente, se debe presionar el botón
Start Data Stream, lo cual originará que inicie la reproducción de las señales y se
97
puedan apreciar las variaciones de las mismas a lo largo del tiempo, como se muestra
en la Figura 51.
Entonces, como primer paso se requiere reproducir varias veces el archivo donde
las señales fueron guardadas, poniendo especial atención en lo que ocurre en el grá-
fico entre las frecuencias de 8 y 14 Hz, mismas que delimitan la banda alfa. La parte
superior de la ventana muestra el tiempo transcurrido desde el inicio de la reproduc-
ción expresado en segundos, mismo que sirve de guía para identificar los tiempos de
inicio y final de la actividad alfa cuando se observen picos de las señales dentro de la
banda de frecuencias de interés.
Una vez que se ha concluido este proceso para cada una de las pseudo-imágenes
construidas en los segmentos de tiempo identificados, es posible seleccionar aquellas
en las que la actividad alfa es prominente. Al proceso de segregación de las pseudo-
imágenes que presentan prominencia en la actividad alfa, de aquellas en las que existe
ausencia de tal actividad, se le llama etiquetado.
Figura 52. Comparación entre pseudo-imágenes generadas en presencia (izquierda) y ausencia (dere-
cha) de actividad alfa.
Este capítulo tiene como objetivo exponer los resultados obtenidos en la investiga-
ción, así como analizar los mismos con la finalidad de poder inferir las conclusiones
detalladas en el Capítulo 7.
Tabla 2. Resumen de la primer validación cruzada de 5 dobleces para la clasificación de ondas alfa
0.9
0.8
0.7
0.6
Aptitud
0.5
0.4
0.3
0 5 10 15 20 25 30
Generaciones
Figura 53. Curva de aprendizaje general para todas las ejecuciones de los experimentos descritos en la
Tabla 2.
primer doblez (k = 1), y con base en esos resultados, fueron tomadas las decisiones
que daban origen a las nuevas generaciones de individuos para tales experimentos, lo
que introdujo un sesgo en el proceso evolutivo.
El impacto de los errores en la Tabla 2 es menor, ya que sólo afecta las columnas
con los resultados de validación para los dobleces k = 4 y k = 5 y por lo tanto existen
algunos cambios en la selección de los mejores individuos. Además se podría decir que
todos los individuos generados a partir del proceso evolutivo para tales dobleces fue-
ron optimizados mediante un proceso sesgado. Cabe mencionar, que a pesar de que
estos resultados fueron obtenidos con un sesgo en el proceso evolutivo, las soluciones
son completamente válidas, ya que si bien, el proceso de construcción de las mismas
es dudoso, se puede validar su desempeño en la clasificación de cualquier conjunto
de entrenamiento, validación y prueba.
Al llevar a cabo las correcciones de los porcentajes de las columnas con los resulta-
dos de validación para los dobleces k = 4 y k = 5, además de sus respectivos valores
en la media y desviación estándar se obtiene la Tabla 3.
Tabla 3. Resumen de la primer validación cruzada de 5 dobleces para la clasificación de ondas alfa
(corregida)
Tabla 4. Resumen de la segunda validación cruzada de 5 dobleces para la clasificación de ondas alfa
0.9
0.8
0.7
0.6
Aptitud
0.5
0.4
0.3
0 5 10 15 20 25 30
Generaciones
Figura 54. Curva de aprendizaje general para todas las ejecuciones de los experimentos descritos en la
Tabla 4.
105
Para este caso, el mejor individuo alcanza la máxima aptitud a partir de la gene-
ración 8 (curva verde), mientras que los 10 mejores individuos parecen alcanzar su
máxima aptitud promedio hasta la generación 28 (curva roja), aunque se puede ob-
servar cierta estabilidad desde la generación 10. Por otro lado, la aptitud promedio de
toda la población (curva azul) se muestra relativamente estable a partir de la genera-
ción 18.
6.2.1. Desempeño
La Tabla 5 muestra los resultados de la validación cruzada para los 5 mejores indivi-
duos encontrados en ambos experimentos, la primera columna muestra los individuos
ordenados de mejor a peor de acuerdo con su desempeño en los experimentos ante-
riores. Estos se denotan con el símbolo “α” cuyo subíndice indica el número del doblez
y la repetición en la que fueron encontrados, las siguientes columnas muestran los
resultados de la clasificación de los conjuntos de pseudo-imágenes de entrenamiento,
validación y prueba para cada individuo en cada uno de los 5 dobleces. En las últimas
3 columnas se muestran las medias de los resultados de clasificación de los conjuntos
de pseudo-imágenes de entrenamiento, validación y prueba para cada individuo. En
negrita se indican los mejores resultados para la clasificación de los conjuntos de prue-
ba en cada doblez, además de señalar el mejor individuo en las últimas tres columnas.
Como se puede observar, el individuo α 4−6 , mismo que presentaba el mejor re-
sultado para la clasificación del conjunto de prueba durante la validación cruzada del
proceso evolutivo en los primeros experimentos, reportando un valor de 100.00, no
es el que presenta el mejor desempeño en la validación cruzada con los conjuntos de
107
Tabla 5. Resumen de la validación cruzada de 5 dobleces para los 5 mejores individuos encontrados en
los experimentos
validación y prueba del resto de los dobleces, para los cuales reporta valores de 90.88
y 89.41 respectivamente. Tal individuo, de hecho, presenta el peor desempeño en la
clasificación de los conjuntos de prueba, mientras que presenta un desempeño casi
perfecto al clasificar los conjuntos de entrenamiento, reportando un valor de 99.18, lo
cual sugiere que se encuentra sobreajustado a tales datos. Este análisis desacredita a
tal individuo como el mejor.
Por otro lado, el individuo α 3−2 presenta el mejor desempeño en la validación cru-
zada con los conjuntos de validación y prueba del resto de los dobleces, para los que
reporta valores de 99.41 y 97.06 respectivamente. Esto a pesar de no presentar el
mejor desempeño en cuanto a la clasificación de los conjuntos de entrenamiento, para
los cuales reporta un valor medio de 94.12, lo cual sugiere que no existe un sobreajus-
te en relación a los datos de entrenamiento. Debido a esto, este individuo puede ser
considerado como el mejor.
6.2.2. Estructura
columna muestra la media de los resultados del desempeño de cada individuo para
clasificar los conjuntos de pseudo-imágenes de entrenamiento, validación y prueba
respectivamente, mismos que coinciden con los valores de la última columna de la
Tabla 5.
Figura 55. Flujo de información a través de la corteza visual artificial para la detección de actividad alfa.
siderar, por lo que se dice que hay una reducción de dimensionalidad en los datos
de entrada. Además, conforme más operadores visuales son aplicados, se van enfa-
tizando aquellas zonas importantes en las pseudo-imágenes, es decir, se hace una
extracción de características en las mismas.
El hecho de que las zonas superior e inferior de las pseudo-imágenes sean enfatiza-
das, indica que el modelo de la corteza visual artificial realiza la tarea de clasificación
110
poniendo atención en las mismas zonas de interés utilizadas para el etiquetado manual
de las pseudo-imágenes descrito en la Sección 5.3.1. Esto confirma que el modelo de
la corteza visual artificial imita la manera en que el sistema visual humano identifica
las regiones importantes en las pseudo-imagenes para poderlas clasificar.
111
7.1. Conclusiones
Considerando que el modelo de la corteza visual artificial fue diseñado para cla-
sificar imágenes adquiridas por equipo de fotografía tradicional, las funciones y
terminales disponibles se relacionan con el tipo de información contenida en tales
imágenes. Las pseudo-imágenes construidas en este trabajo tienen característi-
cas propias que no necesariamente coinciden con la naturaleza de las otras, por
lo que se propone llevar a cabo un ajuste fino de las funciones y terminales dispo-
nibles, con el objetivo de encontrar aquellas que se ajusten de mejor manera a la
naturaleza de las pseudo-imágenes construidas en este trabajo. Esto de manera
indirecta tendrá impacto positivo en la demanda de recursos del algoritmo que
lleva a cabo el proceso evolutivo, permitiendo encontrar soluciones mejores en
tiempo menor.
Literatura citada
Adeli, H., Zhou, Z., y Dadmehr, N. (2003). Analysis of EEG records in an epileptic
patient using wavelet transform. Neuroscience Methods, 123(1): 69–87.
Bashashati, A., Fatourechi, M., Ward, R. K., y Birch, G. E. (2007). A survey of signal
processing algorithms in brain-computer interfaces based on electrical brain signals.
Journal of Neural Engineering, 4(2): 35–57.
Bruce, M., Scott, N., Lader, M., y Marks, V. (1986). The psychopharmacological and
electrophysiological effects of single doses of caffeine in healthy human subjects.
British Journal of Clinical Pharmacology, 22: 81–87.
Clemente, E., Olague, G., y Dozal, L. (2013). Purposive evolution for object recognition
using an artificial visual cortex. EVOLVE - A Bridge between Probability, Set Oriented
Numerics, and Evolutionary Computation II, 175: 355–370.
Dozal, L., Olague, G., Clemente, E., y Hernandez, D. E. (2014). Brain programming for
the evolution of an artificial dorsal stream. Cognitive Computation, 6(3): 528–557.
Fisch, B. J. (1999). EEG premier: Basic principles of digital and analog EEG. Elsevier,
tercera edición.
Gray, F. J. (2002). Anatomy for the medical clinician. Shannon Books Pty Ltd., primera
edición.
115
Hazarika, N., Chen, J. Z., y Tsoi, A. (1997). Classification of eeg signals using the wavelet
transform. Signal Process, 59(1): 61–72.
Huupponen, E., Himanen, S. L., Varri, A., Hasan, A., Saastamoinen, A., Lehtokangas, M.,
y Saarinen, J. (2002). Fuzzy detection of eeg alpha without amplitude thresholding.
Artificial Intelligence in Medicine, 2(24): 133–147.
Lopes da Silva, F. (2010). EEG - fMRI: Physiological Basis, Technique, and Applications.
Springer.
Mountcastle, V. B. (1978). The mindful brain: An organizing principle for cerebral fun-
ction. MIT Press.
Olague, G., Clemente, E., Dozal, L., y Hernandez, D. E. (2014a). Evolving an artifi-
cial visual cortex for object recognition with brain programming. EVOLVE-A Bridge
between Probability, Set Oriented Numerics, and Evolutionary Computation III, pp.
97–119.
Olague, G., Dozal, L., Clemente, E., y Ocampo, A. (2014b). Optimizing an artificial
dorsal stream on purpose for visual attention. EVOLVE-A Bridge between Probability,
Set Oriented Numerics, and Evolutionary Computation III, pp. 141–166.
Olague, G., Clemente, E., Hernandez, D. E., y Barrera, A. (2017). Brain programming
and the random search in object categorization. Applications of Evolutionary Compu-
tation, pp. 522–537.
Purves, D., Augustine, G., Fitzpatrick, D., Katz, L., Lamantia, A., y McNamara, J. (2004).
Neuroscience. Sinauer, tercera edición.
Sanei, S. y Chambers, J. A. (2007). EEG Signal Processing. John Wiley and Sons, Ltd.
Schröder, M. I., Lal, T. N., y Birbaumer, N. (2005). Robust eeg channel selection across
subjects for brain–computer interfaces. EURASIP J. Adv. Signal Process., 19: 3103—-
3112.
Siuly y Li, Y. (2015). Discriminating the brain activities for brain–computer interface
applications through the optimal allocation-based approach. Neural Computing and
Applications, 26(4): 799–811.
Siuly, S., Li, Y., y Zhang, Y. (2016). EEG Signal Analysis and Classification. Springer.
Sulaiman, N. (2014). Interpretation of human thought using EEG signals and LabVIEW.
Proceedings - 4th IEEE International Conference on Control System, Computing and
Engineering, ICCSCE, pp. 384–388.
Wolpaw, J. R., Birbaumer, N., McFarland, D. J., Pfurtscheller, G., y Vaughan, T. M. (2002).
Brain-computer interfaces for communication and control. Clinical Neurophysiology,
113: 767–791.
117
Anexo
DVDD (3.3V)
GND (0V)
AVSS (-2.5V)
AVDD (+2.5V)
AGND (0V)
CLK - Señal de reloj generada por y enviada desde el tablero principal OpenBCI.
También existe una conexión entre los tableros llamada BIAS, que enruta las señales
correspondientes provenientes del módulo Daisy hacia el tablero principal.
Para llevar a cabo la instalación de conectores que transportarán las señales com-
partidas, comenzaremos por el tablero principal OpenBCI, para lo que necesitaremos
lo siguiente:
La figura 56 muestra las localizaciones de cada uno de los conectores a instalar. Pri-
meramente, es necesario soldar el conector hembra de 8 posiciones a la fila diagonal
de pines en la parte izquierda del tablero principal OpenBCI como se muestra marcado
en color azul. Posteriormente, soldar los 3 conectores hembra de 2 posiciones en las
filas verticales en la parte superior y central del tablero principal OpenBCI como se
muestra marcado en color verde. Las de la parte superior se encuentran identificadas
como AVSS (izquierda) y AVDD (derecha), la de la parte central está identificada como
BIAS_INV y AGND. Existe un par de conectores hembra de 4 posiciones adicionales
cuya instalación es opcional. Estos proveen acceso a algunas terminales disponibles
del microcontrolador PIC, su ubicación se identifica en color rojo.
Para la instalación se deben soldar los conectores en la parte superior e inferior del
receptor inalámbrico programable OpenBCI, su ubicación se identifica en color azul en
la figura 59.
Una vez ejecutadas las instrucciones descritas anteriormente, los tableros electró-
nicos del juego de desarrollo de 32 bits se encuentran listos para llevar a cabo las
mediciones necesarias.