La Desrobotización Del Pensamiento Humano
La Desrobotización Del Pensamiento Humano
La Desrobotización Del Pensamiento Humano
1
El día a día se ha llenado de datos y señales que nos hacen plenamente conscientes de la
pandemia
A esto se le suma que buena parte de los países del mundo hayan decidido tomar caminos
diferentes para atajar la pandemia. Y, si algo en un país ha funcionado de manera excelente no
parece haber sido motivo suficiente para que esas medidas se implementasen en otras partes
del planeta. Algunas personas, las que se sienten como actores en esta etapa histórica se
habrán preguntado, e incluso lo seguirán haciendo si las cosas no se podrían haber hecho mejor
de otra manera. Otros, los que prefieren ser más espectadores, se agarrarán a lo que
simplemente esta ahí, a lo que otros digan sin cuestionarse absolutamente nada. Un virus que
ha costado no solo la vida de muchas personas, sino que, si se habla en términos más humanos,
el coronavirus se ha llevado en solitario la vida de muchos, que “han muerto literalmente
solos”.
A los años del COVID-19 y sus múltiples variantes, se han unido en los últimos meses lluvias
torrenciales, hectáreas de bosques arrasadas por incendios y otros desastres naturales, lo que
se traduce también de nuevo en pérdidas humanas. Al cambio climático hay que sumar otro
tema de actualidad que tiene que ver de nuevo con la pérdida de vidas, se habla del conflicto
afgano, que deja a millones de civiles en búsqueda de un nuevo hogar, pan y trabajo porque
alguien ha decidido tomar esta decisión por ellos.
Mientras los medios de comunicación prácticamente de todo el mundo muestran noticias día sí
y otro también sobre estas temáticas, la tónica dominante de la población mundial se tambalea
claramente entre un estado de enajenación y desesperación, con tintes optimistas porque
la vacuna contra el coronavirus nos ha devuelto nuestra anhelada “normalidad”, o ha
establecido una “nueva normalidad”. Todo esto a cambio, eso sí, del registro de muchos de
nuestros movimientos tanto digitales como analógicos.
LOS SESGOS EMOCIONALES CUESTAN VIDAS
Continuemos con otra historia que aparece en el libro El libro del porqué de Judea Pearl. Este
relato también está basado en hechos reales, y lamentablemente corresponde con otro gran
drama humano. Lo que interesa de esta historia es, por un lado, hacer hincapié en cómo fue el
2
proceso por el que se llegaron a tomar ciertas decisiones. Por otro, mostrar cómo ciertos
sesgos emocionales costaron la vida de los exploradores, sin que nadie tuviese que asumir
responsabilidades por los fallecidos.
Pearl tilda este suceso de ejemplo histórico “realmente espantoso”. Veamos, el relato se basa
en un experimento controlado, que se publicó en 1747, en el que un capitán de barco
llamado James Lind realizó unas investigaciones sobre el escorbuto. Tras el estudio, Lind llegó a
la conclusión, de que una dieta rica en cítricos evitaba que los marineros desarrollasen y
muriesen por esta enfermedad. Los datos importantes que se deben recordar son, que el
escorbuto fue la causa de muerte de dos millones de marineros entre 1500 y 1800, y que a
principios del siglo XIX el escorbuto era una enfermedad relegada al pasado.
No obstante, esta enfermedad volvió a estar presente en la Expedición Británica al Ártico de
1875, en la Expedición Jackson-Harmsworth al Ártico en 1984, pero, sobre todo, fueron las
expediciones de Robert Falcon Scott a la Antártida en 1903 y en 1911 respectivamente las que
sufrieron las peores consecuencias. ¿Cómo pudo ser entonces que una enfermedad
prácticamente erradicada en las diversas expediciones pasadas pudiese haber reemergido de
nuevo? Pearl usa en concreto las palabras de “ignorancia y arrogancia” para describir este fallo
humano. A continuación, el porqué de estos calificativos.
3
Szent-Gyorgyi consiguió aislar el nutriente concreto que evitaba el escorbuto, y que no era un
ácido cualquiera sino el ácido ascórbico o la conocida vitamina C. Este descubrimiento le valió a
Szent-Gyorgyi en 1937 un Premio Nobel. Szent-Gyorgyi hizo lo que Manuel Vicent dice en este
proverbio: “el que busca la verdad corre el riesgo de encontrarla”.
Y es que encontrar “los ingredientes necesarios” para mejorar tanto los procesos como la toma
de decisiones, y que estas estén en consonancia a su vez con los valores de nuestras
sociedades, en un mundo hipercontectado y digitalizado a escala planetaria, exige de
herramientas novedosas. Introducir sistemas de inteligencia artificial para que apoyen a los
humanos en su toma de decisiones, junto con mejorar nuestra comprensión sobre qué tipo
de emoción entra en juego y hacer que nos decantemos por una opción y nos desentendamos
del resto pueden ser dos de ellas. Ahora bien, ¿cómo se llama este subcampo de la IA y como
aprenderán estos sistemas inteligentes de ética y moral? ¿Qué emociones humanas son las
responsables de poder cambiar ciertos modelos mentales y patrones de conducta? De las fichas
de este rompecabezas se encargará el próximo artículo.
4
La desrobotización del pensamiento humano: una respuesta sostenible II
Rosae Martín Peña
Y así, con esta segunda parte, continúa el primer artículo publicado hace unas semanas, en este
enlace, bajo el título: La desrobotización del pensamiento humano: una respuesta sostenible I.
Para poder comprender las ideas que se van a desarrollar en este texto, conviene, o bien, volver
al primer artículo para seguir el hilo de la trama, o bien, mostrar interés por las respuestas, que
podrían tener las siguientes preguntas: ¿Cómo se llama el subcampo de la IA, que trata de
codificar ciertas teorías filosóficas en las máquinas, con el objetivo de poder llegar a diseñar una
inteligencia moral artificial? Y, por otro lado, ¿Hay alguna emoción humana, que fuese
pertinente investigar en profundidad, por el impacto positivo que podría tener en la ruptura de
patrones de conducta poco éticos, y/o para entender los sesgos emocionales en nuestra toma
de decisiones?
5
actuales de este tipo de toma de decisiones, y que son: las medidas que políticos, y -otras
partes implicadas-, están tomando para atajar aún la pandemia por coronavirus, como para
paliar los efectos del cambio climático a corto y largo plazo.
La ética de las máquinas tiene que ver con “añadir una dimensión ética a las máquinas.
Crédito: Pixabay
Lo interesante es que este campo tan importante de la conducta humana como lo es la toma de
decisiones también podría verse alterado, como otros muchos, por la introducción de sistemas
de inteligencia artificial, en un espacio de tiempo tal vez no muy largo. Y es que se trataría de la
introducción de agentes inteligentes dotados o, mejor dicho -en jerga técnica- codificados de
tal manera de que dispusieran de una dimensión ética. Así, han entrado en acción conceptos
como: “ética de las máquinas”, “moral de las máquinas”, o, “moral artificial”, entre otros
posibles. Una definición de la ética de máquinas es la que ofrecen Michael Anderson y Susan
Leigh Anderson, en su libro Machine Ethics (2007), y que dice así: la ética de las máquinas tiene
que ver con “añadir una dimensión ética a las máquinas”. O, en otras palabras, se trata de
explorar las cuestiones tecnológicas y filosóficas, que se requerirían para el diseño de una moral
artificial en los sistemas inteligentes, con el fin de que estos agentes artificiales pudiesen
adquirir cada vez más autonomía en su toma de decisiones, hasta el punto de que un agente
humano ya no tuviese que revisar su trabajo. En determinadas cuentas estaríamos ante
sistemas de inteligencia artificial dotados de tal grado de autonomía, que les permitiría tomar
sus decisiones y funcionar por sí mismos.
Ahora bien, ¿cómo se enseña ética o moral a los algoritmos?
Por el momento, el esfuerzo se está centrando en intentar codificar teorías o principios como
por ejemplo las leyes de la robótica de Asimov, el código deontológico de Kant, o los principios
del utilitarismo, entre otros. Lo cierto es, que los expertos en este campo no han llegado ni a un
acuerdo consensuado, ni a soluciones pertinentes. Las críticas de manera generalizada van en la
dirección de que muchos de los problemas éticos no se prestan ni a una única solución, ni a una
solución algorítmica. Y es que este hecho puede estar a su vez motivado, no porque no sea
posible conseguir implementar un tipo de moral o ética a nivel técnico, sino porque en cuestión
de ética o éticas aún los agentes humanos tienen cosas que aprender a mejorar. Ya que, si ni
siquiera nosotros hemos conseguido dar con una solución adecuada a conflictos como los que
se han ido describiendo a lo largo de los dos artículos. ¿Cómo ser entonces los “profesores de
ética y moral” de estos sistemas artificiales “inteligentes”?
6
Quizás no baste con dotar de sentido común a los programas de inteligencia artificial para que
sean capaces de gestionar situaciones inéditas
Llegados a este punto parece también completamente razonable y prudente preguntarse si
para alcanzar este fin estos sistemas artificiales requerirán de alguna forma de emociones o tal
vez mejor especificado -un entendimiento de ellas-, junto con una teoría de la mente, una
comprensión del contexto semántico de los símbolos, o incluso tal vez será necesario que estén
presentes en el mundo con un “cuerpo artificial”, campo que se conoce como, “cognición
situada”.
ANTE EL DOLOR DE LOS DATOS: EXPERIMENTAR EL LAMENTO
El 20 de marzo de 1987 se firmó en Oslo el denominado Informe Brundtland, en el que se
define la sostenibilidad o el desarrollo sostenible como “aquel que satisface las necesidades del
presente sin comprometer la capacidad de las futuras generaciones para satisfacer las propias”.
No obstante, como ocurre con frecuencia, este tipo de definiciones tratan con conceptos
abstractos que engloban muchos aspectos, pero olvidan lo concreto.
Así, conviene recordar que la soberbia y la arrogancia del Dr. Koettlitz acabó con la vida de unos
cuantos exploradores sin que se exigieran responsabilidades. Si tal vez hubiese habido una
inteligencia artificial que hubiese puesto sobre la mesa las investigaciones de Lind sobre el
escorbuto, la historia hubiese sido otra y el Dr. Koettlitz hubiese tenido que responder ante un
tribunal por su toma de decisiones. Del mismo modo ocurre con la crisis del coronavirus o con
el cambio climático. Porque cómo dejan claros los investigadores Celuch, Saxby, Oeding, (2015)
en su artículo titulado: La influencia del pensamiento contrafáctico y el arrepentimiento en la
toma de decisiones éticas: “si los transgresores de la ética pudieran experimentar este
sentimiento “el del arrepentimiento” por una mala toma de decisiones, antes de haberla
ejecutado, tal vez habrían actuado de manera diferente”. Parece ser entonces, que un camino
hacia esa sostenibilidad de la que tanto se habla, podría ser entrenarnos en esa capacidad de
experimentar de manera imaginaria el dolor que podríamos causar a los otros con nuestra
toma de decisiones. Son de momento los sesgos emocionales, los menos estudiados, y por ello
parecen ser los menos entendidos, y, por lo tanto, los más peligrosos hasta la fecha.
7
Un camino hacia esa sostenibilidad de la que tanto se habla, podría ser entrenarnos en esa
capacidad de experimentar de manera imaginaria el dolor que podríamos causar a los otros con
nuestra toma de decisiones
A modo de colofón tal vez convenga que nos exijamos a cada uno de nosotros mismos,
aprender de la precisión y perfección con la que un robot realiza sus tareas, y este objetivo
debe ser más bien casi la meta final a la que deberían dirigirse nuestras vidas. Digo esto porque
solamente al final de ellas, podremos dar por hecho si hemos aprendido lo suficiente como
para pulir nuestras contradicciones, y nuestros errores. Eso sí, esta perfección que equivale a lo
sostenible no tiene que ver con una robotización de lo humano, sino más bien este fin descrito
más arriba debería ir sí o sí emparejado con la motivación de querer poseer el corazón del más
humano, que en definitiva equivaldría con “sentir, ante el dolor de los demás”.