Untitled

Descargar como pdf o txt
Descargar como pdf o txt
Está en la página 1de 26

Propuesta 1

Introducción:

¿La inteligencia artificial es aliada o amenaza para las profesiones y comunicación?

La inteligencia artificial es un tema cada vez más relevante en nuestras vidas y es importante
entender cómo puede afectar a nuestras profesiones.

En esta presentación, voy a argumentar que la inteligencia artificial puede ser tanto una aliada
como una amenaza, dependiendo de cómo se utilice.

I. La inteligencia artificial como aliada para las profesiones y la comunicación

Automatización de tareas repetitivas: Una de las formas en que la inteligencia artificial puede
ser una aliada para los profesionales de la comunicación es a través de la automatización de
tareas repetitivas. Los robots de chat, por ejemplo, pueden responder a las preguntas frecuentes
de los clientes, ahorrando tiempo y recursos. Esto permite a los profesionales de la comunicación
centrarse en tareas más creativas y estratégicas.

Análisis de datos: La inteligencia artificial puede ayudar a los profesionales de la comunicación a


analizar grandes cantidades de datos para obtener información valiosa sobre el público objetivo
y las tendencias del mercado. Esto puede ayudar a los profesionales de la comunicación a tomar
decisiones informadas y a desarrollar estrategias más efectivas.

Personalización de contenidos: La inteligencia artificial puede ayudar a los profesionales de la


comunicación a crear contenidos personalizados para su audiencia. La tecnología de aprendizaje
automático puede analizar los datos de los usuarios y adaptar los contenidos en función de sus
preferencias y comportamientos.

II. La inteligencia artificial como amenaza para las profesiones y la comunicación

Desplazamiento laboral: Una de las preocupaciones más comunes en torno a la inteligencia


artificial es que puede desplazar a los trabajadores en diversos sectores. En la comunicación, la
inteligencia artificial puede hacer que algunos trabajos, como los de atención al cliente, sean
redundantes. Sin embargo, también puede crear nuevos empleos en la creación y
mantenimiento de tecnología.

Sesgos de la inteligencia artificial: La inteligencia artificial no es perfecta y puede estar sesgada.


Por ejemplo, un algoritmo de aprendizaje automático puede ser entrenado con datos que
contienen prejuicios y, como resultado, perpetuar esos prejuicios en sus resultados. Esto puede
ser un problema para los profesionales de la comunicación que confían en los datos para tomar
decisiones informadas.

Falta de autenticidad: Con la creciente utilización de la inteligencia artificial en la comunicación,


existe el riesgo de que los contenidos se vuelvan cada vez más genéricos y carentes de
autenticidad. Los consumidores pueden desconfiar de los mensajes generados automáticamente
y, como resultado, la marca puede perder credibilidad.
Conclusión:

En conclusión, la inteligencia artificial puede ser tanto una aliada como una amenaza para las
profesiones y la comunicación. Si se utiliza de manera estratégica, la inteligencia artificial puede
mejorar la eficiencia y la calidad del trabajo de los profesionales de la comunicación, así como
aumentar la personalización y la autenticidad de los contenidos. Sin embargo, también hay
preocupaciones legítimas en torno al desplazamiento laboral y los sesgos de la inteligencia
artificial que deben ser abordados.

Propuestas 2

Buenos días a todos, mi nombre es XXXXX y hoy les hablaré sobre un tema que está en boca de
todos: la inteligencia artificial y su impacto en las profesiones y la comunicación.

La inteligencia artificial ha avanzado significativamente en los últimos años, gracias a su


capacidad para procesar grandes cantidades de datos y aprender de ellos. Esto ha llevado a
muchos a preguntarse si la inteligencia artificial es una aliada o una amenaza para las profesiones
y la comunicación.

Primero, hablemos sobre cómo la inteligencia artificial puede ser una aliada para las profesiones
y la comunicación. La inteligencia artificial puede ayudar a automatizar tareas tediosas y
repetitivas, permitiendo a los profesionales centrarse en tareas más creativas y estratégicas. Por
ejemplo, en marketing, la inteligencia artificial puede ayudar a identificar patrones en los datos
del cliente y predecir comportamientos futuros, lo que permite a los profesionales de marketing
adaptar sus campañas y mensajes para satisfacer mejor las necesidades de los clientes.

Además, la inteligencia artificial también puede ayudar a mejorar la eficiencia en las operaciones
y procesos empresariales, al proporcionar soluciones personalizadas que reducen los errores
humanos y mejoran la toma de decisiones. Por ejemplo, en el campo de la medicina, la
inteligencia artificial puede ayudar a analizar grandes cantidades de datos médicos para detectar
patrones y hacer diagnósticos precisos, lo que puede mejorar la atención médica y salvar vidas.

Sin embargo, también hay argumentos en contra de la inteligencia artificial como una amenaza
para las profesiones y la comunicación. Una preocupación común es que la inteligencia artificial
podría reemplazar a los trabajadores humanos, especialmente en trabajos que implican tareas
repetitivas y rutinarias. Por ejemplo, en la industria manufacturera, la automatización y la
robótica pueden reemplazar a los trabajadores en líneas de producción.

Otra preocupación es que la inteligencia artificial podría conducir a la eliminación de trabajos en


general. A medida que la automatización y la inteligencia artificial continúan avanzando, es
posible que algunos trabajos desaparezcan por completo. Esto podría tener un impacto negativo
en la economía y en la sociedad en general, si no se toman medidas para preparar a los
trabajadores para el futuro.

Además, la inteligencia artificial también plantea nuevas preocupaciones éticas y sociales. Por
ejemplo, en el campo de la comunicación, la inteligencia artificial puede ser utilizada para crear
noticias falsas y difundirlas en línea, lo que puede tener un impacto negativo en la sociedad.
También existe la preocupación de que la inteligencia artificial pueda ser utilizada para controlar
a las personas o para tomar decisiones que afecten negativamente a los derechos y libertades
individuales.

En conclusión, la inteligencia artificial puede ser una aliada o una amenaza para las profesiones
y la comunicación. Por un lado, la inteligencia artificial puede ayudar a automatizar tareas
repetitivas y mejorar la eficiencia en las operaciones empresariales, mientras que por otro lado,
puede reemplazar a los trabajadores humanos y plantear preocupaciones éticas y sociales.

Por lo tanto, los desafíos futuros serán encontrar formas de maximizar los beneficios de la
inteligencia artificial y minimizar sus riesgos y amenazas. Esto requerirá de un enfoque en la
educación y el desarrollo de habilidades para los trabajadores, con el fin de prepararlos para los
trabajos del futuro y para adaptarse a los cambios en el mercado laboral. También será necesario
desarrollar marcos éticos y legales para garantizar que la inteligencia artificial se use de manera
responsable y beneficiosa para la sociedad.

Además, las empresas y los profesionales de la comunicación tendrán que adaptarse a los
cambios en el mercado y en la tecnología. Esto podría implicar

En resumen, la inteligencia artificial puede ser una aliada o una amenaza para las profesiones y
la comunicación. Para maximizar sus beneficios y minimizar sus riesgos, es necesario un enfoque
en la educación y el desarrollo de habilidades, así como en el desarrollo de marcos éticos y
legales para garantizar un uso responsable.

A continuación, presentamos una tabla con algunos ejemplos adicionales de AI, su uso
profesional y un análisis de sus pros y contras:

Es importante destacar que estos ejemplos son solo una muestra de las aplicaciones de
inteligencia artificial en el mundo profesional. Cada aplicación tiende

En general, la inteligencia artificial puede ser una herramienta poderosa para ayudar a las
empresas a mejorar su eficiencia, aumentar su alcance y mejorar la calidad de sus servicios. Sin
embargo, también es importante tener en cuenta los posibles riesgos asociados con su uso,
como la eliminación de puestos de trabajo y la falta de comprensión de matices y contextos
específicos.

Por lo tanto, es crucial que las empresas y los profesionales de la comunicación consideren
cuidadosamente los beneficios y riesgos antes de adoptar tecnologías de inteligencia artificial en
sus operaciones diarias. Es importante sopesar tanto los beneficios potenciales como los riesgos
potenciales para garantizar que su uso sea beneficioso y responsable.

Uso
Ejemplo de AI profesional Pros Contras
Comercio
Algoritmos de electrónico, Aumento de las ventas, mejora Puede limitar la diversidad y la
recomendación plataformas en la experiencia del usuario exploración de nuevas opciones
de contenido
Marketing, Mejora en la comprensión del
Análisis de Puede tener dificultades para
atención al cliente, mejoras en la toma de
sentimiento comprender matices y sarcasmo
cliente decisiones
La automatización de procesos
con IA puede aumentar la
eficiencia y la velocidad de los
La automatización de procesos
procesos empresariales, lo que
con IA puede resultar en la
puede resultar en una mayor
pérdida de empleos y una
productividad y reducción de
reducción en la necesidad de
costos.
habilidades específicas.
La IA puede ayudar a reducir los
La IA puede ser costosa de
Manufactura, errores humanos y mejorar la
Automatización implementar y mantener, y
servicios precisión de los procesos
de procesos puede requerir una inversión
financieros empresariales.
significativa en tecnología y
La IA puede proporcionar
capacitación de personal.
información y análisis en tiempo
La IA puede ser limitada en su
real que puede ayudar a las
capacidad para tomar
empresas a tomar decisiones
decisiones en situaciones no
informadas y adaptar sus
previstas o para comprender los
procesos empresariales para
matices y el contexto humano
optimizar el rendimiento.
en los procesos empresariales.

La plataforma de asistencia
personal y atención al cliente
basada en sistemas de voz
sistencia personal y atención al virtual es que puede tener
cliente basada en sistemas de limitaciones en la comprensión
voz virtual es que puede del lenguaje natural y la
aumentar la satisfacción del comprensión de matices en el
cliente y reducir los costos discurso humano. A menudo,
asociados con la contratación y estos sistemas son
Asistencia
capacitación de personal para programados para responder a
personal,
Plataforma manejar la atención al cliente. comandos específicos o
atención al
Estos sistemas pueden ser preguntas predefinidas, lo que
cliente
utilizados las 24 horas del día y puede limitar la capacidad del
los 7 días de la semana para sistema para manejar
responder rápidamente a las solicitudes o preguntas
preguntas de los clientes y complejas o específicas.
proporcionar asistencia en Además, los clientes pueden
tiempo real. preferir la interacción humana y
sentirse frustrados si el sistema
no puede proporcionar la
asistencia que necesitan.
Puede tener dificultades para
Detección de Servicios Mejora en la detección de
detectar nuevas formas de
fraude financieros fraudes, reducción de pérdidas
fraude
Puede tener problemas para
Reducción en el tiempo de
Chatbots para Recursos comprender los requisitos
contratación, mejoras en la
reclutamiento humanos específicos del trabajo y la
eficiencia
personalidad del candidato
La inteligencia artificial
La inteligencia artificial puede ser tanto una aliada como una amenaza para las profesiones y la
comunicación. Por un lado, la inteligencia artificial puede optimizar los procesos de producción
y negocios, y tiene aplicaciones para mejorar la comunicación en las empresas12. Por otro lado,
algunas profesiones pueden estar en riesgo frente al avance de la IA3. Además, la falta de
comunicación y la complejidad de la tecnología pueden representar riesgos para la salud y la
seguridad en el entorno laboral4. En resumen, la IA puede ser una herramienta útil para mejorar
la comunicación y la eficiencia en el trabajo, pero también puede tener implicaciones negativas
para ciertas profesiones y la seguridad laboral.

Beneficios de la inteligencia artificial en comunicación

Las empresas que desean mejorar sus estrategias de UC pueden ver varios beneficios de la
inteligencia artificial en comunicación, colaboración, acceso a la información y el control de
punto final de UC.

Irwin Lazar

por Irwin Lazar, Nemertes Research

Publicado:05 jun 2018

Las empresas están comenzando a prestar atención a los beneficios potenciales de la inteligencia
artificial en aplicaciones de comunicación y colaboración. Como una tecnología emergente, la IA
puede transformar la forma en que las personas trabajan con los datos y entre ellos. Para las
comunicaciones unificadas, ese potencial significa un mejor acceso a la información y un mejor
control de las aplicaciones de UC y los puntos finales.

La inteligencia artificial describe la capacidad de los programas de computadora para aprender


basándose en la observación y la experiencia pasada a través del aprendizaje automático. Gracias
al rápido avance del poder de procesamiento de cómputo, IA pasó del concepto a la tecnología
práctica y ahora se está desarrollando para mejorar la toma de decisiones en todas las industrias.

Casi el 41% de las empresas planea usar IA en sus aplicaciones de UC para fines de 2019, de
acuerdo con el informe de Comunicaciones Unificadas y Colaboración 2018 de Nemertes. La
investigación también encontró una correlación directa entre la adopción de la IA y el éxito
general de UC. Además, la IA es una tecnología innovadora ya que las empresas buscan usarla
para obtener una ventaja competitiva, mejorar el compromiso con el cliente y optimizar los
procesos de negocios en sus proyectos de transformación digital.

Beneficios de la inteligencia artificial en la comunicación y la colaboración

Existen varios beneficios potenciales cuando la IA se integra en las comunicaciones unificadas.


Aquí hay un vistazo a algunos de ellos.
Posibilidad de mejorar la interacción con los datos. Un asistente virtual basado en inteligencia
artificial puede organizar la información relevante, documentos y otros materiales para
reuniones e interacciones de equipo, y luego presentarlos en sesiones de colaboración.
Considere los siguientes escenarios:

Cuando se une a una reunión en línea, un asistente con inteligencia artificial le proporciona
archivos, mensajes instantáneos y listas de tareas del proyecto, lo que evita que busque
manualmente materiales relevantes para la conversación.

La IA, junto con un asistente de voz virtual como Alexa for Business de Amazon, Cortana de
Microsoft, Assistant de Google o Siri de Apple, podría permitir consultas de datos en lenguaje
natural. Por ejemplo, podría decir: "Oye, Cortana, sube las cifras de ventas y proyecciones del
cuarto trimestre para el primer trimestre del próximo año".

Si despliega un motor de inteligencia artificial para escuchar discusiones en una reunión o lee
conversaciones basadas en texto en una aplicación de equipo, el agente podría ofrecer
asistencia, por ejemplo: "¿Le gustaría que programara una tarea para que John desarrollara
proyecciones presupuestarias para la nueva campaña de marketing? "

Colaboración más eficiente y efectiva. Los beneficios de la inteligencia artificial en sesiones de


colaboración incluyen la transferencia de información más fácilmente entre equipos dispersos a
nivel mundial. Por ejemplo, la colaboración impulsada por IA ofrece lo siguiente:

Traducción de idiomas en tiempo real, que permite que los grupos de trabajo globales se
comuniquen y colaboren en sus idiomas nativos y reciban transcripciones de reuniones en el
idioma nativo.

Horarios eficientes, como sistemas de calendario o aplicaciones de reuniones habilitadas para


programar llamadas futuras según la agenda y disponibilidad de un proyecto, sin que las
personas tengan que buscar calendarios manualmente para ver si hay disponibilidad o, peor aún,
intercambiar correos electrónicos para encontrar un horario de reunión apropiado.

Retroalimentación más rápida mediante la integración de chatbots en las aplicaciones del


equipo para habilitar capacidades de colaboración en el idioma nativo, como por ejemplo
encuestar a los participantes de un equipo para una actualización de estado o para proporcionar
alertas a los miembros del equipo cuando el motor de IA detecta una anomalía en un proceso
de negocios relacionado. Por ejemplo, una falla en los sistemas podría desencadenar que las
herramientas de IA generen mensajes emergentes en las aplicaciones del equipo o en los nuevos
canales de conversación, y podría poner automáticamente datos relevantes.

Mejor control de punto final. La IA, integrada con los sistemas de reuniones en sala, podría
permitir que las reuniones comiencen y finalicen de manera más eficiente:

La aplicación de IA podría reconocer a las personas cuando ingresan a una sala de reuniones,
lo que provocaría que el sistema de reuniones dijera: "Hola Julie, veo que tienes una reunión de
estado a las 4:00 p.m. ¿Quieres que la inicie?". Esto ahorra tiempo al iniciar puentes de audio,
video y conferencias web, así como recobrar pizarras digitales y archivos compartidos.
Podría tomar asistencia al reconocer visual o audiblemente a los empleados cuando se unen
a las reuniones.

Y la IA podría usar análisis de datos para ayudar a las instalaciones y a los administradores de
UC a comprender cómo se usan los espacios para reuniones, cuántas personas hay en una
reunión típica y cuánto tiempo usan la sala.

Puntos de integración de IA para considerar

A pesar del rápido avance de la IA y la fuerte demanda de la tecnología, las empresas aún deben
considerar las preocupaciones de seguridad y los casos de uso apropiados para sus
organizaciones:

Cumplimiento y seguridad. Es probable que los líderes de TI, especialmente aquellos en


industrias reguladas, sean cautelosos sobre el acceso de la IA a la información corporativa y la
forma en que la información se almacena dentro de los motores de inteligencia artificial. A
medida que las plataformas de inteligencia artificial se conviertan en objetivos de ataque, se
espera prestar más atención a cómo se protegen esos datos.

Dependencia de la nube. La potencia informática necesaria para IA, así como la necesidad de
una rápida evolución de las aplicaciones, normalmente significa que las plataformas de IA están
basadas en la nube y utilizan arquitecturas basadas en microservicios. Esto lleva a problemas de
seguridad de datos, así como a la necesidad de garantizar que los datos se almacenen de acuerdo
con normas como el Reglamento General de Protección de Datos.

Caso de negocios. Muchos de los escenarios descritos anteriormente son difíciles de


cuantificar para las empresas que intentan determinar el retorno de la inversión. Es probable
que los proveedores integren aplicaciones impulsadas por IA en sus ofertas actuales en lugar de
vender herramientas separadas que requieran sus propias licencias o adquisiciones de software.
Aún así, las empresas incurrirán en costos relacionados con capacitación y soporte de TI que
deberán equilibrar con ganancias de productividad mensurables y mejoras de procesos. Los
líderes de TI querrán asegurarse de que tengan la visibilidad necesaria en los procesos de
negocios para ayudar a identificar los beneficios del uso de la inteligencia artificial.

Los diversos usos de la inteligencia artificial en las herramientas de comunicación y colaboración


están permitiendo a los proveedores de UC ser más competitivos en sus ofertas. Esto ha creado
una especie de carrera de armamentos a medida que las empresas buscan desarrollar
rápidamente sus propias capacidades de UC o interactuar con sus socios. Microsoft está
utilizando sus capacidades de nube pública Azure, IBM ha integrado Watson en su herramienta
de colaboración llamada Watson Work y Cisco ha adquirido MindMeld. Las empresas pueden
esperar mejoras continuas de productos, ofertas, asociaciones de proveedores y adquisiciones
en los próximos meses.

La IA ofrece importantes beneficios potenciales para las organizaciones que lo adoptan como
parte de su estrategia de comunicaciones unificadas para mejorar el acceso a los datos, la
colaboración y el control de los puntos finales de la UC. Evalúe las ofertas de su proveedor para
determinar la mejor forma de aprovechar los beneficios de la inteligencia artificial mientras
cumple con los requisitos de gobierno, seguridad y gestión de riesgos.

Inteligencia artificial: Las profesiones con más riesgo de desaparecer

Cada vez son más las portadas y titulares que acaparan las nuevas tecnologías en la prensa
internacional. De todas ellas, quizá la que más destaca en los últimos tiempos, son los desarrollos
que está experimentando la inteligencia artificial. Su éxito reside en la alta capacidad de
adaptación que tiene para desempeñar multitud de profesiones. Profesiones que, con el tiempo,
podrían llegar a desaparecer con su llegada. Por lo tanto, es momento de preguntarse si:

¿la IA acabará por convertirse en la aliada perfecta o en la enemiga fatídica de la humanidad?

Sin duda, es una tecnología que se puede aplicar en todos los sectores, gracias a su gran
adaptabilidad y multitud de funciones que puede desempeñar. Cierto también es que su fácil
adopción a cualquier industria reside en las altas capacidades que posee para desarrollar
multitud de actividades, reduciendo errores, ahorrando tiempo e, incluso costes. Peculiaridades
que hacen de la inteligencia artificial, la mejor alternativa para cualquier sector. Sin embargo,
también la convierte en la peor enemiga para muchos profesionales.

Ejemplo de ello, lo encontramos en el lanzamiento por parte de OpenAI, el 30 de noviembre de


2022, de ChatGPT. Una herramienta que revolucionó al mundo entero por su elevada inteligencia
a la hora de crear textos, dar soluciones y respuestas, a prácticamente, cualquier pregunta o
problema.

Supuso y sigue suponiendo un punto de inflexión para la sociedad porque ahora, serán muchos
los puestos de trabajo que se podrán optimizar y, por ende, supondrá un gran impacto para
multitud de sectores.

Ahora bien, ¿cuáles serán los profesionales a los que más afectará el desarrollo de la IA y cuándo
podrían desaparecer?

Ciencias de la información y comunicación

Una de las profesiones con más riesgo frente al avance de las nuevas tecnologías y, por lo tanto,
de la IA, son las relacionadas con las Ciencias de la Información y la Comunicación. Sin duda, son
muchos los profesionales cuyos puestos de trabajo podrían peligrar. Entre ellos encontramos los
periodistas, redactores, blogueros…etc.

Para entender mejor dónde está el origen del peligro al que deben enfrentarse, volvemos a
poner como ejemplo ChatGPT. Prácticamente todos, ya hemos probado y conocemos cómo
funciona esta herramienta. Además de escribir textos y ser capaz de mantener un diálogo,
ChatGPT saldría relativamente barato para una empresa, un redactor no, tiene una nómina y un
salario mínimo interprofesional que la entidad deberá afrontar.

Además, el chat es capaz de elaborar textos, prácticamente, de manera inmediata, mientras que
una persona necesitará tiempo para poder redactar, por ejemplo, una entrada.

Si bien es verdad que los puestos de trabajo de estos profesionales podrían peligrar, aún hay un
resquicio de esperanza ya que, pese a que una “máquina” es capaz de desempeñar las mismas
tareas humanas, la creatividad es irreemplazable.

Comercio minorista

Dentro de este apartado, son multitud de profesionales los que se verán afectados: puestos de
atención al cliente, personal de caja… etc, están siendo sustituidos por la tecnología.

Esto ya lo estamos pudiendo comprobar, por ejemplo, cuando vamos al supermercado. Cada vez
son más las cajas de autopago que desempeñan el “mismo trabajo que un cajero”. O, ¿cuántas
veces nos hemos puesto en contacto con nuestra sucursal bancaria o con cualquier otra
compañía para solicitar información o dar un informe algún problema y nos ha atendido un
“robot”?

Hay quienes afirman que la inteligencia artificial y el desarrollo de nuevas tecnologías han
llegado para liberar a los empleados de aquellas tareas consideradas “insignificantes” para que
asuman roles más dedicados a la administración y creación.

Desarrolladores e ingenieros de Software

Volviendo a poner como ejemplo ChatGPT, cabe destacar que esta aplicación, además de ser
capaz de realizar todas las actividades enumeradas anteriormente, también puede desarrollar
códigos de lenguaje como Python. Lo que pondría, ya no sólo en riesgo a los ingenieros de
software sino a aquellos profesionales dedicados a la ciberseguridad.

Diseñadores gráficos

Existen multitud de herramientas tales como Dall-E, Midjourney o Stable Diffusion que son
capaces de poner en peligro a los profesionales de las artes gráficas, englobando a diseñadores,
ilustradores o artistas digitales.

Ya el año pasado, en el concurso de arte de la Feria Estatal de Colorado, estalló una auténtica
polémica, ya que Midjourney, es decir, una herramienta y no un ser humano, fue la ganadora del
evento.
Sin lugar a dudas, las herramientas basadas en inteligencia artificial y las nuevas tecnologías han
venido para quedarse y, pese a que amenazan con poner en riesgo multitud de puestos de
trabajo, no todo está perdido.

Es indiscutible que son capaces de realizar, en la medida de lo posible, las “mismas actividades”
que desempeña el ser humano, pero la capacidad creativa, la ética y la humanidad, son
características que, por mucho que evolucionen, están lejos de conseguir. Por ello, no debemos
ver en ellas una amenaza, sino una nueva forma de trabajar de manera conjunta para conseguir
más ventajas y beneficios para la sociedad.

Inteligencia artificial en el entorno laboral. Desafíos para los trabajadores

Las máquinas analógicas y digitales siempre se han utilizado para ayudar a diseñadores de
entornos laborales a calcular los rendimientos del trabajo y para automatizar tareas, un objetivo
que hoy se persigue a través de herramientas y aplicaciones de inteligencia artificial (IA). ¿Qué
tipos de «inteligencia» se espera que desarrollen las tecnologías? ¿Cómo se utilizan los datos
personales obtenidos por máquinas y cómo se hacen deducciones sobre tipos de inteligencia a
partir de ellos? Siempre se ha recopilado información sobre las actividades de los trabajadores
y de los aspirantes a un puesto de trabajo, y se vigilan sus movimientos físicos y sus sentimientos,
así como el uso que hacen de las redes sociales. Hoy, el big data se emplea para entrenar
algoritmos que predicen talentos y habilidades, vigilan el rendimiento, fijan objetivos y valoran
resultados; también pueden poner en contacto a trabajadores y clientes, juzgar estados de
ánimo y emociones o proporcionar formación modular en la planta de producción. ¿Cómo se ha
convertido la IA en un elemento clave de este proceso de toma de decisiones?

En este contexto, ¿qué riesgos tendrán que afrontar los trabajadores en un entorno natural
digitalizado en el que la IA se ha integrado por completo?

El rendimiento en el trabajo siempre ha sido objeto de vigilancia y supervisión cuando el


beneficio global de la empresa es la motivación que determina la relación laboral y los
empleados aspiran a disfrutar de una vida digna y feliz costeada con su esfuerzo y su compromiso
con su empleador, quien les paga un salario. Hoy, sin embargo, las relaciones laborales están
cambiando y ha aparecido un nuevo tipo de «actor». Las máquinas, tanto analógicas como
digitales, se han usado a lo largo de la historia para ayudar a los diseñadores de entornos
laborales a calcular los rendimientos del trabajo y, también, para automatizar las tareas, un
objetivo que hoy se persigue a través de la introducción de herramientas y aplicaciones de IA.
Algunas máquinas han adquirido nuevas responsabilidades e incluso autonomía, y se espera que
manifiesten diversas formas de inteligencia humana y tomen decisiones relacionadas con los
trabajadores mismos.

La figura 1 explica a grandes rasgos dónde y cómo se están introduciendo las tecnologías en el
entorno laboral, los tipos de «inteligencia» que se espera que manifiesten estas tecnologías y,
por último, la manera precisa en que quienes gestionan las máquinas sacan conclusiones sobre
tipos de inteligencia a partir de la información obtenida. Ahora que la IA ha asumido el
protagonismo, los responsables emplean los últimos avances de distintas maneras. Se almacena
información acerca de las actividades de los trabajadores y los aspirantes a un puesto de trabajo
a lo largo del tiempo: sus llamadas telefónicas, el uso que hacen de los ordenadores y de las
«tarjetas inteligentes», y últimamente se vigilan y se supervisan hasta los movimientos físicos y
los sentimientos, así como la actividad en redes sociales.

En el ámbito de los recursos humanos, la información recopilada, que cuando alcanza un


volumen lo bastante elevado se denomina big data, se utiliza para entrenar algoritmos capaces
de realizar predicciones relacionadas con el talento y la capacidad de los trabajadores y los
candidatos; para supervisar, evaluar y estimular el rendimiento; para fijar objetivos y valorar los
resultados del trabajo; para poner en contacto a los trabajadores con los clientes; para juzgar
estados de ánimo y emociones; para proporcionar formación modular en el lugar de producción;
para encontrar patrones de comportamiento dentro de la plantilla, por ejemplo relacionados
con las enfermedades, y para muchas cosas más.

A la luz de estas innovaciones, en este artículo explicaremos a grandes rasgos cómo se está
introduciendo la IA en los procesos de decisión e identificaremos los riesgos a los que se
enfrentan los trabajadores en la actualidad, riesgos que deben ser reconocidos tanto por los
legisladores como por quienes contratan a los trabajadores. (Ver figura 1).

1. Análisis de recursos humanos (people analytics): gestión del capital humano y supervisión del
rendimiento

La IA es actualmente el ámbito más novedoso y prometedor para la gestión de los entornos


laborales y de los trabajadores. El 40% de los departamentos de Recursos Humanos de las
empresas grandes y pequeñas utilizan aplicaciones mejoradas mediante IA. La mayoría de estas
compañías son estadounidenses, pero algunas organizaciones europeas y asiáticas también se
han subido al tren. Un estudio de PricewaterhouseCoopers revela que cada vez son más las
empresas globales conscientes del valor de la IA en la gestión de la fuerza laboral (PwC, 2018).
Afirma, además, que el 32% de los departamentos de personal de las compañías tecnológicas y
de otra índole está rediseñando sus organizaciones con ayuda de la IA para optimizar «la
adaptabilidad y el aprendizaje con miras a integrar mejor las conclusiones extraídas de la
información que aportan los empleados y de la tecnología» (Kar, 2018). Un informe reciente de
IBM (IBM, 2018) muestra que la mitad de los directores de Recursos Humanos encuestados
prevén y reconocen el potencial de la tecnología en operaciones relacionadas con la gestión de
personal, así como su utilidad para localizar y desarrollar el talento. Un estudio de Deloitte
concluye que el 71% de las compañías internacionales consideran que el análisis de recursos
humanos es una de las prioridades de sus organizaciones (Collins et al., 2017), porque no solo
proporcionará ideas valiosas para el negocio, sino que también ayudará a gestionar lo que se ha
dado en llamar el «problema de las personas».

Este «problema de las personas» también se define a veces como los «riesgos de las personas»
(Houghton y Green, 2018). Estos riesgos poseen, según un informe del Chartered Institute for
Personnel Development (CIPD), varias dimensiones (ibíd.):

gestión del talento


salud y seguridad

ética de los empleados

diversidad e igualdad

relaciones entre empleados

continuidad laboral

riesgos para la reputación

El análisis de recursos humanos es una práctica de recursos humanos cada vez más popular que
utiliza los macrodatos y las herramientas digitales para «medir, comunicar y entender el
rendimiento de los trabajadores, ciertos aspectos relacionados con la planificación del personal,
la gestión del talento y la gestión de las operaciones» (Collins et al., 2017). Cada sector y cada
organización requiere un departamento de Recursos Humanos que se encargue de tareas como
reclutar personal, elaborar contratos o gestionar las relaciones entre trabajadores y
empleadores.

Existe cierta discrepancia respecto al papel de los departamentos de Recursos Humanos. Para
unos, su función debe ceñirse a cuestiones burocráticas, mientras que otros defienden un papel
prominente en operaciones comerciales y ejecutivas

Está claro que existe cierta discrepancia respecto al papel de los departamentos de Recursos
Humanos, pues hay quienes argumentan que su función debe ceñirse a cuestiones burocráticas,
mientras que otros defienden un papel prominente en operaciones comerciales y ejecutivas. El
análisis de recursos humanos abarca estas dos dimensiones de recursos humanos, pues la
informatización, la recopilación de datos y las herramientas de supervisión permiten a las
organizaciones llevar a cabo un «análisis en tiempo real según las necesidades del proceso
empresarial [y favorecen] una comprensión más profunda de los problemas y de los
conocimientos prácticos de los que se puede beneficiar la empresa» (ibíd.). Los algoritmos de
predicción que se aplican en estos procesos a menudo están en una «caja negra» (Pasquale,
2015), lo que significa que la gente no entiende del todo su funcionamiento, pero, aun así,
concede a los programas informáticos la autoridad para hacer «predicciones por excepción»
(Agarwal et al., 2018). El concepto «predicción por excepción» hace referencia a los procesos
mediante los cuales los ordenadores gestionan grandes paquetes de datos para hacer
predicciones fiables basadas en información rutinaria y continua, pero también para identificar
casos atípicos e incluso para enviar notificaciones que le «dicen» al usuario cuándo es necesario
establecer controles o cuándo se requiere asistencia o incluso intervención humana.

El análisis de recursos humanos, que en inglés también se conoce como human analytics, se
define a grandes rasgos como el uso de datos individualizados sobre personas para ayudar a
directivos y a profesionales de Recursos Humanos a tomar decisiones en materia de
contratación: seleccionar candidatos, evaluar a los trabajadores, considerar posibles ascensos,
identificar cuándo hay riesgo de que las personas dejen su empleo y seleccionar futuros líderes.
El análisis de recursos humanos se utiliza también para gestionar el rendimiento de los
trabajadores. En esta sección, analizaremos en primer lugar los aspectos del análisis de recursos
humanos relacionados con la gestión del capital humano, es decir, la contratación y la predicción
del talento. En segundo lugar, nos adentraremos en el campo de la gestión del rendimiento.

1.1 Gestión del capital humano

Las prácticas de recursos humanos con IA aumentada pueden ayudar a los empleadores a
obtener información aparentemente objetiva sobre las personas antes incluso de contratarlas,
siempre que logren acceder a datos sobre los trabajadores potenciales; lo cual posee
importantes repercusiones para la confección de mecanismos de protección de los empleados y
para la prevención de riesgos laborales, de seguridad y de salud a nivel individual. En una
situación ideal, la herramienta del análisis de recursos humanos puede ayudar a los empleadores
a tomar decisiones correctas acerca de sus empleados. De hecho, la toma de decisiones
algorítimica del análisis de recursos humanos puede usarse para apoyar a la fuerza de trabajo si
se combina información sobre el rendimiento de los empleados, las retribuciones y los costes de
la fuerza de trabajo con una estrategia de negocio específica y con el apoyo a trabajadores
específicos (Aral et al., 2012; citado en Houghton y Green, 2018, p. 5). Se debería empoderar
hasta cierto punto a los trabajadores, favoreciendo su acceso a nuevas formatos de datos que
les ayuden a identificar áreas de mejora, estimulen el desarrollo personal y refuercen su
compromiso con la organización.

En esta planta de cultivo de guisantes enanos, un algoritmo controla la luz, los nutrientes y la
temperatura, Newark, Nueva Jersey

En esta planta de cultivo de guisantes enanos, un algoritmo controla la luz, los nutrientes y la
temperatura, Newark, Nueva Jersey

Otro recurso del análisis de recursos humanos es la filmación de entrevistas de trabajo. En estos
casos, la IA se emplea para evaluar tanto las señales verbales como las no verbales. Uno de esos
productos, fabricado por un grupo llamado HireVue, está funcionando en la actualidad en más
de seiscientas compañías. Es una práctica que han adoptado empresas como Nike, Unilever y
Atlantic Public Schools, que ya utilizan productos que permiten a los empresarios hacer
entrevistas filmadas a los candidatos. El objetivo es reducir los prejuicios que pueden surgir, por
ejemplo, cuando el estado de ánimo del entrevistado no es el idóneo, o cuando el director de
Recursos Humanos se identifica con el candidato basándose en afinidades relacionadas con la
edad, la raza o el perfil demográfico. Sin embargo, existen pruebas de que las preferencias de los
directores de Recursos Humanos anteriores se acaban reflejando en la contratación, y los
hombres blancos y heterosexuales son, según revela un informe de Business Insider, los
candidatos predilectos en igualdad de condiciones (Feloni, 2017). Si los datos que se introducen
en un algoritmo reflejan prejuicios dominantes en el tiempo, entonces la máquina puede calificar
con una puntuación mayor a un candidato con expresiones faciales «aceptadas» y valorar peor
otros rasgos relacionados con la orientación sexual, la edad y el género que no se asocian al
estereotipo del hombre blanco.

1.2 Gestión del rendimiento


Aunque la gestión del rendimiento es ya una realidad en la mayoría de los entornos laborales,
son centenares los métodos que se han probado y testado a lo largo del tiempo. Quizá la época
más conocida en la aplicación de la tecnología a las decisiones relacionadas con el rendimiento
de los trabajadores en el mundo industrializado sea el la del taylorismo. Taylor y los Gilbreth
diseñaron una serie de esquemas para entender la productividad en el entorno laboral, que a su
modo de ver estaba relacionada con una serie de acciones humanas específicas y cuantificables.
Estos célebres industriales buscaban métodos científicos de identificar y representar los
movimientos corporales óptimos para generar una conducta productiva ideal basada en tareas
determinadas tecnológicamente.

Uno de los recursos del análisis de recursos humanos es la filmación de entrevistas de trabajo.
En estos casos, la IA se emplea para evaluar tanto las señales verbales como las no verbales. Uno
de esos productos, fabricado por HireVue, está funcionando en más de seiscientas compañías

En 1927, con ocasión de la Conferencia Económica Internacional que se había celebrado ese año,
la Sociedad de las Naciones publicó un documento titulado «Gestión científica en Europa». En
2016 encontré una copia amarillenta de este informe en los archivos del Trade Union Congress
en la London Metropolitan University. Se publicó en el periodo de entreguerras, cuando los
países se afanaban por crear organizaciones interdependientes y favorecer un clima de
cooperación que redujera las posibilidades de nuevas guerras. Lo interesante es que, en el
documento, la Organización Internacional del Trabajo (OIT) defendía la estandarización de las
prácticas industriales y anunciaba que la administración o gestión científica se convertiría en el
campo «por excelencia para la cooperación internacional». De hecho, en la conferencia de la
Organización Internacional del Trabajo de la Sociedad de las Naciones celebrada en Ginebra en
1927 la gestión científica se definía como:

[…] la ciencia que estudia las relaciones entre los diferentes factores de la producción, y en
especial los que median entre los factores humanos y los mecánicos. Su objeto es obtener,
mediante la aplicación racional de esos diversos factores, el resultado óptimo.

Por tanto, el taylorismo no era un mero proyecto de gestión del rendimiento de los trabajadores,
sino que tenía un alcance y una ideología más generales. La OIT informaba de que la gestión
científica ya había «rebasado los límites dentro de los cuales la había aplicado Taylor en un
principio» y sus recomendaciones y sus prácticas «ahora afectan a todos los departamentos de
la fábrica, a todas las modalidades de fabricación, a todas las formas de actividad económica, la
banca, el comercio, la agricultura y la gestión de los servicios públicos».

La introducción de la IA en la automatización revela que, en determinados casos, no solo se


puede prescindir de las extremidades de los trabajadores, al sustituir el brazo humano por el
brazo robótico, sino también de su cerebro
Estudiando los movimientos y los gestos más insignificantes con ayuda de una serie de
instrumentos tecnológicos, entre otros una cámara impulsada por un resorte, una cámara con
motor eléctrico y un microcronómetro, un instrumento para medir intervalos de tiempo muy
reducidos, estos científicos buscaban la que esperaban que fuera la «manera ideal» de
desempeñar tareas de albañilería y trabajo siderúrgico. Los Gilbreth también medían la
frecuencia cardiaca de los trabajadores con un estetoscopio y un cronómetro, un antecedente
directo de las mediciones de la frecuencia cardiaca con brazaletes deportivos que en la
actualidad cada vez se utilizan más en los programas de mejora del entorno laboral (Moore,
2018a).

La bibliografía relacionada con la gestión del rendimiento es muy extensa, y su origen se remonta
quizá a la época de la gestión científica. La gestión del rendimiento procede de diversas
disciplinas, como la Psicología de las Organizaciones, la Sociología, la Sociología del Trabajo y los
Estudios Críticos de Gestión, disciplinas en las que los investigadores estudian el modo en que
las organizaciones buscan lograr un equilibrio entre la productividad y la gestión de las
actividades de los trabajadores y organizar los diversos mecanismos que rodean a estos
procesos.

A la gestión científica le sucedió la escuela de las relaciones humanas, y después la


racionalización de los sistemas, dominada por la «investigación de operaciones». Más tarde
asistimos al auge de la cultura organizativa orientada a la calidad. Ahora, se ha impuesto otra
tendencia que he llamado sistemas de agilidad de gestión (Moore, 2018a). Cada periodo de la
historia del diseño del trabajo ha intentado identificar la lógica del cálculo «idónea», en la que
la gestión del rendimiento (PM, por sus siglas en inglés) es una práctica de cálculo que se
encuentra integrada institucionalmente y es socialmente transformadora. Los procedimientos
para calcular el comportamiento de los trabajadores se basan cada vez más en un racionalismo
económico neoliberal.

Las prácticas económicas de cuantificación crean mercados (Porter, 1995) e introducen en las
organizaciones una lógica de cálculo de valor que, a su vez, influye en las empresas y exige
«responsabilidad cuantificable y comparable de los individuos» (Miller y O’Leary, 1987, pp. 261-
262). A través de la cuantificación, el diseñador de un sistema de gestión de rendimiento decide
qué se considerará cuantificable y comparable. Aunque se presupone en cierta medida cual será
el «balance final», no se puede afirmar que la productividad y la eficiencia guarden una relación
directa con la seguridad y la salud de los trabajadores, ni con la protección de su contrato y o de
su sustento. Cada vez que se diseña un método para caracterizar a un individuo, es decir, el
trabajador ideal con un rendimiento óptimo, estamos «inventándonos personas» (Hacking,
1986). La enumeración de características permite por tanto generar estadísticas que funcionan
como un cálculo específico aparentemente neutral, dócil e incuestionable. Desrosières (2001, p.
246) señala que «situar acciones, enfermedades y logros en pie de equivalencia […] determina
cómo es tratado el sujeto al que se le atribuyen». Rose (1999, p. 198; citado en Redden, 2019,
pp. 40-41) afirma que «los números, al igual que otros “mecanismos de inscripción”, son en
realidad los dominios que parecen representar; los vuelven representables de una manera dócil,
que se presta a la aplicación del cálculo y la deliberación». Aunque los argumentos relacionados
con el objeto de cuantificación son muy variados, escasean los estudios centrados en el modo
en que se toman las decisiones a la hora de determinar qué características del trabajo y qué
fábricas son dignas de medición.

Riesgos para la seguridad y la salud laboral

Si en los procesos de toma de decisiones basadas en algoritmos del análisis de recursos humanos
y de la gestión del rendimiento no intervienen los humanos ni se tienen en cuenta los aspectos
éticos, estas herramientas pueden exponer a los trabajadores a una serie de riesgos
estructurales, físicos y psicosociales y provocarles estrés. ¿Cómo pueden estar seguros los
trabajadores de que se han tomado decisiones justas, correctas y honradas si no tienen acceso
a los datos que recopila y utiliza la empresa? Los riesgos para la seguridad y la salud laboral
relacionados con el estrés y la ansiedad surgen cuando los trabajadores tienen la sensación de
que las decisiones se toman basándose en cifras y datos a los que ellos no tienen acceso ni
pueden controlar. Esto resulta especialmente preocupante cuando la información recabada a
través del análisis de recursos humanos se emplea para restructurar el entorno laboral, hacer
recortes, cambiar descripciones de puestos de trabajo y cosas similares. Es probable que el
análisis de recursos humanos aumente los niveles de estrés de los trabajadores si su información
se utiliza para evaluar y para gestionar el rendimiento sin la debida diligencia en el procedimiento
y en la aplicación, lo cual puede derivar en prácticas de microgerencia y generar en los
empleados la sensación de que les están «espiando». Si los trabajadores saben que sus datos se
están interpretando para localizar talentos o decidir posibles despidos, pueden sentirse
presionados para aumentar su rendimiento y su carga de trabajo, lo cual puede derivar en riesgos
para la seguridad y la salud laboral. Existe otro peligro más, asociado a la responsabilidad,
cuando las habilidades predictivas de una compañía se revisan con posterioridad para
comprobar su exactitud o se acusa a los departamentos de Recursos Humanos de discriminación.

Según un experto en mediación laboral,1 la recopilación de información sobre los trabajadores


para tomar decisiones como las que utiliza el análisis de recursos humanos ha generado algunos
problemas acuciantes relacionados con el impacto de la IA en el entorno laboral. En muchos
casos, los comités de empresa no son conscientes de los posibles usos de esas herramientas de
gestión. O se implantan sistemas sin consultar con los comités de empresa ni con los
trabajadores. Cuando la introducción de tecnologías se lleva a cabo precipitadamente, sin las
consultas y la formación adecuadas, y sin comunicación, surgen aún más riesgos para la
seguridad y la salud laboral, tales como el estrés y los despidos. Es interesante mencionar un
proyecto que se ha puesto en marcha en la sede central de IG Metall –cuyos currículos de
aprendizaje en el trabajo se han revisado en 2019–, en el contexto de la industria 4.0 (ver
también 3.4).2 Los estudios demuestran que la formación no solo debe actualizarse para
preparar a los trabajadores para los peligros físicos, como se ha hecho tradicionalmente en la
industria pesada, sino también para los riesgos mentales y psicosociales derivados de la
digitalización del trabajo, incluidas las aplicaciones del análisis de recursos humanos.3

2. Cobots y Chatbots

2.1 Cobots
En las fábricas de automóviles y los centros tecnológicos que he visitado, he visto brazos
robóticos gigantes de color naranja en los amplios almacenes de un paisaje industrial
construyendo piezas y ensamblando automóviles donde en otro tiempo había cadenas de
montaje supervisadas por humanos. Los robots han sustituido a los trabajadores en las cadenas
de montaje de numerosas fábricas. En muchos casos, la IA se confunde con la automatización.
La automatización en sentido estricto implica, por ejemplo, la sustitución explícita del brazo
humano por el brazo robótico. A lo largo de la historia, los trabajos menos cualificados, los
manuales, han sido más susceptibles de automatización, y así sigue siendo. Hoy la
automatización se ha perfeccionado gracias a las máquinas capaces de desarrollar una conducta
autónoma o de «pensar». Por tanto, la introducción de la IA en la automatización revela que, en
determinados casos, no solo se puede prescindir de las extremidades de los trabajadores, sino
también de su cerebro. Tal y como indica un informe de la Agencia Europea para la Seguridad y
la Salud en el Trabajo sobre el futuro del trabajo con relación a los robots, aunque estos se
concibieron en un principio para desempeñar tareas sencillas, cada vez se les añaden más
funciones de IA y están «construidos para pensar, usando IA» (Kaivo-oja, 2015).

Los cobots se han incorporado a las fábricas y a los almacenes, donde trabajan codo con codo
con seres humanos. Cada vez participan en más tareas, no necesariamente automatizadas.
Amazon cuenta con 100.000 cobots con IA integrada que han reducido el periodo de formación
de los trabajadores a menos de dos días. Airbus y Nissan también utilizan cobots para acelerar
la producción e incrementar la eficiencia.

2.2 Chatbots

El chatbot es otra herramienta mejorada con IA capaz de resolver un elevado porcentaje de


consultas básicas propias de los servicios de atención al cliente; así los humanos que trabajan en
este tipo de servicios telefónicos pueden dedicarse a dar respuesta a preguntas más complejas.
Los chatbots trabajan en colaboración con las personas no solo físicamente; también se
implementan en el soporte de los sistemas para atender consultas telefónicas de los clientes.

Por ejemplo, Dixons Carphone utiliza un chatbot de conversación llamado Cami capaz de resolver
las dudas básicas de los consumidores en la página web de Curry a través de Facebook
Messenger. En 2017, la aseguradora Nuance lanzó un chatbot llamado Nina para responder
preguntas y acceder a documentos. Morgan Stanley ha proporcionado a 16.000 de sus asesores
financieros algoritmos de aprendizaje automático para automatizar algunas tareas rutinarias. Los
trabajadores de centros de atención telefónica se enfrentan a gran cantidad de riesgos para su
seguridad y salud laborales debido a la naturaleza de su trabajo, repetitivo, exigente y sometido
a un elevado grado de microvigilancia y a formas extremas de cuantificación (Woodcock, 2016).

Los chatbots plantean riesgos psicosociales relacionados con el temor a la pérdida del empleo.
Se debería formar a los trabajadores para que conozcan el papel y la función de los bots en el
espacio laboral y entiendan qué les pueden aportar
Cada vez se registra y se mide un número más elevado de actividades de estos centros. Las
palabras que se utilizan en los correos electrónicos o que se expresan oralmente se pueden
recopilar para determinar el estado de ánimo de los trabajadores, un proceso que se denomina
«análisis de los sentimientos». Las expresiones faciales también pueden analizarse para detectar
signos de fatiga y estados de ánimo. Luego se realizan evaluaciones y se reducen los riesgos para
la salud y la seguridad derivados de la sobrecarga de trabajo. Los chatbots, aunque concebidos
como máquinas de asistencia, plantean sin embargo riesgos psicosociales relacionados con el
temor a la pérdida del empleo. Se debería formar a los trabajadores para que conozcan el papel
y la función de los bots en el espacio laboral y entiendan qué les puede aportar su colaboración
y su ayuda.

Riesgos para la seguridad y la salud laboral

Los cobots pueden reducir los riesgos para la seguridad y la salud, pues permiten a los sistemas
de IA realizar tareas de servicio sencillas y rutinarias en las fábricas que tradicionalmente
generan estrés, fatiga, problemas musculares y óseos e incluso aburrimiento, por culpa del
trabajo repetitivo. El informe «Previsión para 2025 de los nuevos riesgos para la seguridad y la
salud en el trabajo relacionados con la digitalización» de la Agencia Europea para la Seguridad y
la Salud en el Trabajo (EU-OSHA, 2018, p. 89) concluye que los robots liberan a las personas de
tareas físicas peligrosas y de trabajar en entornos con peligros químicos y ergonómicos, y por
tanto contribuyen a la reducción de los riesgos para la seguridad y la salud de los trabajadores.

No todos los algoritmos utilizan IA, pero los datos que generan los servicios que contactan a
los clientes con los trabajadores y las valoraciones de los trabajadores de la plataforma que
hacen los usuarios generan una información que los usuarios utilizarán para seleccionar a unos
trabajadores en detrimento de otros

Como se afirma en un reciente informe de la Organización de los Países Bajos para la


Investigación Científica Aplicada (TNO, por sus siglas en holandés), existen tres tipos de riesgos
para la salud y la seguridad en los entornos de interacción entre humanos y cobots (TNO, 2018,
pp. 18-19):

Riesgos de colisión entre robots y humanos, cuando el aprendizaje automático da lugar a un


comportamiento imprevisto del robot

Riesgos de seguridad, cuando los vínculos de internet de los robots afectan a la integridad del
programa de software y provocan fallos en la seguridad

Riesgos medioambientales, cuando la degradación de los sensores y las acciones humanas


inesperadas en entornos no estructurados pueden derivar en riesgos medioambientales

El reconocimiento de voz y de patrones y la visión artificial que posibilita la IA significa que los
cobots y otras aplicaciones y herramientas puedan apoderarse no solo de los trabajos no
cualificados, sino también de una serie de tareas no necesariamente rutinarias o repetitivas. En
este sentido, la automatización mejorada mediante IA permite ampliar el número de aspectos
laborales susceptibles de ser realizados por ordenadores y por otras máquinas (Frey y Osborne,
2013). Un buen ejemplo de prevención de riesgos laborales con ayuda de herramientas
mejoradas con AI es el de una compañía de productos químicos que fabrica piezas ópticas para
maquinaria. Los chips minúsculos que produce esta empresa deben ser revisados en busca de
defectos. Antes, esta tarea la hacía un empleado sentado, inmóvil, que estudiaba imágenes de
chips durante varias horas seguidas. Hoy la IA se ocupa de esta labor. Los riesgos para la
seguridad y la salud, que ahora, por supuesto, han desaparecido, incluían problemas óseos y
musculares, cansancio ocular y lesiones.4

Dos robots de reparto de la empresa Starship, creada por dos de los cofundadores de Skype,
avanzan por la acera transportando artículos de la cadena de supermercados Co-op, Milton
Keynes, Reino Unido

Dos robots de reparto de la empresa Starship, creada por dos de los cofundadores de Skype,
avanzan por la acera transportando artículos de la cadena de supermercados Co-op, Milton
Keynes, Reino Unido

Con todo, los robots con IA integrada que trabajan en fábricas y almacenes pueden provocar
estrés y una amplia variedad de problemas graves si no se introducen de manera adecuada. Una
sindicalista de Reino Unido señala que la digitalización, la automatización y la gestión a través de
algoritmos, cuando «se utilizan juntas […] son tóxicas y han sido diseñadas para despojar de sus
derechos elementales a millones de personas».5 Otro problema potencial son los factores de
riesgos psicosociales que pueden surgir cuando las personas acaban trabajando al ritmo de los
cobots (en lugar de adaptar los cobots al ritmo de las personas); así como las colisiones entre
cobots y humanos.6 Otro caso de interacción entre máquinas y humanos que puede alterar las
condiciones laborales y provocar riesgos para la salud y la seguridad se da cuando las personas
encargadas de «atender» a una máquina reciben notificaciones y actualizaciones de su estatus
en sus dispositivos personales, en sus smartphones o en sus ordenadores particulares. Esto
puede provocar riesgos de sobrecarga de trabajo, pues los trabajadores se sienten obligados a
atender las notificaciones fuera de su horario de trabajo, y ven así alterado el equilibrio entre su
vida laboral y su vida familiar.7

Un experto en trabajo e IA ha analizado los avances del internet de las cosas en el entorno
laboral: los sistemas de máquinas interconectadas que trabajan junto a los humanos en fábricas
y almacenes.8 Los problemas de introducción de datos, las inexactitudes y los fallos de los
sistemas con máquinas interconectadas generan un número importante de riesgos para la salud
y la seguridad, y también problemas de responsabilidad. Los sensores, el software y las
conexiones pueden fallar y alterarse, y todas estas vulnerabilidades plantean dudas sobre los
límites de la responsabilidad legal de los daños. Si un cobot atropella a un trabajador, ¿es culpa
del cobot, del trabajador, de la compañía que fabricó el cobot o de la compañía que ha empleado
al trabajador e integrado el cobot? Son cuestiones complejas.

La interacción entre humanos y cobots genera tanto riesgos para la salud y la seguridad como
beneficios en el ámbito físico, cognitivo y social, pero puede que algún día los cobots adquieran
la capacidad de razonar, y deben hacer sentir seguros a los humanos. Para ello, deben demostrar
que son capaces de diferenciar a las personas de los objetos, predecir colisiones, adaptar su
comportamiento y tener una memoria que facilite el aprendizaje automático y la autonomía en
la toma de decisiones (TNO, 2018, p. 16), de acuerdo con las definiciones de IA que hemos
explicado antes.

3. Tecnologías wearables

Los dispositivos wearables de seguimiento personal están cada vez más presentes en los lugares
de trabajo. Se prevé que el mercado de estos dispositivos weareables para la industria y el
cuidado de la salud pasará de los 21 millones de dólares en 2013 a 9.200 millones en 2020 (Nield,
2014). Entre 2014 y 2019 se predijo un incremento de 13 millones de dispositivos de seguimiento
de actividad en los entornos laborales. Esto ya está sucediendo en los almacenes y en las fábricas
donde los GPS y las pulseras de identificación por radiofrecuencia o por sensores táctiles, como
la que ha patentado Amazon en 2018, han sustituido por completo a los lápices y los
portapapeles.

Uno de los ámbitos en los que ya se ha empezado a utilizar una nueva función de la
automatización y de los procesos de la industria 4.0 con AI incorporada es el de tamaño de lote
de producción.9 Este proceso incluye casos en que se da a los trabajadores gafas con pantallas y
funciones de realidad virtual, como las HoloLens y las Google Glass, o tabletas con atriles que se
introducen en la cadena de producción para realizar tareas in situ. El modelo de la cadena de
montaje, en el que un trabajador realiza una tarea específica una y otra vez, durante varias horas
seguidas, no ha desaparecido por completo, pero el sistema de producción por tamaño de lote
es diferente. Este procedimiento, que se utiliza en estrategias de fabricación ágil, se aplica a
pedidos más pequeños que se preparan dentro de parámetros de tiempo específicos, en lugar
de producir una cantidad fija que no cuenta con clientes seguros.

Se proporciona a los trabajadores una formación visual in situ a través de una pantalla HoloLens
o de una tableta, y así pueden ocuparse de una nueva tarea que aprenden instantáneamente y
que solo realizan durante el periodo de tiempo necesario para fabricar el pedido específico.
Aunque a primera vista puede parecer que estos sistemas de asistencia otorgan más autonomía,
más responsabilidad individual y un mayor desarrollo autónomo, no siempre es así (Butollo et
al., 2018).

El uso de dispositivos de formación in situ, wearables o no, se traduce en que los trabajadores
necesitan menos conocimientos o formación previa porque realizan el trabajo caso por caso.
Surge, por tanto, el riesgo de la intensificación de las tareas, pues las pantallas, en forma de visor
o de tableta, se convierten en algo parecido a un instructor en tiempo real de trabajadores no
cualificados. Además, los trabajadores no adquieren destrezas duraderas, porque se les exige
que realicen actividades modulares en procesos de montaje personalizados para construir
artículos a medida en diversas escalas. Aunque esto favorece la eficiencia productiva de la
compañía, el modelo de tamaño de lote genera importantes riesgos para la seguridad y la salud,
pues la cualificación de los trabajadores queda limitada a programas de formación in situ y ya no
necesitan especializarse.

Riesgos para la salud y la seguridad laboral

Los riesgos para la salud y la seguridad pueden deberse también a la falta de comunicación,
cuando los trabajadores no son capaces de asimilar la complejidad de la nueva tecnología lo
suficientemente rápido, y en particular si además no reciben formación para enfrentarse a las
amenazas que puedan surgir. Esto es un problema real en el ámbito de la pequeña empresa y de
las startups, organizaciones bastante experimentales en el uso de las nuevas tecnologías que no
suelen tener en cuenta que es imprescindible garantizar las condiciones de seguridad antes de
que ocurran los accidentes, y que a veces deciden actuar cuando el problema ya no tiene
remedio.10 En una entrevista, los responsables del proyecto Better Work 2020 de IG Metall
(Bezirksleitung, Nordrhein-Westfalen/NRW Projekt Arbeit 2020) afirmaban que los sindicatos
han entablado un diálogo activo con las compañías sobre los procedimientos que están
empleando para introducir las tecnologías de la industria 4.0 en los lugares de trabajo (Moore,
2018b). La introducción de robots y de sistemas de supervisión de trabajadores, de la
computación en la nube, de la comunicación entre máquinas y de otros sistemas llevó a los
responsables del proyecto de IG Metall a plantear las siguientes preguntas a las empresas:

– ¿Qué consecuencias tendrán los cambios tecnológicos en la carga de trabajo de las personas?

– ¿Facilitarán el trabajo o lo complicarán?

– ¿Se generará más o menos estrés?

– ¿Habrá más o menos trabajo?

Los sindicalistas de IG Metall señalan que los niveles de estrés de los trabajadores tienden a subir
cuando se implantan tecnologías y no se les forma ni se les informa lo suficiente. En muchos
casos son necesarios conocimientos especializados para mitigar los posibles peligros derivados
de la presencia de las nuevas tecnologías en el espacio laboral.

4. Trabajos gig

A continuación, vamos a centrarnos en otro campo en el que la IA supone una influencia


importante, el del gig work o microtrabajo. El gig work funciona a través de aplicaciones online
(apps), también llamadas «plataformas», que proporcionan compañías como Uber, Upwork o
Amazon Mechanical Turk (AMT). El trabajo puede realizarse online (el encargo se obtiene y se
hace con ayuda de un ordenador ubicado en el hogar, en una biblioteca o en un café, por
ejemplo, e incluye tareas de traducción o de diseño) u offline (el encargo se obtiene online, pero
se realiza offline, como el trabajo de taxista o el de empleado de la limpieza). No todos los
algoritmos utilizan IA, pero los datos que generan los servicios que ponen en contacto a los
clientes con los trabajadores y las valoraciones de los trabajadores de la plataforma que hacen
los usuarios generan una información que da lugar a perfiles mejor o peor valorados que, a la
postre, los usuarios utilizarán para seleccionar a unos trabajadores en detrimento de otros.
Un estudio sobre trabajadores gig online en India critica «la transformación de los seres
humanos en un servicio», según la expresión de Jeff Bezos, porque se trata de una modalidad
laboral que deshumaniza y devalúa el trabajo, favorece la precarización y desvirtúa la economía

La supervisión y el seguimiento ha sido una experiencia cotidiana durante muchos años para los
mensajeros y los taxistas, pero el aumento de trabajadores gig que reparten comida en bicicleta
para determinadas plataformas, entregan pedidos y prestan servicios de taxi es relativamente
nuevo. Uber y Deliveroo exigen a sus trabajadores que instalen una aplicación específica en sus
teléfonos, que cuelgan en el salpicadero del coche o en el manillar de la bicicleta, y obtienen
clientes utilizando tecnologías de localización por satélite y con ayuda de un software de
emparejamiento que funciona por algoritmos. Una de las ventajas de la introducción de la IA en
los trabajos gig es la protección del conductor y del pasajero. DiDi, un servicio de taxi que opera
en China, utiliza un software de reconocimiento facial con IA para identificar a los trabajadores
cuando inician su sesión en la aplicación. DiDi utiliza esta información para verificar la identidad
de los conductores y prevenir posibles delitos. Sin embargo, hace poco este programa tuvo un
fallo grave cuando un conductor se registró una noche con la identidad de su padre. Bajo esa
identidad falsa, el conductor asesinó a un pasajero en el turno de su padre.

Los repartidores gig son responsables de la velocidad a la que circulan, del número de entregas
por hora y de las calificaciones de los clientes, y trabajan en un entorno intensificado que ha
demostrado tener riesgos para la salud y la seguridad. En un artículo de la revista Harper’s, un
conductor explica que las nuevas herramientas digitales funcionan como un «látigo mental», y
señala que «la gente se siente intimidada y trabaja más deprisa» (The Week, 2015). Los
conductores y los repartidores corren el riesgo de ser expulsados de la app si las valoraciones de
sus clientes no son lo bastante buenas o incumplen determinados requisitos. Esto genera riesgos
para la salud y la seguridad como el trato desigual, el estrés e incluso el miedo.

Las calificaciones y las críticas digitalizadas de los clientes son clave para una buena reputación
y determinan la cantidad de encargos que recibe un trabajador. Los algoritmos se basan en las
puntuaciones de los clientes y en la cantidad de encargos que se aceptan

En los microtrabajos se usan algoritmos para poner en contacto a clientes y trabajadores. Una
plataforma llamada BoonTech utiliza Watson AI Personality Insights de IBM para emparejar
online a clientes y trabajadores gig, por ejemplo, a través de plataformas como Amazon
Mechanical Turk y Upwork. Se han planteado algunos problemas de discriminación relacionados
con las responsabilidades domésticas de las mujeres que microtrabajan online desde casa,
responsabilidades como la reproducción y el cuidado de los niños en un contexto tradicional. Un
estudio reciente sobre trabajadores gig online en los países en vías de desarrollo llevado a cabo
por investigadores de la OIT muestra que el porcentaje de mujeres que «prefieren trabajar en
casa» es más elevado que el de hombres (Rani y Furrer, 2017, p. 14). El estudio de Rani y Furrer
revela que, en los países africanos, el 32% de las trabajadoras tiene hijos pequeños, y en
Latinoamérica el 42%. Esto supone una doble carga para la mujer que «pasa alrededor de 25,8
horas a la semana trabajando en plataformas, 20 de las cuales son remuneradas y 5,8 no» (ibíd.,
p. 13). El estudio muestra que el 51% de las mujeres que desempeñan este tipo de oficios trabaja
de noche (entre las 22.00 h y las 05.00 h) y por la tarde (el 76% trabaja entre las 18.00 h y las
22.00 h), que son «horas de trabajo asociales» y entran dentro de las categorías de riesgo
potencial de violencia y acoso, según la OIT (OIT, 2016, p. 40). Rani y Furrer (2017, p. 14) afirman
además que la externalización global del trabajo a través de plataformas ha generado una
«economía de 24 horas […] que erosiona las fronteras establecidas entre el hogar y el trabajo [y
además] hace que las mujeres tengan que soportar una doble carga, pues las responsabilidades
del hogar están distribuidas desigualmente entre sexos». Trabajar desde casa es ya de por sí un
factor de riesgo para las mujeres, que pueden ser víctimas de violencia doméstica y que además
carecen de la protección legal de la que gozarían en una oficina. De hecho, «la violencia y el
acoso pueden producirse […] a través de la tecnología que borra las fronteras que separan los
espacios laborales, los espacios “domésticos” y los lugares públicos» (OIT, 2017, p. 97).

Riesgos para la salud y la seguridad laboral

La digitalización del trabajo no estandarizado, tanto la de los trabajos gig que se realizan online
desde casa como la de los servicios de taxi y de reparto que se desempeñan offline, es un método
de gestión del entorno laboral basado en la cuantificación detallada de tareas y en el que solo se
remunera el tiempo de contacto explícito. Podría parecer que la digitalización supone la
regularización de un mercado laboral en el sentido en que la define la OIT, pero el riesgo de
precariedad laboral y salarial es muy real. En lo que respecta al tiempo de trabajo, las tareas
preparatorias para la mejora de la reputación y las destrezas necesarias para el desempeño de
los microtrabajos online no están remuneradas. Que la vigilancia sea algo normalizado no
significa que el estrés no esté presente. D’Cruz y Noronha (2016) han realizado un estudio de
casos de trabajadores gig online en India en el que «se critica la transformación de los seres
humanos en un servicio» (según la expresión de Jeff Bezos; citado en Prassl, 2018) porque se
trata de una modalidad laboral que deshumaniza y devalúa el trabajo, favorece la precarización
e incluso desvirtúa la economía. Los microtrabajos online, como los que se contratan a través de
Amazon Mechanical Turk se basan en formas de empleo no estandarizadas que incrementan las
posibilidades de explotación infantil, trabajo forzado y discriminación. Está demostrado que
favorecen el racismo; se sabe que hay clientes que escriben comentarios insultantes y ofensivos
en las plataformas. El comportamiento racista entre trabajadores también es manifiesto: los
microtrabajadores que operan en economías más desarrolladas acusan a los que realizan los
mismos oficios en India de rebajar los precios. Además, algunos de los trabajos que se consiguen
a través de plataformas online son extremadamente desagradables, como el de los moderadores
de contenido que tienen que cribar series interminables de imágenes y eliminar las que pueden
resultar ofensivas o desagradables sin apenas asistencia o protección. Existen riesgos evidentes
para la salud y la seguridad en los ámbitos en los que los niveles de violencia, estrés psicosocial,
discriminación, racismo, acoso, explotación adulta e infantil son elevados debido a la falta de
protección básica en el entorno laboral.

Los trabajadores de la gig economy están obligados a registrarse como autónomos y, al hacerlo,
renuncian a los derechos básicos de los que disfrutan los trabajadores por cuenta ajena, como
unas horas mínimas garantizadas, vacaciones pagadas, subsidios por enfermedad y el derecho a
sindicarse. La reputación online de los trabajadores gig es muy importante, porque de ella
depende que obtengan nuevos encargos. Como hemos visto, las calificaciones y las críticas
digitalizadas de los clientes son clave para una buena reputación y determinan la cantidad de
encargos que recibe un trabajador. Los algoritmos se basan en las puntuaciones de los clientes y
en la cantidad de encargos que se aceptan. Estas variables dan lugar a perfiles específicos que
en su mayoría son de libre acceso para el usuario. Las valoraciones de los clientes no tienen en
cuenta consideraciones como el estado de salud de los trabajadores, sus responsabilidades
familiares y domésticas y otras circunstancias que escapan a su control y pueden afectar a su
rendimiento. También pueden generar nuevos riesgos para la salud y la seguridad cuando el
trabajador se siente obligado a aceptar más encargos de los que su salud le permite para no
perder su puesto. Las clasificaciones de satisfacción del cliente y el número de encargos
aceptados se pueden utilizar para «desactivar» a los conductores, como hace Uber, a pesar de
que, por paradójico y ficticio que parezca, no hay en los algoritmos «sesgo humano» (Frey y
Osborne, 2013).

La integración de la IA en la gig economy presenta algunas ventajas (por ejemplo, protege la


identidad de los conductores y favorece la flexibilidad laboral), pero también riesgos, como la
duplicación de la carga de trabajo para las mujeres que trabajan online

En general, la integración de la IA en la gig economy presenta algunas ventajas (por ejemplo,


protege la identidad de los conductores y favorece la flexibilidad laboral, lo cual permite conciliar
trabajo y vida familiar), pero también riesgos, como demuestra el caso de los conductores de
DiDi y la duplicación de la carga de trabajo para las mujeres que trabajan online. Las medidas de
protección de la seguridad y la salud son, por lo general, escasas en estos entornos laborales, y
los riesgos, numerosos (Huws, 2015; Degryse, 2016); los salarios son precarios y los horarios
prolongados (Berg, 2016); la falta de formación es una constante (CIPD, 2017) y el nivel de
inseguridad muy elevado (Taylor, 2017). Jimenez (2016) advierte que la legislación, tanto en
materia laboral como de seguridad y salud en el trabajo, no se ha adaptado aún a la eclosión del
trabajo digitalizado y han empezado a publicarse otros estudios que comparten esta visión
(Degryse, 2016). Los éxitos de la IA son también sus fracasos.

5. Hacia una conclusión

La diferencia entre la IA y otras formas de desarrollo e invención tecnológica para el entorno


laboral radica en que, dado que la inteligencia se proyecta sobre máquinas autónomas, se
considera que estas pueden tomar decisiones por sí mismas y funcionar como herramientas de
gestión, en virtud de su capacidad aparentemente superior para calcular y medir. Aunque
muchos informes recientes sobre la IA intentan responder a las preguntas ¿Qué puede hacerse
con la IA? o ¿Cómo puede aplicarse la IA de forma ética?, el problema es mucho más complejo.
En el momento en que las decisiones inteligentes en el espacio laboral empiezan a basarse en
los cálculos de una máquina, surgen un sinfín de problemas que han de incluirse en cualquier
debate sobre la «ética» en la aplicación y el uso de la IA.

En su Ensayo sobre el entendimiento humano, Locke, el célebre filósofo empirista, afirmaba que
la ética se puede definir como «la búsqueda [de] aquellas reglas y medidas de las acciones
humanas que conducen a la felicidad, y de los medios para ponerlas en práctica» (Ensayo IV, xxi,
3, 1824 [1689]). Por supuesto, no es más que una cita filosófica, pero lo cierto es que, hasta
ahora, los únicos que se han esforzado en buscar y fijar esas reglas, que son los parámetros de
la definición de la ética, han sido los humanos. En el momento en que se delega en las máquinas
la responsabilidad de fijar las reglas, como sucede en el caso de la IA, la noción misma de ética
se convierte en objeto de escrutinio. En lugar de hablar de cómo aplicar la IA sin peligro de
muerte, bancarrota o batallas jurídicas, que son las verdaderas cuestiones de fondo que nos
llevan a recurrir a la ética en los debates actuales sobre la IA, tendría sentido retroceder y
preguntarnos: ¿Es absolutamente imprescindible la introducción de la IA? ¿Nos llevará la
introducción de la IA en diversas instituciones y entornos laborales de todos los ámbitos de la
sociedad a un mundo más próspero y floreciente, como se ha proclamado? ¿O servirá para
empeorar las condiciones materiales de los trabajadores y promover un tipo de inteligencia que
no persigue, por ejemplo, el estado del bienestar, unas condiciones laborales favorables o una
experiencia laboral y vital de calidad?

Aunque las máquinas poseen una memoria y una capacidad de procesamiento mayores que
nunca y que les han permitido desarrollar el aprendizaje automático, carecen de empatía y del
bagaje histórico y cultural que constituyen el contexto en el que se desarrolla el trabajo. Las
máquinas no pueden discriminar intencionadamente, pero si las decisiones laborales han sido
discriminatorias durante mucho tiempo (es decir, si, históricamente, a los hombres se les ha
contratado más que a las mujeres, y a los blancos más que a las personas de otras razas; si a las
mujeres y a los negros se les despide antes y no se les asciende, etc.), entonces los datos
relacionados con las prácticas de contratación que se recopilan serán discriminatorios. La
paradoja es que, si estos datos se usan para entrenar algoritmos y tomar nuevas decisiones de
contratación y de despido, entonces las decisiones serán discriminatorias. Las máquinas,
independientemente de las formas de inteligencia que quienes las gestionan les atribuyan, no
aprecian y no pueden apreciar los aspectos cualitativos de la vida, ni tener en cuenta el contexto.
En una entrevista reciente que le hice a Cathy O’Neil, autora de Armas de destrucción
matemática. Cómo el big data aumenta la desigualdad y amenaza la democracia, decía algo muy
interesante. Cuando vio pasar a su lado a un repartidor de Deliveroo pedaleando a toda
velocidad en un día lluvioso, la doctora O’Neil hizo la siguiente reflexión: las plataformas que
coordinan el trabajo de los repartidores buscan eficiencia y rapidez, y, por tanto, incitan a los
repartidores a trabajar en condiciones climatológicas adversas y peligrosas. Es evidente que las
plataformas ponen en peligro las vidas de los repartidores. O’Neil define los algoritmos como
«modelos de juguete del Universo», porque estos entes aparentemente omniscientes en
realidad solo saben lo que nosotros les decimos, y por tanto tienen lagunas considerables.

En lugar de hablar de cómo aplicar la IA sin peligro de muerte, bancarrota o batallas jurídicas,
tendría sentido retroceder y preguntarnos: ¿la introducción de la IA en instituciones y entornos
laborales nos llevará a un mundo más próspero y floreciente?

Si aceptamos que las máquinas son tan competentes como los humanos, o incluso más,
¿empezaremos a eximir de responsabilidad a quienes las gestionan? Más preguntas: ¿Se puede
hacer un uso ético de la IA, teniendo en cuenta lo compleja que es la creación de leyes, cuando
esa responsabilidad no es exclusiva de una mente humana inteligente? ¿Cuáles son los límites
de la inteligencia? ¿Por qué queremos que las máquinas se comporten como nosotros, cuando
está demostrado que solo pueden aprender los datos que nosotros les suministramos, y que, si
los datos reflejan la conducta discriminatoria de los humanos, entonces los algoritmos, casi
necesariamente, caerán en la discriminación o la favorecerán? Es evidente que la fantástica
máquina global que describía E. M. Forster en su relato clásico de ciencia ficción (2011 [1928])
no necesitó obtener la aprobación de un comité de ética antes de que toda la humanidad
acabara viviendo dentro de ella, bajo la corteza de la Tierra. Ahora que nos adentramos en la era
de la IA, será importante recordar cuáles son los puntos de tensión a la hora de situar a las
máquinas en posiciones de poder en el ámbito laboral y, en lugar de proclamar la sombría
predicción del dominio de las máquinas, defender un «dominio de los humanos» (De Stefano,
2018) antes de introducir cualquier tecnología nueva en el entorno laboral. Los humanos hemos
de responder a esta tendencia con una minuciosa regulación en la que la inteligencia humana
prevalezca mientras la máquina se convierte en una presencia cada vez más indiscutible en
nuestra vida laboral.

También podría gustarte