IA Generativa: La nueva era de la información
()
Información de este libro electrónico
Este primer volumen de la Biblioteca Digital Journey proporciona un conjunto de análisis y materiales que servirán, sin duda, a todos aquellos que se aproximen por primera vez a las importantes transformaciones que ya está provocando la IA, y también a quienes trabajan de forma directa con esta tecnología que está llamada a revolucionar nuestra sociedad en los próximos años.
Relacionado con IA Generativa
Libros electrónicos relacionados
Inteligencia artificial y bioética Calificación: 0 de 5 estrellas0 calificacionesConectando Creatividad y Tecnología: Desafíos y Oportunidades en la Economía Naranja en la Era de la Industria 4.0 Calificación: 3 de 5 estrellas3/5Chat GPT: Cómo funciona y cómo ganar con el uso de la tecnología de inteligencia artificial Calificación: 0 de 5 estrellas0 calificacionesGestión Del Dinero Para Todas Las Edades Calificación: 0 de 5 estrellas0 calificacionesGana Dinero sin Salir de Casa: Tu Guía para el Trabajo en Línea Calificación: 0 de 5 estrellas0 calificacionesEl Futuro de la Inteligencia Artificial: Innovaciones, Impactos y Desafíos. Calificación: 0 de 5 estrellas0 calificacionesCatástrofe, gestión y cambio: Algunas aplicaciones del pensamiento de Bion en una historia de vida Calificación: 0 de 5 estrellas0 calificacionesLa Sabiduría de la Riqueza: Principios Judíos para la Prosperidad y el Éxito Calificación: 0 de 5 estrellas0 calificacionesLiderazgo para crear tu propio éxito Calificación: 0 de 5 estrellas0 calificacionesReflexiones de una persona libre para una sociedad libre Calificación: 0 de 5 estrellas0 calificacionesMisión Personal La brújula para triunfar en la vida Calificación: 0 de 5 estrellas0 calificacionesEl deber de emprender Calificación: 0 de 5 estrellas0 calificacionesEl Poder De La Escucha Activa: Colección Inteligencia Emocional, #17 Calificación: 0 de 5 estrellas0 calificacionesDe cero a siete cifras sin educación ni conexiones: Seis hábitos clave para alcanzar la libertad financiera Calificación: 0 de 5 estrellas0 calificacionesLa satisfacción de haberlo logrado Calificación: 0 de 5 estrellas0 calificacionesMercado financiero: Dominar los mercados financieros, su guía hacia la riqueza y la prosperidad Calificación: 0 de 5 estrellas0 calificacionesTodo Sobre Tecnología Blockchain: La Guía Definitiva Para Principiantes Sobre Monederos Blockchain Calificación: 0 de 5 estrellas0 calificacionesTriunfar y ser feliz Calificación: 0 de 5 estrellas0 calificacionesPsicología del Fracaso: Aprendiendo del Error para Crecer Calificación: 0 de 5 estrellas0 calificacionesTrading sin Capital de Riesgo: Strong Candles, #1 Calificación: 0 de 5 estrellas0 calificacionesModelo Daisugi. Creando vínculos significativos.: Cómo construir relaciones humanas trascendentes para el bien ser y bien estar. Calificación: 0 de 5 estrellas0 calificacionesAquí nadie se va a hacer rico.: Las tribulaciones de emplead@ en una academia de idiomas Calificación: 0 de 5 estrellas0 calificacionesEmprende tu camino hacia el éxito: Ideas de negocios para adolescentes emprendedores Calificación: 0 de 5 estrellas0 calificacionesEstrategia empresarial Calificación: 0 de 5 estrellas0 calificacionesResumen Completo - La Liberacion Del Alma (The Untethered Soul) - Basado En El Libro De Michael Singer: (Edicion Extendida) Calificación: 0 de 5 estrellas0 calificacionesNFT y METAVERSO. La economía intangible en 100 preguntas Calificación: 0 de 5 estrellas0 calificaciones20 Métodos Para Aumentar La Productividad De La Mente Positiva: Aumente su eficacia y ahorre horas cada día Calificación: 5 de 5 estrellas5/5Innovación educativa y redes sociales: En la formación universitaria Calificación: 0 de 5 estrellas0 calificaciones¡Lo Que Cuenta Es La Primera Impresión!: Colección Inteligencia Emocional, #3 Calificación: 0 de 5 estrellas0 calificacionesResumen de El método de lo no obvio de Rohit Bhargava Calificación: 3 de 5 estrellas3/5
Inteligencia (IA) y semántica para usted
Inteligencia artificial: Guía para seres pensantes Calificación: 0 de 5 estrellas0 calificacionesEscritura Creativa en la Era de la IA: Dominando la Colaboración con ChatGPT para Crear Libros Impactantes Calificación: 4 de 5 estrellas4/5Chat GPT-4 para Principiantes: Chat GPT, #1 Calificación: 0 de 5 estrellas0 calificacionesDiseño de algoritmos y su programación en C Calificación: 0 de 5 estrellas0 calificacionesEl mito de la inteligencia artificial: Por qué las máquinas no pueden pensar como nosotros lo hacemos Calificación: 5 de 5 estrellas5/5Fundamentos de Programación: Diagramas de flujo, Diagramas N-S, Pseudocódigo y Java Calificación: 0 de 5 estrellas0 calificacionesAprendizaje automático y profundo en python: Una mirada hacia la inteligencia artificial Calificación: 0 de 5 estrellas0 calificacionesTecnohumanismo Calificación: 0 de 5 estrellas0 calificacionesDominando ChatGPT: Desbloquea el poder de la IA para mejorar la comunicación y las relaciones: Spanish Calificación: 3 de 5 estrellas3/5Python fácil Calificación: 4 de 5 estrellas4/5Ingeniería de prompts para neófitos Calificación: 0 de 5 estrellas0 calificacionesChatGPT Guía Para Principiantes Cómo Usar la Inteligencia Artificial Generativa de OpenAI en tu Vida Calificación: 0 de 5 estrellas0 calificacionesBusiness Intelligence: Técnicas herramientas y aplicaciones Calificación: 0 de 5 estrellas0 calificacionesMáquinas predictivas: La sencilla economía de la inteligencia artificial Calificación: 5 de 5 estrellas5/5Monetización de ChatGPT: aproveche el poder de AI: Spanish Calificación: 1 de 5 estrellas1/5Laravel: Curso práctico de formación Calificación: 0 de 5 estrellas0 calificacionesIntroducción a la computación cuántica para ingenieros Calificación: 0 de 5 estrellas0 calificacionesCómo triunfar en Instagram usando ChatGPT: La guía definitiva para crear contenido impactante con ChatGPT Calificación: 0 de 5 estrellas0 calificaciones¿Cómo piensan las máquinas?: Inteligencia artificial para humanos Calificación: 5 de 5 estrellas5/5Escritura Creativa con ChatGPT: Integrando ChatGPT en el Proceso Creativo de la Escritura de Ficción Calificación: 0 de 5 estrellas0 calificacionesInteligencia artificial: la cuarta revolución industrial Calificación: 0 de 5 estrellas0 calificacionesInteligencia Artificial Calificación: 4 de 5 estrellas4/5Guía definitiva para crear TikToks con ChatGPT: ¡Conviértete en el próximo influencer de TikTok con la ayuda de ChatGPT! Calificación: 0 de 5 estrellas0 calificacionesSobreviviendo a la IA Calificación: 3 de 5 estrellas3/5Sistemas de aprendizaje automático Calificación: 0 de 5 estrellas0 calificacionesCómo escribir libros usando ChatGPT: Tu guía definitiva para escribir libros con Chat GPT Calificación: 0 de 5 estrellas0 calificacionesInteligencia artificial: con aplicaciones a la ingeniería Calificación: 0 de 5 estrellas0 calificacionesEl sueño de la Inteligencia Artificial: El proyecto de construir máquinas pensantes: una historia de la IA. Calificación: 0 de 5 estrellas0 calificaciones
Comentarios para IA Generativa
0 clasificaciones0 comentarios
Vista previa del libro
IA Generativa - David Sanz
ÉTICA Y REGULACIÓN
Ética para la IA
David Sanz1
La inteligencia artificial (IA), antaño confinada a las páginas de novelas de ciencia ficción y a las especulaciones de filósofos y científicos visionarios, ha emergido como una fuerza transformadora que impregna casi todos los aspectos de nuestra vida cotidiana. Desde los asistentes virtuales en nuestros dispositivos móviles hasta los algoritmos que deciden qué noticias leemos o qué productos compramos, la IA está redefiniendo el tejido mismo de nuestra sociedad. Nos encontramos en una encrucijada histórica, un punto de inflexión en el que debemos reflexionar profundamente sobre las implicaciones éticas de una tecnología que no solo amplifica nuestras capacidades, sino que también desafía nuestros valores más fundamentales.
La revolución de la IA no es simplemente una cuestión tecnológica; es un fenómeno que plantea preguntas esenciales sobre lo que significa ser humano, sobre nuestra capacidad para discernir entre lo real y lo fabricado, y sobre cómo queremos que sea el mundo en el que vivimos. Por primera vez en la historia, nos enfrentamos a máquinas que no solo pueden procesar información a velocidades inimaginables, sino que también pueden aprender, adaptarse y, en cierta medida, crear. La IA tiene la capacidad de generar contenido desde cero, simulando la creatividad humana con una precisión y confianza que pueden hacernos dudar de qué es auténtico y qué es artificial.
Este fenómeno plantea interrogantes cruciales: ¿Cómo impactará en nuestra identidad individual y colectiva una tecnología que puede tomar decisiones y generar contenido sin supervisión humana? ¿Qué responsabilidades éticas deben asumir los diseñadores, desarrolladores y usuarios de estas tecnologías? ¿Estamos preparados para las implicaciones sociales, económicas y culturales que conlleva la integración masiva de la IA en nuestras vidas?
En este capítulo exploraremos las profundas implicaciones éticas de la inteligencia artificial, examinando los riesgos y oportunidades que presenta. Analizaremos los debates actuales en torno a la creación de contenidos, los negocios y la gestión de datos, y ofreceremos una visión de futuro que nos permita navegar éticamente en un mundo cada vez más impulsado por la IA. Mi intención es fomentar una reflexión crítica y constructiva que nos permita aprovechar al máximo el potencial de esta tecnología, al tiempo que minimizamos sus riesgos y protegemos los valores fundamentales de nuestra sociedad.
La ética en la IA es un campo relativamente nuevo, pero con raíces profundas en la filosofía y la literatura. La imaginación humana ha anticipado durante mucho tiempo las posibilidades y peligros de crear máquinas inteligentes. Escritores como Mary Shelley con Frankenstein y, más tarde, Isaac Asimov con sus cuentos de robots, exploraron las complejidades morales de dar vida a entidades artificiales.
Isaac Asimov en particular dejó una huella indeleble en el pensamiento sobre la ética en la IA al proponer las Tres Leyes de la Robótica en su colección de relatos Yo, Robot. Estas leyes, aunque ficticias, sentaron las bases para considerar cómo deberían comportarse las máquinas inteligentes en relación con los seres humanos:
Un robot no debe dañar a un ser humano o, por inacción, permitir que un ser humano sufra daño.
Un robot debe obedecer las órdenes que le sean dadas por los seres humanos, excepto si dichas órdenes entran en conflicto con la Primera Ley.
Un robot debe proteger su propia existencia en la medida en que esta protección no entre en conflicto con la Primera o la Segunda Ley.
Con el desarrollo de la Máquina de Turing a mediados del siglo XX, la cuestión de si una máquina puede pensar dejó de ser un mero ejercicio filosófico para convertirse en un desafío científico y tecnológico. Alan Turing, en su famoso artículo «Computing Machinery and Intelligence», propuso el «Test de Turing» como una forma de evaluar la capacidad de una máquina para exhibir un comportamiento inteligente indistinguible del de un ser humano.
Este avance abrió la puerta a debates profundos sobre la naturaleza de la conciencia, la inteligencia y la ética en la creación de máquinas capaces de pensar. ¿Qué significa que una máquina pueda «pensar»? ¿Tenemos el derecho de crear entidades que puedan sufrir o tener experiencias conscientes? Estas preguntas siguen siendo objeto de intensa discusión en la filosofía de la mente y la ética tecnológica.
Las Tres Leyes de la Robótica de Asimov, aunque revolucionarias en su momento, resultan insuficientes para abordar los complejos desafíos éticos que plantea la IA en la actualidad. La tecnología ha avanzado a un ritmo vertiginoso, y las aplicaciones de la IA se han expandido más allá de lo que Asimov o sus contemporáneos podrían haber imaginado.
Por esa razón, aunque no existe un marco regulatorio global unificado, diversos países y organismos internacionales están trabajando en el desarrollo de normas y directrices para garantizar el uso ético y responsable de la IA.
UNESCO: La Organización de las Naciones Unidas para la Educación, la Ciencia y la Cultura aprobó en 2021 la primera norma mundial sobre la ética de la IA, la «Recomendación sobre la ética de la inteligencia artificial». Este documento establece una serie de principios éticos que deben guiar el desarrollo y uso de la IA, como la protección de los derechos humanos, la transparencia, la responsabilidad y la no discriminación.
Unión Europea: La Unión Europea ha presentado propuestas legislativas para regular la IA, con un enfoque en los sistemas de IA de alto riesgo. Estas propuestas buscan garantizar la seguridad, la transparencia y la no discriminación de los sistemas de IA que se utilizan en áreas sensibles como la justicia, la contratación y la gestión de infraestructuras críticas.
OCDE: La Organización para la Cooperación y el Desarrollo Económicos ha desarrollado una serie de principios para la IA, que incluyen la gobernanza inclusiva, la sostenibilidad, el respeto a los valores democráticos y el bienestar humano.
Los Principios de Asilomar: Guía elaborada por expertos en la materia que recoge 23 principios éticos para la investigación en inteligencia artificial
La ética y la inteligencia artificial son un campo en constante evolución. Es fundamental que los desarrolladores, los gobiernos, la sociedad civil y todas las partes interesadas trabajen juntos para garantizar que la IA se desarrolle y utilice de manera responsable y beneficiosa para todos.
Desde la aparición de la Inteligencia Artificial Generativa, los LLMs (Large Language Models o grandes modelos del lenguaje), y en especial con el lanzamiento de ChatGPT al gran público, el debate sobre los aspectos éticos de la inteligencia artificial ha adquirido una dimensión y una complejidad mucho mayores. Los aspectos éticos de los tradicionales sistemas de Machine Learning (aprendizaje de máquina) se reducían generalmente a la transparencia para poder explicar de forma sencilla cómo se generan las respuestas y a la eliminación de sesgos, muy relacionado con el aspecto anterior, para garantizar que los datos de entrenamiento sean neutros.
Los nuevos modelos plantean retos mucho más complejos que muchas veces se plantean de forma exagerada, confundiendo la realidad de la tecnología actual con la futura y el entrenamiento de los modelos con su uso. Por eso es necesario abordar esta cuestión estructurándola en tres áreas:
Entrenamiento de la IA, con foco en los aspectos más relacionados con la propiedad intelectual y el posible sesgo que pueden contener los datos utilizados.
Utilización de la IA: abordar el impacto puede generar las respuestas de la IA generativa, su posible uso comercial y las consecuencias de que la IA pueda actuar, por ejemplo, llamando a una API o conectándola a algún mecanismo, como el caso de los coches autónomos.
La IA general: se analizan algunos aspectos éticos de lo que podría venir en el futuro, cuando los sistemas de IA tengan capacidad real para pensar.
Aspectos éticos en el entrenamiento de la IA generativa
Una de las características de estos modelos generativos es la ingente cantidad de datos que necesitan para generar buenos resultados. Damos por sentado que estos datos se han obtenido todos de fuentes públicas (aunque se han suscitado dudas al respecto). El problema ético que se plantea aquí es el siguiente: OpenAI, por poner un caso conocido, está cobrando por utilizar el servicio de ChatGPT. Sin embargo, los autores que han publicado contenidos que han sido usados en el entrenamiento de ChatGPT no reciben ninguna compensación. La cuestión es ¿deberían recibirla?
Podemos pensar que el trabajo de un autor, aunque lo haya puesto a disposición del público en internet, debería ser compensado si se utiliza con fines comerciales. ¿Qué sucede entonces cuando este trabajo se busca con Google y se aprovecha su contenido? Aclaremos que no se trata de hacer plagio y vender el resultado, sino de inspirarse en un contenido para crear otro. De alguna forma es lo que hace ChatGPT a partir de la enorme inversión que ha realizado OpenAI en su desarrollo, entrenamiento y puesta a disposición del público y las empresas.
Un caso interesante es el de Reddit, que llegó a un acuerdo con OpenAI para poder utilizar todo su contenido para el entrenamiento de ChatGPT. Recordemos que este contenido en realidad lo generan los usuarios de Reddit que aparentemente no se benefician de dicho acuerdo.
Otra cuestión ética que plantea el uso de una cantidad tan grande de contenidos es si cualquier contenido debe o no utilizarse para entrenar un LLM o un generador de imágenes y películas. ¿Deben las grandes empresas de IA ser obligadas a restringir los contenidos si expresan opiniones que casi todos rechazamos o si incluyen imágenes pornográficas? La realidad es que, probablemente por motivos de imagen corporativa, todas estas grandes empresas se autolimitan y filtran este tipo de contenidos tanto a priori como a posteriori, una vez está entrenado el modelo. Desde mi punto de vista, creo que no debería existir una ley que obligue. Es una decisión de la empresa que ofrece el servicio definir qué tipo de contenidos utiliza y del usuario elegir qué servicio utilizar.
Aún en el caso de que se apliquen filtros, el entrenamiento con fuentes públicas puede crear ciertos sesgos en el resultado. ¿Cuál es el perfil de las personas que aportan contenidos a internet o que han escrito libros y son accesibles públicamente o que han escrito artículos científicos de interés, por poner algunos ejemplos? ¿Representan la diversidad de países, culturas, formas de pensar que existen en el planeta?
Aspectos éticos en la utilización de la IA generativa
Una vez que el modelo de IA ha sido entrenado y convenientemente filtrado llega el momento de utilizarlo. Vamos a centrarnos aquí en el caso de los LLM, es decir modelos que proporcionan respuestas muy elaboradas a preguntas o problemas que plantea el usuario.
Desde que apareció ChatGPT ha sido fascinante ser testigo de cómo se producían simultáneamente dos críticas en principio contradictorias: una decía que el sistema era incapaz de pensar y de generar respuestas de calidad, y la otra que había que tener cuidado con lo que preguntábamos porque las respuestas podrían ser erróneas a pesar de su apariencia de correctas. La realidad es que la tecnología que ha hecho posible el GPT, hasta el punto de desarrollo que conocemos, únicamente predice la palabra siguiente más probable dado un texto inicial. Por tanto, aunque el resultado tenga una apariencia de corrección, porque la estructura, el estilo y la gramática son muy correctos, puede llegar a conclusiones erróneas o incluir datos falsos.
¿Existe un problema ético aquí? Hay críticos que consideran que una herramienta que produce resultados falsos puede confundir al usuario y llevarle a cometer acciones perjudiciales para él. La apariencia humana de las respuestas lleva a algunas personas (dicen los críticos) a utilizar ChatGPT como su psicólogo personal o incluso su confidente o amigo. Creo que deben ser casos muy excepcionales, y en todo caso deberíamos estar mucho más preocupados por el uso de internet en general, ya que puede generar interacciones con personas reales mucho más nocivas. Los usuarios deben ser responsables y entender que están usando una tecnología que tiene muchas limitaciones, por muy espectacular que sean los resultados que proporciona. El hecho de que exista ChatGPT no debe llevarnos a actuar a ciegas, como el conductor que siguiendo las indicaciones del GPS acaba atascando el coche en unas escaleras. El ser humano debe mantener siempre su pensamiento crítico y poner en cuestión todo lo que se le dice, venga de otra persona, de ChatGPT o de un GPS. La cuestión ética en este caso es la calidad de la educación que recibimos, no la existencia de estas herramientas.
Algo similar se ha planteado en el uso comercial, particularmente en aplicaciones críticas como el diagnóstico de enfermedades y la síntesis de fármacos. Los críticos insisten de nuevo en la falta de fiabilidad de un LLM y las consecuencias éticas que puede tener usar un sistema de este tipo si se diagnostica incorrectamente una enfermedad, lo cual no deja de ser sorprendente.
Es perfectamente conocido que un sistema de IA, tanto la tradicional como la generativa, no es infalible: es una herramienta que puede utilizar el médico como ayuda para el diagnóstico. La IA puede haber aprendido infinidad de síntomas y causas de las enfermedades, pero el diagnóstico final debe ser validado por un médico. Por eso la IA debe ser capaz de explicar su razonamiento y proporcionar las referencias de las fuentes que ha utilizado para llegar a su diagnóstico. Esta mejora no es tanto una solución a un problema ético como una exigencia de los profesionales de la medicina a los fabricantes de la tecnología para poder utilizarla adecuadamente. Es responsabilidad del médico elegir sus herramientas y hacer el mejor uso de ellas.
Podemos hacer exactamente el mismo razonamiento cuando utilizamos un LLM en áreas como la elaboración de contratos, la redacción de informes, la preparación de casos legales, etc. La IA es una herramienta de productividad, algo así como un empleado muy trabajador que necesita supervisión de un experto. Es lo que nos permite automatizar el 80 % del trabajo y rematarlo utilizando la experiencia y el sentido común.
Por cierto, otro debate encendido sobre las implicaciones éticas de la IA está relacionado con la posible eliminación de puestos de trabajo ante el gran aumento de productividad que puede producir la IA en empleos que antes se consideraban no mecanizables
. En este caso mi posición es clara: lo que sería inmoral es obstaculizar estos aumentos de productividad que siempre redundan en la reducción de precios, el aumento de la calidad de los servicios y, por último, la mejora del bienestar de todos los ciudadanos. Es cierto que habrá desajustes en los empleos y que la transición puede afectar duramente a muchas personas, pero si pensamos globalmente, el beneficio que se obtiene es muy superior al perjuicio, que en muchos casos será solo temporal. Por el hecho de ser trabajos de cuello blanco no podemos quemar otra vez las máquinas, especialmente los telares, como hicieron los luditas hace dos siglos2.
La generación de contenidos, especialmente de texto, también es una cuestión controvertida. Los detractores se quejan de la falta de calidad del contenido creado por los LLM y al mismo tiempo lo ven como una amenaza de su trabajo, una premisa bastante contradictoria. A través de un ejemplo práctico, si queremos realizar un contenido de calidad, como un artículo de opinión para un periódico, el LLM puede ayudarnos recopilando ideas y escribiendo un primer borrador del contenido y del análisis de fondo, similar al que redactaría un periodista (al menos de momento). Estamos ante el mismo caso que en la medicina. Por otra parte, hay contenidos de menor calidad tales como blogs, comentarios breves o incluso noticias en los que el LLM puede ser de gran ayuda y aumentar la productividad muy significativamente. Hay personas emprendedoras y habilidosas que han utilizado un LLM para generar el material de un curso y han conseguido venderlo. ¿Es algo en conflicto con la ética? En mi opinión no lo es, ya que lo único que se ha hecho es emplear una herramienta con el objetivo de ser más productivo.
Supongamos ahora que disponemos de una IA que es capaz de generar música de una gran variedad de estilos a partir de una descripción de lo que queremos, incluyendo cómo sería el ritmo, los instrumentos, los solos, y con una calidad comparable a las canciones de nuestras estrellas favoritas. Algo así supondría una revolución inmediata en el panorama musical y plantearía muchos interrogantes: ¿Debería tener el mismo valor esta música sintética que la que componen los humanos? ¿Tendría alguien derecho a cobrar lo mismo que un gran artista si consigue que la IA componga un gran tema (o ‘temazo’, como dirían algunos)? ¿Tendrán éxito estas composiciones? ¿Y qué ocurre con los derechos de autor de las canciones que se habrían utilizado para entrenar la IA?
Me parece especialmente interesante esta reflexión sobre la música, ya que es una forma directa de comunicar emociones. Por eso seguramente va a ser difícil que la IA logre triunfar porque el artista, además de la canción en sí, tiene una imagen, una forma de ser y de interpretar, tiene opiniones que transmite en las entrevistas y tiene una personalidad. Puede hacer locuras o ser filántropo, o tal vez se dedica a fabricar cerveza, como el líder de Iron Maiden. Todo eso también forma parte de los sentimientos que se generan cuando escuchamos su música.
Otra duda importante es la posibilidad de conectar la IA con el mundo físico para que pueda actuar en él. Con el estado actual de la tecnología podemos hacer que la IA haga una llamada y reserve en un restaurante o resuelva algún trámite administrativo. También podemos hacer que opere en bolsa con nuestro dinero, que maneje nuestras cuentas bancarias, que nos sorprenda con unas entradas para el fútbol. O podríamos convertirla en un hacker experto que intente entrar en los sistemas de control de las centrales eléctricas. Incluso podemos hacer que genere sus propios planes y los lleve a cabo.
Es fácil imaginar el impacto que tendría una IA conectada de esa manera. No me estoy refiriendo al ser superinteligente que dominará el mundo, asunto que abordaremos en el siguiente apartado. En el estado actual de la tecnología la IA tiene mucho de Artificial y poco de Inteligencia, a pesar de los tremendos avances, porque carece de motivación y voluntad. Por el mismo motivo también carece de capacidad para entender el daño que puede causar y, menos aún, para empatizar con los que sufren ese motivo. Es decir, sería el psicópata perfecto. Y quizá sea esta circunstancia la que plantee los mayores interrogantes éticos.
Analicemos el caso del coche autónomo. Se trata de una IA que controla un artefacto de entre una y dos toneladas que puede alcanzar entre 150 y 200 kilómetros por hora. Sin