Descubre millones de libros electrónicos, audiolibros y mucho más con una prueba gratuita

Solo €10,99/mes después de la prueba. Puedes cancelar en cualquier momento.

IA Generativa: La nueva era de la información
IA Generativa: La nueva era de la información
IA Generativa: La nueva era de la información
Libro electrónico265 páginas10 horas

IA Generativa: La nueva era de la información

Calificación: 0 de 5 estrellas

()

Leer la vista previa

Información de este libro electrónico

¿Qué supone la inteligencia artificial generativa para el sector de la información y la comunicación? ¿Qué desafíos éticos, de buenas prácticas y de derechos de propiedad intelectual encaramos? Once especialistas de ámbitos y procedencias diversas reflexionan sobre las claves, los retos y las oportunidades que supone el uso de la inteligencia artificial a medio y largo plazo, aportando una rica paleta de perspectivas y matices.

Este primer volumen de la Biblioteca Digital Journey proporciona un conjunto de análisis y materiales que servirán, sin duda, a todos aquellos que se aproximen por primera vez a las importantes transformaciones que ya está provocando la IA, y también a quienes trabajan de forma directa con esta tecnología que está llamada a revolucionar nuestra sociedad en los próximos años.
IdiomaEspañol
Fecha de lanzamiento13 nov 2024
ISBN9788412929928
IA Generativa: La nueva era de la información

Relacionado con IA Generativa

Libros electrónicos relacionados

Inteligencia (IA) y semántica para usted

Ver más

Artículos relacionados

Comentarios para IA Generativa

Calificación: 0 de 5 estrellas
0 calificaciones

0 clasificaciones0 comentarios

¿Qué te pareció?

Toca para calificar

Los comentarios deben tener al menos 10 palabras

    Vista previa del libro

    IA Generativa - David Sanz

    ÉTICA Y REGULACIÓN

    Ética para la IA

    David Sanz1

    La inteligencia artificial (IA), antaño confinada a las páginas de novelas de ciencia ficción y a las especulaciones de filósofos y científicos visionarios, ha emergido como una fuerza transformadora que impregna casi todos los aspectos de nuestra vida cotidiana. Desde los asistentes virtuales en nuestros dispositivos móviles hasta los algoritmos que deciden qué noticias leemos o qué productos compramos, la IA está redefiniendo el tejido mismo de nuestra sociedad. Nos encontramos en una encrucijada histórica, un punto de inflexión en el que debemos reflexionar profundamente sobre las implicaciones éticas de una tecnología que no solo amplifica nuestras capacidades, sino que también desafía nuestros valores más fundamentales.

    La revolución de la IA no es simplemente una cuestión tecnológica; es un fenómeno que plantea preguntas esenciales sobre lo que significa ser humano, sobre nuestra capacidad para discernir entre lo real y lo fabricado, y sobre cómo queremos que sea el mundo en el que vivimos. Por primera vez en la historia, nos enfrentamos a máquinas que no solo pueden procesar información a velocidades inimaginables, sino que también pueden aprender, adaptarse y, en cierta medida, crear. La IA tiene la capacidad de generar contenido desde cero, simulando la creatividad humana con una precisión y confianza que pueden hacernos dudar de qué es auténtico y qué es artificial.

    Este fenómeno plantea interrogantes cruciales: ¿Cómo impactará en nuestra identidad individual y colectiva una tecnología que puede tomar decisiones y generar contenido sin supervisión humana? ¿Qué responsabilidades éticas deben asumir los diseñadores, desarrolladores y usuarios de estas tecnologías? ¿Estamos preparados para las implicaciones sociales, económicas y culturales que conlleva la integración masiva de la IA en nuestras vidas?

    En este capítulo exploraremos las profundas implicaciones éticas de la inteligencia artificial, examinando los riesgos y oportunidades que presenta. Analizaremos los debates actuales en torno a la creación de contenidos, los negocios y la gestión de datos, y ofreceremos una visión de futuro que nos permita navegar éticamente en un mundo cada vez más impulsado por la IA. Mi intención es fomentar una reflexión crítica y constructiva que nos permita aprovechar al máximo el potencial de esta tecnología, al tiempo que minimizamos sus riesgos y protegemos los valores fundamentales de nuestra sociedad.

    La ética en la IA es un campo relativamente nuevo, pero con raíces profundas en la filosofía y la literatura. La imaginación humana ha anticipado durante mucho tiempo las posibilidades y peligros de crear máquinas inteligentes. Escritores como Mary Shelley con Frankenstein y, más tarde, Isaac Asimov con sus cuentos de robots, exploraron las complejidades morales de dar vida a entidades artificiales.

    Isaac Asimov en particular dejó una huella indeleble en el pensamiento sobre la ética en la IA al proponer las Tres Leyes de la Robótica en su colección de relatos Yo, Robot. Estas leyes, aunque ficticias, sentaron las bases para considerar cómo deberían comportarse las máquinas inteligentes en relación con los seres humanos:

    Un robot no debe dañar a un ser humano o, por inacción, permitir que un ser humano sufra daño.

    Un robot debe obedecer las órdenes que le sean dadas por los seres humanos, excepto si dichas órdenes entran en conflicto con la Primera Ley.

    Un robot debe proteger su propia existencia en la medida en que esta protección no entre en conflicto con la Primera o la Segunda Ley.

    Con el desarrollo de la Máquina de Turing a mediados del siglo XX, la cuestión de si una máquina puede pensar dejó de ser un mero ejercicio filosófico para convertirse en un desafío científico y tecnológico. Alan Turing, en su famoso artículo «Computing Machinery and Intelligence», propuso el «Test de Turing» como una forma de evaluar la capacidad de una máquina para exhibir un comportamiento inteligente indistinguible del de un ser humano.

    Este avance abrió la puerta a debates profundos sobre la naturaleza de la conciencia, la inteligencia y la ética en la creación de máquinas capaces de pensar. ¿Qué significa que una máquina pueda «pensar»? ¿Tenemos el derecho de crear entidades que puedan sufrir o tener experiencias conscientes? Estas preguntas siguen siendo objeto de intensa discusión en la filosofía de la mente y la ética tecnológica.

    Las Tres Leyes de la Robótica de Asimov, aunque revolucionarias en su momento, resultan insuficientes para abordar los complejos desafíos éticos que plantea la IA en la actualidad. La tecnología ha avanzado a un ritmo vertiginoso, y las aplicaciones de la IA se han expandido más allá de lo que Asimov o sus contemporáneos podrían haber imaginado.

    Por esa razón, aunque no existe un marco regulatorio global unificado, diversos países y organismos internacionales están trabajando en el desarrollo de normas y directrices para garantizar el uso ético y responsable de la IA.

    UNESCO: La Organización de las Naciones Unidas para la Educación, la Ciencia y la Cultura aprobó en 2021 la primera norma mundial sobre la ética de la IA, la «Recomendación sobre la ética de la inteligencia artificial». Este documento establece una serie de principios éticos que deben guiar el desarrollo y uso de la IA, como la protección de los derechos humanos, la transparencia, la responsabilidad y la no discriminación.

    Unión Europea: La Unión Europea ha presentado propuestas legislativas para regular la IA, con un enfoque en los sistemas de IA de alto riesgo. Estas propuestas buscan garantizar la seguridad, la transparencia y la no discriminación de los sistemas de IA que se utilizan en áreas sensibles como la justicia, la contratación y la gestión de infraestructuras críticas.

    OCDE: La Organización para la Cooperación y el Desarrollo Económicos ha desarrollado una serie de principios para la IA, que incluyen la gobernanza inclusiva, la sostenibilidad, el respeto a los valores democráticos y el bienestar humano.

    Los Principios de Asilomar: Guía elaborada por expertos en la materia que recoge 23 principios éticos para la investigación en inteligencia artificial

    La ética y la inteligencia artificial son un campo en constante evolución. Es fundamental que los desarrolladores, los gobiernos, la sociedad civil y todas las partes interesadas trabajen juntos para garantizar que la IA se desarrolle y utilice de manera responsable y beneficiosa para todos.

    Desde la aparición de la Inteligencia Artificial Generativa, los LLMs (Large Language Models o grandes modelos del lenguaje), y en especial con el lanzamiento de ChatGPT al gran público, el debate sobre los aspectos éticos de la inteligencia artificial ha adquirido una dimensión y una complejidad mucho mayores. Los aspectos éticos de los tradicionales sistemas de Machine Learning (aprendizaje de máquina) se reducían generalmente a la transparencia para poder explicar de forma sencilla cómo se generan las respuestas y a la eliminación de sesgos, muy relacionado con el aspecto anterior, para garantizar que los datos de entrenamiento sean neutros.

    Los nuevos modelos plantean retos mucho más complejos que muchas veces se plantean de forma exagerada, confundiendo la realidad de la tecnología actual con la futura y el entrenamiento de los modelos con su uso. Por eso es necesario abordar esta cuestión estructurándola en tres áreas:

    Entrenamiento de la IA, con foco en los aspectos más relacionados con la propiedad intelectual y el posible sesgo que pueden contener los datos utilizados.

    Utilización de la IA: abordar el impacto puede generar las respuestas de la IA generativa, su posible uso comercial y las consecuencias de que la IA pueda actuar, por ejemplo, llamando a una API o conectándola a algún mecanismo, como el caso de los coches autónomos.

    La IA general: se analizan algunos aspectos éticos de lo que podría venir en el futuro, cuando los sistemas de IA tengan capacidad real para pensar.

    Aspectos éticos en el entrenamiento de la IA generativa

    Una de las características de estos modelos generativos es la ingente cantidad de datos que necesitan para generar buenos resultados. Damos por sentado que estos datos se han obtenido todos de fuentes públicas (aunque se han suscitado dudas al respecto). El problema ético que se plantea aquí es el siguiente: OpenAI, por poner un caso conocido, está cobrando por utilizar el servicio de ChatGPT. Sin embargo, los autores que han publicado contenidos que han sido usados en el entrenamiento de ChatGPT no reciben ninguna compensación. La cuestión es ¿deberían recibirla?

    Podemos pensar que el trabajo de un autor, aunque lo haya puesto a disposición del público en internet, debería ser compensado si se utiliza con fines comerciales. ¿Qué sucede entonces cuando este trabajo se busca con Google y se aprovecha su contenido? Aclaremos que no se trata de hacer plagio y vender el resultado, sino de inspirarse en un contenido para crear otro. De alguna forma es lo que hace ChatGPT a partir de la enorme inversión que ha realizado OpenAI en su desarrollo, entrenamiento y puesta a disposición del público y las empresas.

    Un caso interesante es el de Reddit, que llegó a un acuerdo con OpenAI para poder utilizar todo su contenido para el entrenamiento de ChatGPT. Recordemos que este contenido en realidad lo generan los usuarios de Reddit que aparentemente no se benefician de dicho acuerdo.

    Otra cuestión ética que plantea el uso de una cantidad tan grande de contenidos es si cualquier contenido debe o no utilizarse para entrenar un LLM o un generador de imágenes y películas. ¿Deben las grandes empresas de IA ser obligadas a restringir los contenidos si expresan opiniones que casi todos rechazamos o si incluyen imágenes pornográficas? La realidad es que, probablemente por motivos de imagen corporativa, todas estas grandes empresas se autolimitan y filtran este tipo de contenidos tanto a priori como a posteriori, una vez está entrenado el modelo. Desde mi punto de vista, creo que no debería existir una ley que obligue. Es una decisión de la empresa que ofrece el servicio definir qué tipo de contenidos utiliza y del usuario elegir qué servicio utilizar.

    Aún en el caso de que se apliquen filtros, el entrenamiento con fuentes públicas puede crear ciertos sesgos en el resultado. ¿Cuál es el perfil de las personas que aportan contenidos a internet o que han escrito libros y son accesibles públicamente o que han escrito artículos científicos de interés, por poner algunos ejemplos? ¿Representan la diversidad de países, culturas, formas de pensar que existen en el planeta?

    Aspectos éticos en la utilización de la IA generativa

    Una vez que el modelo de IA ha sido entrenado y convenientemente filtrado llega el momento de utilizarlo. Vamos a centrarnos aquí en el caso de los LLM, es decir modelos que proporcionan respuestas muy elaboradas a preguntas o problemas que plantea el usuario.

    Desde que apareció ChatGPT ha sido fascinante ser testigo de cómo se producían simultáneamente dos críticas en principio contradictorias: una decía que el sistema era incapaz de pensar y de generar respuestas de calidad, y la otra que había que tener cuidado con lo que preguntábamos porque las respuestas podrían ser erróneas a pesar de su apariencia de correctas. La realidad es que la tecnología que ha hecho posible el GPT, hasta el punto de desarrollo que conocemos, únicamente predice la palabra siguiente más probable dado un texto inicial. Por tanto, aunque el resultado tenga una apariencia de corrección, porque la estructura, el estilo y la gramática son muy correctos, puede llegar a conclusiones erróneas o incluir datos falsos.

    ¿Existe un problema ético aquí? Hay críticos que consideran que una herramienta que produce resultados falsos puede confundir al usuario y llevarle a cometer acciones perjudiciales para él. La apariencia humana de las respuestas lleva a algunas personas (dicen los críticos) a utilizar ChatGPT como su psicólogo personal o incluso su confidente o amigo. Creo que deben ser casos muy excepcionales, y en todo caso deberíamos estar mucho más preocupados por el uso de internet en general, ya que puede generar interacciones con personas reales mucho más nocivas. Los usuarios deben ser responsables y entender que están usando una tecnología que tiene muchas limitaciones, por muy espectacular que sean los resultados que proporciona. El hecho de que exista ChatGPT no debe llevarnos a actuar a ciegas, como el conductor que siguiendo las indicaciones del GPS acaba atascando el coche en unas escaleras. El ser humano debe mantener siempre su pensamiento crítico y poner en cuestión todo lo que se le dice, venga de otra persona, de ChatGPT o de un GPS. La cuestión ética en este caso es la calidad de la educación que recibimos, no la existencia de estas herramientas.

    Algo similar se ha planteado en el uso comercial, particularmente en aplicaciones críticas como el diagnóstico de enfermedades y la síntesis de fármacos. Los críticos insisten de nuevo en la falta de fiabilidad de un LLM y las consecuencias éticas que puede tener usar un sistema de este tipo si se diagnostica incorrectamente una enfermedad, lo cual no deja de ser sorprendente.

    Es perfectamente conocido que un sistema de IA, tanto la tradicional como la generativa, no es infalible: es una herramienta que puede utilizar el médico como ayuda para el diagnóstico. La IA puede haber aprendido infinidad de síntomas y causas de las enfermedades, pero el diagnóstico final debe ser validado por un médico. Por eso la IA debe ser capaz de explicar su razonamiento y proporcionar las referencias de las fuentes que ha utilizado para llegar a su diagnóstico. Esta mejora no es tanto una solución a un problema ético como una exigencia de los profesionales de la medicina a los fabricantes de la tecnología para poder utilizarla adecuadamente. Es responsabilidad del médico elegir sus herramientas y hacer el mejor uso de ellas.

    Podemos hacer exactamente el mismo razonamiento cuando utilizamos un LLM en áreas como la elaboración de contratos, la redacción de informes, la preparación de casos legales, etc. La IA es una herramienta de productividad, algo así como un empleado muy trabajador que necesita supervisión de un experto. Es lo que nos permite automatizar el 80 % del trabajo y rematarlo utilizando la experiencia y el sentido común.

    Por cierto, otro debate encendido sobre las implicaciones éticas de la IA está relacionado con la posible eliminación de puestos de trabajo ante el gran aumento de productividad que puede producir la IA en empleos que antes se consideraban no mecanizables. En este caso mi posición es clara: lo que sería inmoral es obstaculizar estos aumentos de productividad que siempre redundan en la reducción de precios, el aumento de la calidad de los servicios y, por último, la mejora del bienestar de todos los ciudadanos. Es cierto que habrá desajustes en los empleos y que la transición puede afectar duramente a muchas personas, pero si pensamos globalmente, el beneficio que se obtiene es muy superior al perjuicio, que en muchos casos será solo temporal. Por el hecho de ser trabajos de cuello blanco no podemos quemar otra vez las máquinas, especialmente los telares, como hicieron los luditas hace dos siglos2.

    La generación de contenidos, especialmente de texto, también es una cuestión controvertida. Los detractores se quejan de la falta de calidad del contenido creado por los LLM y al mismo tiempo lo ven como una amenaza de su trabajo, una premisa bastante contradictoria. A través de un ejemplo práctico, si queremos realizar un contenido de calidad, como un artículo de opinión para un periódico, el LLM puede ayudarnos recopilando ideas y escribiendo un primer borrador del contenido y del análisis de fondo, similar al que redactaría un periodista (al menos de momento). Estamos ante el mismo caso que en la medicina. Por otra parte, hay contenidos de menor calidad tales como blogs, comentarios breves o incluso noticias en los que el LLM puede ser de gran ayuda y aumentar la productividad muy significativamente. Hay personas emprendedoras y habilidosas que han utilizado un LLM para generar el material de un curso y han conseguido venderlo. ¿Es algo en conflicto con la ética? En mi opinión no lo es, ya que lo único que se ha hecho es emplear una herramienta con el objetivo de ser más productivo.

    Supongamos ahora que disponemos de una IA que es capaz de generar música de una gran variedad de estilos a partir de una descripción de lo que queremos, incluyendo cómo sería el ritmo, los instrumentos, los solos, y con una calidad comparable a las canciones de nuestras estrellas favoritas. Algo así supondría una revolución inmediata en el panorama musical y plantearía muchos interrogantes: ¿Debería tener el mismo valor esta música sintética que la que componen los humanos? ¿Tendría alguien derecho a cobrar lo mismo que un gran artista si consigue que la IA componga un gran tema (o ‘temazo’, como dirían algunos)? ¿Tendrán éxito estas composiciones? ¿Y qué ocurre con los derechos de autor de las canciones que se habrían utilizado para entrenar la IA?

    Me parece especialmente interesante esta reflexión sobre la música, ya que es una forma directa de comunicar emociones. Por eso seguramente va a ser difícil que la IA logre triunfar porque el artista, además de la canción en sí, tiene una imagen, una forma de ser y de interpretar, tiene opiniones que transmite en las entrevistas y tiene una personalidad. Puede hacer locuras o ser filántropo, o tal vez se dedica a fabricar cerveza, como el líder de Iron Maiden. Todo eso también forma parte de los sentimientos que se generan cuando escuchamos su música.

    Otra duda importante es la posibilidad de conectar la IA con el mundo físico para que pueda actuar en él. Con el estado actual de la tecnología podemos hacer que la IA haga una llamada y reserve en un restaurante o resuelva algún trámite administrativo. También podemos hacer que opere en bolsa con nuestro dinero, que maneje nuestras cuentas bancarias, que nos sorprenda con unas entradas para el fútbol. O podríamos convertirla en un hacker experto que intente entrar en los sistemas de control de las centrales eléctricas. Incluso podemos hacer que genere sus propios planes y los lleve a cabo.

    Es fácil imaginar el impacto que tendría una IA conectada de esa manera. No me estoy refiriendo al ser superinteligente que dominará el mundo, asunto que abordaremos en el siguiente apartado. En el estado actual de la tecnología la IA tiene mucho de Artificial y poco de Inteligencia, a pesar de los tremendos avances, porque carece de motivación y voluntad. Por el mismo motivo también carece de capacidad para entender el daño que puede causar y, menos aún, para empatizar con los que sufren ese motivo. Es decir, sería el psicópata perfecto. Y quizá sea esta circunstancia la que plantee los mayores interrogantes éticos.

    Analicemos el caso del coche autónomo. Se trata de una IA que controla un artefacto de entre una y dos toneladas que puede alcanzar entre 150 y 200 kilómetros por hora. Sin

    ¿Disfrutas la vista previa?
    Página 1 de 1