Inteligencia Artificial
Inteligencia Artificial
Inteligencia Artificial
Cada vez que jugamos un videojuego contra una computadora, estamos frente a un sistema
programado con reglas y estrategias para derrotarnos. Cada vez que una plataforma de música o
video (como YouTube, Spotify o Netflix) nos da alguna recomendación, por detrás hay un programa
que aprende nuestros gustos y costumbres para entregar respuestas más pertinentes. Cada vez que
subimos una foto a Facebook hay una serie de algoritmos que permiten a esa red social reconocer
qué personas están en ella para poder etiquetarlas automáticamente. Todos estos son ejemplos
cotidianos de esta disciplina.
El término “Inteligencia Artificial” fue acuñado formalmente en 1956 por John McCarthy, Marvin
Minsky y Claude Shannon durante la Conferencia de Darthmounth, aunque años atrás Alan Turing ya
había realizado grandes avances en el campo. Él fue quien diseñó el primer programa de ajedrez por
computadora y el experimento que hoy se conoce como Test de Turing, utilizado para comprobar el
comportamiento inteligente de una máquina.
Transcurrido más de medio siglo de desarrollo, la Inteligencia Artificial (o AI, por sus iniciales en
inglés) hoy en día ya no es monopolio de matemáticos, y se caracteriza por ser un campo
multidisciplinario: tanto la computación como la lógica, la filosofía y otras ramas de la ciencia
abordan problemáticas vinculadas a ella, y generalmente lo hacen en conjunto. Esta diversidad de
enfoques, sumada al hecho de que aún es un estudio relativamente nuevo, genera que no sea fácil
acordar una definición de Inteligencia Artificial. No es lo mismo, por ejemplo, plantear el objetivo de
que las máquinas actúen como las personas, resaltando el resultado de una acción,
independientemente de los procesos que lleven a ella -como es el caso de la Robótica-, a proyectar
que razonen como ellas, resaltando justamente lo opuesto, imitar procesos pero no resultados,
como el caso de las Redes Neuronales. Ambas son propuestas válidas para definir Inteligencia
Artificial.
Por otro lado, a medida que va evolucionando el campo de estudio aparece, además, una
clasificación basada en cuáles son los objetivos finales de la investigación en AI:
Más allá de la factibilidad de desarrollar una Inteligencia Artificial Fuerte, no se puede negar que las
aplicaciones concretas de la AI están creciendo día a día, resolviendo problemas cada vez más
complejos y variados. Sumadas al aumento del poder de procesamiento y a la disminución de su
costo, estrategias como el Machine Learning, o Aprendizaje Automático, aprovechan el gran
volumen de datos que hay disponible hoy en día para generar sistemas cada vez más inteligentes. En
la actualidad hay ciudades que están implementando semáforos que se adaptan al volumen de
tráfico para modificar los tiempos de las luces; encontramos sistemas basados en Redes Neuronales
que han aumentado considerablemente las posibilidades de detectar tumores de forma temprana;
hay desarrollos que ayudan a predecir la evolución de plagas y optimizar el manejo de cultivos. Y los
ejemplos podrían seguir: la tendencia de incorporar Inteligencia Artificial en muchas de las prácticas,
procesos y costumbres que nos afectan día a día es más que clara, y no hay duda que apenas hemos
visto solo una pequeña parte de sus posibles aplicaciones.
El origen de la inteligencia artificial es muy antiguo. Se remonta al 300 a.C. y aunque, por
aquel entonces era impensable pensar en un concepto de tal magnitud, los siguientes
hechos de la historia tuvieron un peso importante en su desarrollo.
En 1637, uno de los filósofos más influyentes del siglo XVII predijo la posibilidad de crear
máquinas que pensasen por sí mismas. Esta figura se trataba de René Descartes.
Después de años de parón en este sentido, en 1847, el matemático George Boole puso un
componente más a esta historia, estableciendo que el razonamiento lógico podría
sistematizarse, de igual forma que se resuelve una ecuación matemática.
30 años más tarde, Gottlob Frege a partir de los estudios de Boole obtiene la Lógica de
Primer Orden, la cual contaba con mayor énfasis y una mejor expresión. Actualmente se
sigue tomando como referencia.
La inteligencia artificial no sería lo que es sin la tecnología y, no hay nada más futurista que
los robots. La primera vez que se acuñó la esta disruptora palabra fue en el año 1921
por Karel Čapek en su obra de teatro R.U.R.
Siguiendo este hilo, en 1936 entra en juego el que hoy en día se considera como uno de los
padres de la tecnología de la información, Allan Turing. Este matemático introdujo el
concepto de algoritmo a través de su artículo “Computing machinery and intelligence”
mediante el cual sentó las bases de la informática moderna.
A través del cual, surge el conocido Test de Turing, una prueba de comunicación verbal
hombre máquina que evalúa la capacidad de la tecnología de hacerse pasar por los seres
humanos.
5 años más tarde (1941), se crea el primer ordenador de la historia moderna, un dispositivo
programable y automático, el cual fue bautizado como Z3. El mérito de este invento se le
atribuye a Konrad Zuse.
Ese mismo año, con una mayor innovación, eficiencia y cada vez más cerca de la
inteligencia artificial, Isaac Asimov, en su escrito de ciencia ficción “Círculo Vicioso”
argumenta las leyes de la robótica, aquellas que todo robot debe cumplir. Estas son:
Nacimiento y evolución
Estos tres científicos plantearon hipótesis para los próximos años que situaban la tecnología
y la inteligencia artificial como algo que conviviría con los seres humanos. Lo cierto es que
no fue así, el desarrollo de este novedoso concepto se producirá lentamente y no es hasta
la década de los 90 hasta que empieza a adoptarse como lo conocemos hoy en día.
En esta transición, otro aspecto que contribuiría al desarrollo de la inteligencia artificial fue el
diseño de la primera red neuronal artificial en el año 1957. Este hecho se le atribuye a Frank
Rosenblatt.
ELIZA fue el otro punto de inflexión en el desarrollo de la inteligencia artificial. Este proyecto
desarrollado por Joseph Weizenbaum (1966) en el Massachussets Institute of Technology
(MIT) y es considerado el primer chatbot.
En 1970 se avecina el primer invierno de la inteligencia artificial, que supone una pérdida de
financiación para tratar el tema básicamente porque las expectativas que se habían
planteado no se cumplieron.
Otro de los hitos que supuso un punto de inflexión se produjo en 1973 cuando se creó
“Wave” el primer lenguaje de programación para robots.
Los 90, la IA coge impulso.
Después de unos años de tímido desarrollo, en el año 1990 la inteligencia artificial volvió a
coger impulso y comenzaría lo que se conoce como la edad de oro de la IA. Esto se debe,
en parte, al repentino desarrollo de la tecnología que afectaba directamente a las industrias.
Un hecho realmente importante se produjo en el año 1997, cuando la multinacional IBM dio
a conocer a Deep Blue, un ordenador provisto de IA, capaz de ganar en una partida de
ajedrez al campeón del mundo Gari Kaspárov.
En esta época también surgen los agentes inteligentes, capaces de percibir su entorno y
actuar de manera racional. En términos de computación, esto puede usarse para referirse a
un agente de software inteligente.
IBM también quiso seguir actualizando sus procesos. Por eso, en 2011 presentó a Watson,
un ordenador que seguía la metodología de Deep Blue y que consiguió ganar el concurso
de preguntas y respuestas “Jeopardy!” superando con creces a la mente humana.
Sin embargo, uno de los acontecimientos más reseñables del siglo XXI en relación a la IA
se produjo en el año 2014, cuando un bot computacional llamado Eugene Goostman
consiguió superar el Test de Turing, engañando a 30 de los 150 haciéndoles creer que
estaban hablando con un niño ucraniano de 13 años y no con una máquina.
Siguiendo la línea temporal, en 2015, AlphaGo se convirtió en la primera máquina en ganar
a un jugador profesional del milenario juego oriental Go. Un verdadero reto para la máquina,
puesto que este juego plantea una gran complejidad.
Algunos avances de peso que tienen que ver con la inteligencia artificial son:
Traducciones.
Asistentes digitales.
Respuestas automatizadas.
Vehículos autónomos.
Clasificación de imágenes.
Conversión de texto a diálogo y viceversa.
Aunque parezca mentira, esto solo es la punta del iceberg. La inversión en IA ha aumentado
considerablemente y estamos seguros que en los próximos años seremos testigos de lo que
es realmente capaz.
Bastante contrariado por lo ocurrido con tus emails, te montas en tu carro. Vas a tu primera
reunión con aquel cliente tan importante, con el que pretendes cerrar
una venta extraordinaria.
Te bajas pensando: “Si el carro tuviera alguna función que me ayudara a estacionar...
Además, parece que va a llover. No leí el pronóstico del tiempo. Sería ideal poderle
preguntar al teléfono si debo usar paraguas o no”.
Como seguramente sabes, para cada uno de los problemas de tu día imaginario existe una
solución. En el caso de los correos spam, la mayoría no va a tu bandeja principal gracias al
uso del Machine Learning.
El Google Maps te ayuda a llegar de forma rápida a cualquier dirección, mientras que
los sensores de estacionamiento contribuyen para que puedas estacionar de una forma
más ágil y segura.
Si te interesa saber cómo surgió la IA, cómo se ha posicionado con tanta fuerza en el
mercado y cuáles son sus perspectivas; continúa leyendo. Hablaremos también de la
importancia que tiene para tu empresa la utilización de la IA.
Existen varios criterios para clasificar la inteligencia artificial. Uno de ellos la divide en dos
grandes tipos: Inteligencia Artificial Débil e Inteligencia Artificial Fuerte.
La inteligencia artificial, ya sea débil o fuerte, está presente en muchas de las facetas de
nuestras vidas. ¿Cómo ha sido el camino para llegar hasta aquí? A continuación te lo
mostraremos.
Es cierto que estos ejemplos pertenecen al campo de la ficción. Sin embargo, han servido
como inspiración a numerosos investigadores en su búsqueda incesante por el surgimiento
y consolidación de la inteligencia artificial.
Origen IA
Durante las décadas del 30 y del 40 del siglo XX se publican los primeros trabajos que
abordan de alguna manera la inteligencia artificial. Es importante señalar que todavía no
existía oficialmente el término IA.
Un logro extraordinario gestado por Alan Turing en los orígenes de la inteligencia artificial es
la construcción del primer computador electromecánico en el año 1940.
Etapa Primaria (1956-1970)
Allen Newell y Herbert Simon se destacan dentro de esta tendencia. En su afán de alcanzar
un modelo de representación del conocimiento humano, crearon la técnica más importante
de representación: las reglas de producción.
Por otro lado, los investigadores que formaban parte de la tendencia conexionista también
produjeron trabajos relevantes en esta primera etapa. Un ejemplo es el Perceptrón,
desarrollado por Frank Rosenblatt en 1959.
El Perceptrón es una unidad neuronal artificial que se puede entrenar mediante reglas de
aprendizaje supervisado, no supervisado y por reforzamiento.
En esta primera etapa, a pesar de crearse las bases para el desarrollo posterior, las
investigaciones de ambas tendencias tuvieron una limitación en común: promovieron
expectativas exageradas.
Etapa de Prototipos(1971-1981)
Al profundizar en el análisis descubren que en muchas de las técnicas propuestas por los
iniciadores de la IA faltaba la consideración de un elemento muy importante:
el conocimiento heurístico.
Estos y otros prototipos tuvieron éxito en los campos para los cuales fueron diseñados. Por
consiguiente, atrajeron la atención de los inversionistas. Pero ya eso es un tema a tratar en
la próxima etapa.
La etapa que transcurre entre 1981 y la actualidad ha sido denominada como la etapa de
difusión industrial. Esto se debe al hecho de que los prototipos salen de los laboratorios y
universidades para entrar en el mundo de la producción y el mercado.
En el contexto de esta especie de fiebre de difusión de la inteligencia artificial, no se ha
tenido el mismo entusiasmo para el financiamiento de la investigación básica.
Entre los dominios de aplicación de la inteligencia artificial que más se han beneficiado con
inversiones e investigación en en esta tercera etapa se encuentran los sistemas expertos y
las bases de datos inteligentes.
Un ejemplo de sistema experto desarrollado en esta etapa es el R1 / XCON. Este sistema
posee la funcionalidad de elegir un software específico para generar un sistema informático
acorde a las preferencias del usuario.
Con el inicio de la tercera etapa de la inteligencia artificial en la década de los 80 del siglo
pasado surge también el concepto de Base de Datos Inteligentes. Es un concepto
renovador que trasciende al simple almacenamiento de información.
Una base de datos inteligente es un sistema que administra la información de una forma
que parece natural ante los ojos de los clientes. Tiene un carácter interactivo. Es mucho
más que un mantenimiento ordenado de registros.
Las perspectivas casi ilimitadas de la inteligencia artificial han propiciado que se abra un
necesario debate sobre responsabilidad ética. Una tecnología de tanta complejidad e
impacto debe ser manejada bajo sólidos valores humanos.
Se debaten temas como la prudencia, la fiabilidad y la rendición de cuentas. La
responsabilidad humana sobre la inteligencia artificial y la necesaria limitación de autonomía
de estos sistemas también se integran al debate.
No puede faltar en este debate ético el papel que desempeña el ser humano en cada uno
de los procesos que involucran a la Inteligencia artificial. Hasta hoy la inteligencia artificial
no ha conseguido superar a la humana.
Zendesk te ofrece una herramienta de inteligencia artificial de gran utilidad, con la que
puedes estar presente las 24 horas en la vida del cliente y brindarle de manera automática
soluciones a problemáticas complejas.
Con Zendesk Chat, un software de chat en vivo, les dirás adiós a las demoras innecesarias
y conseguirás mejorar de forma significativa la experiencia de tu cliente.
Como comenté en mi anterior artículo, deseo mostrar a continuación adónde nos conduce la
AI en el futuro. Sin embargo, en primer lugar es preciso describir cómo ha evolucionado la
IA a lo largo de su corta vida. He escrito tres artículos que desarrollan esta cuestión. En el
primer artículo, perfilo brevemente el contexto de fondo describiendo lo que se ha logrado
hasta el comienzo del nuevo milenio. En el siguiente artículo, describo el impacto que han
tenido en los últimos 20 años los paradigmas de aprendizaje de máquina tales como los
algoritmos genéticos y las redes neuronales. Finalmente, en el tercer artículo, esbozo nuestro
futuro en un mundo dominado por la IA.
No obstante, los IKBS presentaban algunos defectos, por ej., su incapacidad de aprender y,
en algunos casos, la estrechez percibida de su enfoque. La capacidad de aprender resulta
importante ya que los IKBS deben actualizarse con regularidad. Realizar esta tarea de forma
manual consume muchísimo tiempo. Actualmente, las técnicas de aprendizaje de máquina en
IA han madurado para permitir que los sistemas aprendan sin ayuda y con intervención
humana escasa o incluso nula. Los sistemas IKBS tiene un enfoque estrecho ya que no tienen
la posibilidad de aprovechar el conocimiento basado en el “sentido común” que posee un
experto humano. Esto significa que muchos de estos sistemas eran muy competentes a la hora
de resolver problemas en márgenes muy estrechos de sus respectivos campos de
conocimiento pero cuando se enfrentaban a un problema inusual que requería
conocimiento vinculado al sentido común, colapsaban. Los expertos en IA se dieron
cuenta de que los sistemas expertos carecían del sentido común que los seres humanos
adquirimos desde el día en que nacemos. Se trataba de un importante impedimento para el
éxito de la IA, ya que dichos sistemas se consideraban “frágiles”.
Por esta razón, para intentar resolver este problema se desarrollaron diversos proyectos. El
primero fue el proyecto CYC (Lenat y Guha, 1991). Se trataba de un proyecto de IA muy
ambicioso que intentaba representar el conocimiento relacionado con el sentido común de
manera explícita ensamblando una ontología de los conceptos familiares respecto al sentido
común, El propósito de CYC era permitir que las aplicaciones de IA llevaran a cabo
razonamientos aplicando el sentido común como los seres humanos. Sin embargo, el
proyecto CYC tenía ciertas deficiencias, una de las cuales estaba relacionada con las
ambigüedades del lenguaje humano. Otros enfoques más recientes se basan en lo que ha dado
en denominarse “big data”, utilizando en ocasiones un modelo de fuente abierta para capturar
datos en la Web. Por ejemplo, ConceptNet captura conocimiento basado en el sentido común
conteniendo un montón de elementos que los ordenadores deberían conocer acerca del mundo
y permitiendo que los usuarios introduzcan conocimientos de forma adecuada.
REFERENCIAS
Lenat, D. y Guha, D. Building Large Knowledge Based Systems. Addison Wesley. 1991.
Newall, A., y Simon, H. A. Human problem solving. Englewood Cliffs, N. J.: Prentice-Hall,
1971.