Inteligencia Artificial Pasado, Presente y Futuro.

Descargar como pdf o txt
Descargar como pdf o txt
Está en la página 1de 11

Introducción a la Inteligencia Artificial.

La Inteligencia Artificial (IA) o Inteligencia computacional es la simulación de


procesos de inteligencia humana por parte de máquinas. Estos procesos incluyen
aquellos capaces de aprender, razonar y mejorarse por sí mismos.

Evolución de la I.A. en el último siglo.

Los inicios de la Inteligencia Artificial se remontan al año 1936, cuando un


matemático británico llamado Alan Turing creó una máquina capaz de hacer
cálculos que hubiesen sido formalmente definidos y que se pudiesen adaptar a
distintos escenarios. Sin embargo, no fue hasta 1950, cuando Turing escribió
“Computing Machinery and Intelligence” cuando la IA comenzó a adquirir mayor
fama. Seis años más tarde John McCarthy, Marvin Minsky y Claude Shannon
(padre de la teoría de la información) acuñaron el término “Inteligencia Artificial” en
la conferencia de Darthmouth, para hablar de la “ciencia de hacer a las máquinas
inteligentes, en especial aplicaciones de cálculo inteligentes”. Estos tres científicos
previeron que en la década de los 70 la IA inundaría las vidas de la población. No
fue así. Se produjo una ralentización del progreso de estas tecnologías,
principalmente por el tiempo que tardaban en ejecutarse los algoritmos y las pocas
aplicaciones evidentes que tenían. En la década de los 90 y principios de siglo XXI
llegaría la expansión de la inteligencia artificial, originada por dos motivos: por un
lado, se produjo un aumento de la capacidad computacional de los ordenadores;
por otro lado, la digitalización produjo ingentes cantidades de datos que podían ser
procesados para obtener valor de ellos.

Se produjo una inversión sin precedentes de empresas tecnológicas, al ver que


aplicando analítica y algoritmos sobre datos se podrían obtener productos,
servicios e insights que aportasen valor a las empresas y a la sociedad. Esta
inversión hizo que se desarrollasen nuevas tecnologías y relanzó el progreso.

En el año 1997 un ordenador de IBM llamado Deep Blue venció en una partida de
ajedrez al campeón del mundo Gary Kaspárov, consagrando a la IA.
Presente y futuro

Como se ha comentado, inicialmente había dos obstáculos, la capacidad de


cómputo y los datos. El problema de la capacidad de cómputo ya está superado
por medio de la escalabilidad vertical (hacer los ordenadores más potentes,
siguiendo la Ley de Moore), y posteriormente por medio de la escalabilidad
horizontal (haciendo que varios ordenadores computen como uno solo).

Lenguaje, creatividad y emoción

Desde el origen de la IA como disciplina hasta nuestros días se ha especulado


sobre la posibilidad de que las máquinas sean capaces de replicar
comportamientos humanos tales como el lenguaje, la creatividad o las emociones.
La posibilidad de que una máquina o un programa de ordenador adapte sus
comportamientos hasta el punto de hacerlos indistinguibles de los de un humano
fue propuesta en 1950 por Alan Turing en su trabajo “The Imitation Game”, obra
que incluía su famoso “Test de Turing”.

El “Test de Turing” es una prueba diseñada para evaluar el grado de inteligencia


de un programa de ordenador.

En las versiones modernas de la prueba, el ejercicio consistía en lo siguiente: un


concursante, que puede ser un humano o un programa de ordenador, mantiene
una conversación con un juez. Ambos, juez y concursante, están en habitaciones
separadas, sin que exista un contacto visual. El papel del juez es realizar
preguntas al concursante con el fin de desafiar su inteligencia y, en base a la
coherencia de las respuestas del concursante, determinar si se trata de un
humano o no. Aunque en la actualidad hay muchos programas que han
conseguido superar el “test de Turing”, el éxito de estos robots se basa en tratar,
mediante su programación previa, de engañar a su interlocutor (el juez), de modo
que no se pueda decir que sean programas completamente inteligentes, sino que
simplemente cumplen con la función para la que fueron programados, sin que se
dé una interacción completamente bidireccional entre las dos partes.
No obstante, el avance en la habilidad de las máquinas para mantener
conversaciones con humanos, así como para interpretar sus preguntas y
respuestas en el contexto de una conversación es notorio.

En las ciencias informáticas la capacidad para entender y procesar la capacidad


de una máquina de entender a su interlocutor humano (sea cual sea la lengua que
emplee) se conoce como Procesamiento del Lenguaje Natural o NLP por sus
siglas en inglés (Natural Language Processing).

El NLP se aplica tanto a conversaciones habladas como a textos. Es decir, los


programas con capacidades para el NLP pueden leer, escuchar, interpretar y
replicar a los humanos que se dirijan a ellos hablando o escribiendo. También
pueden aplicar sus habilidades a grandes cantidades de texto.

La IA comienza categorizando el contenido, busca el tema de la conversación o


del texto, interpreta el sentimiento general del contenido, si es necesario
transforma el audio en texto, realiza un resumen de la conversación y, finalmente,
traduce todo ello al lenguaje de máquina.

Una vez finalizado el proceso, si es necesario, realiza el proceso a la inversa para


responder a su interlocutor humano.

IA como Watson de IBM son capaces de aprender idiomas con facilidad, leer
largos textos o interactuar con humanos en el idioma que estos elijan.

Productos como Amazon Echo, con su inteligencia artificial Alexa, Siri de Apple,
Cortana de Microsoft, pueden reconocer voces humanas para realizar las tareas
que les encomienden.

Las grandes tecnológicas están invirtiendo en desarrollar IA con motores de NLP


tan avanzados que pasarían un “test de Turing”.

Es el caso de la nueva iteración de Google Assistant presentado en mayo de


2018. Esta nueva versión permite realizar llamadas de teléfono sin que el
interlocutor sea capaz de imaginarse que en realidad está hablando con una
máquina.
El uso correcto del lenguaje implica cierta capacidad para ser creativo. En 2016,
Watson fue usado para crear el tráiler de la película de terror Morgan, después de
analizar los componentes visuales y sonoros de cientos de películas de terror.

El problema con la creatividad o, mejor dicho, sus atributos (novedad, sorpresa y


utilidad) es que son totalmente subjetivos.

En este momento es posible enseñarle a una IA lo que consideramos novedoso,


inesperado, útil, bonito, o cualquier otro adjetivo, pero la IA difícilmente puede
decidirlo por sí misma y que coincida con nuestros criterios.

Dicho esto, y reduciendo la cuestión de la creatividad a una cuestión de


posibilidad, las IA de hoy en día son capaces de componer música, pintar cuadros,
o escribir textos.

Aunque el uso del lenguaje o la capacidad para la creatividad son unos de los
componentes de la experiencia humana, hay muchos otros más importantes.

Por ejemplo, los sentimientos. Los “test de Turing” partían de la preconcepción de


que el uso correcto del lenguaje implica la existencia de una inteligencia humana o
de una simulación de esta. Sin embargo, los sentimientos o emociones implican
un nivel superior de conciencia propio solamente de los humanos.

Aunque aún parece que no son capaces de simular emociones y por lo tanto sentir
y ser autoconscientes, en la actualidad las IA pueden reconocer patrones de
comportamiento mediante los cuales pueden identificar emociones en sus
interlocutores humanos.

Por ejemplo, Affectiva, una compañía fundada en 2009 en el seno del MIT, cuya
tecnología ha sido utilizada para ayudar en campañas de marketing o políticas.

El motor de Affectiva funciona analizando factores como la fisonomía facial del


interlocutor humano, el tono de su voz o sus gestos, así como las palabras
utilizadas y el contexto en el que son pronunciadas o escritas.

Estas prácticas se encuadran en una nueva disciplina denominada Inteligencia


Emocional Artificial, la siguiente frontera en el desarrollo de la IA.
Redes Neuronales Artificiales

Inspirándose en el comportamiento del cerebro humano (principalmente el referido


a las neuronas y sus conexiones), tratan de crear modelos artificiales que
solucionen problemas difíciles de resolver mediante técnicas algorítmicas
convencionales.

El proceso de sinapsis establece la posibilidad de “transmisión de información”


entre unas neuronas y otras (desde las terminaciones en las que se ramifica el
axón de una neurona hacia las dendritas de otra); cuando el estímulo (o impulso
eléctrico) llega a un terminal nervioso, hace que el nervio libere
neurotransmisores.

Dependiendo del tipo de neurotransmisor liberado, las neuronas receptoras


pueden excitarse o inhibirse, generando una respuesta de uno u otro tipo en cada
caso.

De esta manera las redes neuronales artificiales son capaces de extraer patrones
y detectar tramas que son muy difíciles de apreciar por el ser humano u otras
técnicas computacionales, siendo la facilidad de implementación de estos métodos
lo que ha incrementado su popularidad. Las RNA se caracterizan por tres partes
fundamentales: la topología de la red, la regla de aprendizaje (supervisado, no
supervisado, reforzado, etc.) y el tipo de entrenamiento.

¿Cómo funcionan las neuronas?

Las Redes Neuronales se componen de neuronas, las unidades básicas del


modelo. Cada neurona recibe una serie de entradas, que llevarán un peso,
emitiendo una salida. La salida viene dada por tres funciones:

• La función de propagación suele ser el sumatorio de cada entrada


multiplicada por el peso asignado.
• La función de activación tiene como misión modificar a la de propagación.
Las más habituales suelen ser la función tipo escalón (Heaviside) o
funciones no lineales como la sigmoidea logística, tangente hiperbólica, etc.
• La función de transferencia se aplica al valor dado por la función de
aplicación y se utiliza para acotar la salida de cada neurona según la
interpretación que se le quiera dar al resultado.

Tratan de imitar a las neuronas biológicas, conectadas entre sí y trabajando en


conjunto, aprendiendo sobre el proceso. Dados unos parámetros, hay una forma
de combinarlos para predecir un cierto resultado. El problema estará en saber
cómo combinarlos.

Las redes neuronales son un modelo para encontrar esa combinación de


parámetros y aplicarla al mismo tiempo. El objetivo es encontrar la combinación
que mejor se ajusta entrenando a la red neuronal.

Este entrenamiento / aprendizaje, es la parte crucial de la RNA, ya que marcará la


precisión del algoritmo. Consiste en encontrar esa relación de pesos a través de
un proceso iterativo en el que, secuencialmente, se va analizando cada uno de los
patrones de entrada a la red, reajustando en cada iteración la relación de los
diferentes pesos.

Es en este punto cuando se introducirá una función de error que irá midiendo el
rendimiento de la red en un momento dado, donde el objetivo será, obviamente,
minimizar dicha función de error. El algoritmo se detendrá cuando se alcance la
cota de error establecida por el usuario.

Una red ya entrenada se puede usar luego para hacer predicciones o


clasificaciones, es decir, para “aplicar” la combinación.

Este tipo de procesos predictivos, similares a los ARIMA, tienen cada vez más
aplicaciones en el entorno habitual. Google, por ejemplo, utilizó una red neuronal
convolucional para reconocer los números de calle en las imágenes que iban
tomando con sus coches, consiguiendo un 96% de precisión en sus resultados.

Estas técnicas predictivas, suelen emplearse en control meteorológico, medición


de audiencias de TV, previsión de impacto en RRSS, predicción en los mercados
financieros, etc.
Data Science

La Ciencia de Datos o Data Science es un campo interdisciplinar enfocado a


extraer conocimiento de los datos en sus diferentes formas, estructurados o no
estructurados. Las disciplinas involucradas son varias, matemáticas, estadística,
aprendizaje automático, programación, minería de datos, analítica, visualización
de datos, reconocimiento y aprendizaje de patrones, almacenamientos de datos,
computación en la nube, etc.

La Ciencia de Datos está en continua evolución y actualmente, está ganando


tracción rápidamente gracias al desarrollo de la IA que ofrece oportunidades
desafiantes a esta ciencia.

Machine Learning y Deep Learning

Aunque muchas veces aparecen asociados, estos términos hacen referencia a


dos conceptos diferentes y complementarios dentro de la inteligencia artificial.
Para definir estos conceptos, es necesario aclarar que ambos se basan en el
procesamiento de grandes cantidades de datos, sin embargo, el Machine
Learning (Aprendizaje Automático) es la capacidad que algunos sistemas de
inteligencia artificial tienen para autoaprender y corregir errores en base a su
actividad previa, mientras que el Deep Learning, además de eso, es capaz de
tomar decisiones a partir de los datos.

Las máquinas son capaces de aprender por sí solas y auto programarse


aprendiendo de su propia experiencia, combinando datos de entradas y
situaciones del mundo real. Dentro del Machine Learning hay que diferenciar entre
varios métodos:

• Supervised Learning o Aprendizaje dirigido: en el que los datos


utilizados para el entrenamiento de la máquina incluyen la solución
deseada, llamada “etiquetas” (labels).
Mediante este método, el sistema de IA recibe un estímulo o ejemplo (lo
que se conoce como parseo de datos). El algoritmo de Aprendizaje
automático (y más concretamente de Aprendizaje supervisado) lo procesa y
extrae un modelo. Con este modelo, cada vez que se introduce un nuevo
dato la máquina es capaz de dar una respuesta.
Un caso práctico sería, por ejemplo, el sistema de filtrado de SPAM de
Google: el usuario ayuda a identificar a Gmail cuáles son los correos
electrónicos que contienen SPAM. Llegado a un determinado punto, la IA
ya ha procesado tantos datos que es capaz de extraer un modelo para
poder predecir con alta probabilidad de éxito cuáles de los correos que van
entrando son correos basura para enviarlos de forma automática a la
papelera de reciclaje.
Otro ejemplo muy representativo es el proceso de aprendizaje por el que
pasaría una IA que se dedica a reconocer qué fotografías incluyen caras: se
introducen fotografías con o sin caras para que la máquina sea capaz de
diferenciarlas.
• Unsupervised learning o aprendizaje no dirigido: En este sistema los
datos de entrenamiento no incluyen etiquetas y el algoritmo intentará
clasificar o descifrar la información por sí solo.
Aprendizaje por refuerzo: con este método, el sistema se convierte en un
“agente autónomo” que deberá determinar las acciones a llevar a cabo
mediante prueba y error. Aprenderá por sí mismo obteniendo premios,
recompensas, y penalizaciones. Creará la mejor estrategia posible
(políticas) para obtener la mayor recompensa posible en tiempo y forma.
Estas políticas definirán qué acciones tomar ante cada situación a la que se
enfrente.

Algunas de las aplicaciones más destacadas son:

Publicidad programática: dentro del área de marketing, permite hacer campañas


mejor dirigidas y con una tasa de conversión mayor. Para ello, aprovecha en
particular los datos de las redes sociales de tal forma que permite determinar los
atributos relevantes para la campaña en cuestión y aprender del perfil y del
producto o servicio anunciado para establecer las características que aumentan la
tasa de acierto para cada usuario.
Motores de recomendación: el uso de machine-learning proporciona una mejor
recomendación sobre los productos y una personalización de la oferta. Para ello,
es necesario basarse en el histórico de transacciones, opiniones, frecuencia de
compra, gustos, etc. del usuario y enriquecer la información con datos de usuarios
similares en cuanto a perfil de consumo y perfil.

Fraude y seguridad: mediante el histórico de transacciones de clientes se


establecen modelos que estiman la probabilidad de que una transacción sea
fraudulenta, basándose en transacciones similares realizadas anteriormente.

Optimización de precios: por ejemplo, en el sector financiero, con el fin de


establecer una tasa de interés acorde a cada cliente en concreto, se estudia el
histórico de tasas aceptadas o rechazadas por ese cliente en particular, y

se cruza dicha información con su posición financiera y con datos


macroeconómicos y sociodemográficos que ayuden a establecer las correlaciones
entre variables.

Análisis en tiempo real: con el objetivo de obtener una respuesta inmediata ante
un disparador externo. La información puede provenir de sensores, reacción ante
un evento de compra, incidencia en una planta de generación de energía, etc.
Además, se pueden modificar/reentrenar los algoritmos semiautomáticamente
para adecuarse a nuevas condiciones. Este caso de uso puede servir, por
ejemplo, para incrementar la productividad en el sector industrial. También se está
aplicando en otros sectores como el energético, con el fin de prevenir posibles
picos de consumo y actuar en consecuencia.

El Deep Learning, es un concepto que hace referencia a una técnica concreta


dentro del Machine Learning, el Deep Learning es un tipo de algoritmo de
aprendizaje automático estructurado o jerárquico, que toma modelos existentes
para identificar una realidad o predecir el futuro con los datos disponibles.

Se puede decir que la gran diferencia entre machine learning y deep learning es
que la segunda técnica eleva el aprendizaje a un nivel más detallado. El sistema
en este caso va por capas o unidades neuronales. De hecho, el funcionamiento de
estos algoritmos trata de imitar el del cerebro humano. El proceso de predicción se
realiza mediante el aprendizaje, no con reglas programadas previamente. Casi
siempre ligado al procesamiento de texto, voz, imagen y vídeo. De esta forma el
Deep Learning persigue emular el cerebro humano a través de modelos
informáticos que funcionan como un sistema de redes neuronales capaz de
analizar los datos. La máquina evalúa así ejemplos e instrucciones para modificar
el modelo en el caso de que se produzcan errores.

Hasta ahora, el Deep Learning y los modelos predictivos jerárquicos han tenido su
mayor uso especialmente en el área de los diagnósticos médicos y en análisis
predictivos en los mercados financieros, pero están adquiriendo cada vez mayor
peso en el resto de sectores, como componentes esenciales para aplicaciones
como los anteriormente mencionados sistemas de recomendación, detección de
fraude, predicción de Churn (es la predicción de abandono de clientes al usar
machine learning o también deep learning) y modelos de propensión, detección de
anomalías y auditoría de datos, etc.

Uno de los ejemplos más representativos es el de Google.

Las Smart Replies de Gmail, el reconocimiento de voz de Google Now, las


traducciones semánticas y no literales de Google Translate, la búsqueda por
cualquier concepto en Google Photos, las rutas recomendadas en Google Maps, o
el sistema de publicación programática de Adwords son todas nuevas
funcionalidades creadas gracias a la aplicación de Deep Learning en sus
productos. Otros casos de uso comunes donde se están aplicando técnicas de
Deep Learning:

• Coches autónomos: funcionan con Deep Learning, lo que les permite


“saber” por dónde circulan o reconocer los obstáculos que tienen delante.
• Análisis y generación de informes: los sistemas con machine learning
pueden analizar los datos e informar sobre ellos con un lenguaje natural,
similar al humano, acompañándolos de infografías y otros elementos
gráficos que los hagan más comprensibles.
• Análisis predictivo: se están utilizando estas técnicas para predecir, por
ejemplo, los niveles de riesgo de una inversión y las probabilidades de éxito
de la compra o venta de valores en bolsa. Lo mismo ocurre con el sector
sanitario, donde puede emplearse para investigar sobre posible incidencia
de medicamentos o determinados tratamientos de enfermedades.
• Traductores inteligentes: los servicios de traducción online se aprovechan
de esta tecnología para obtener características del comportamiento
humano. De este modo, las herramientas de traducción aprenden de las
traducciones corregidas para aplicarlas en futuras consultas.
• Lenguaje natural hablado y escrito: la aplicación del Deep Learning
permite ofrecer servicios que reaccionen ante diferentes comandos
enviados en lenguaje natural, tanto de forma oral como escrita.
• Reconocimiento de voz: el uso de servicios por reconocimiento de voz
cada vez resulta más preciso y rápido.
• Interpretación semántica: conseguir que las máquinas entiendan los
comentarios de los usuarios y sacar valor de sus conversaciones en, por
ejemplo, la mensajería instantánea. También es usado a la hora de orientar
los anuncios e identificar rostros y objetos en fotografías y vídeos.
• Reconocimiento facial: otra de las aplicaciones del Deep Learning es el
reconocimiento facial en tiempo real, que permitirá integrarlo a medio plazo
en smartphones con el fin de identificar el rostro del usuario en diversos
escenarios. Estos desarrollos permitirán potenciar la seguridad y facilitar la
popularización de servicios en los que la identificación personal es
imprescindible.
• Visión computacional: el Deep Learning ha permitido que se produzca un
salto cualitativo en el entendimiento de imágenes. Las máquinas hoy en día
reconocen imágenes mejor que los métodos tradicionales.

Vector ITC. (2018). Inteligencia artificial: Pasado, presente y futuro. Recuperado de:
https://www.vectoritcgroup.com/wp-content/uploads/2018/06/IA-Pasado-presente-y-
futuro-Vector-ITC.pdf

También podría gustarte