Minería de Datos

Descargar como docx, pdf o txt
Descargar como docx, pdf o txt
Está en la página 1de 30

Minería de datos

La minería de datos o exploración de datos (es la etapa de análisis de "Knowledge


Discovery in Databases" o KDD) es un campo de la estadística y las ciencias de la
computación referido al proceso que intenta descubrir patrones en grandes volúmenes de
conjuntos de datos.1 Utiliza los métodos de la inteligencia artificial, aprendizaje
automático, estadística y sistemas de bases de datos. El objetivo general del proceso de
minería de datos consiste en extraer información de un conjunto de datos y transformarla en
una estructura comprensible para su uso posterior. Además de la etapa de análisis en bruto,
supone aspectos de gestión de datos y de bases de datos, de procesamiento de datos, del
modelo y de las consideraciones de inferencia, de métricas de Intereses, de consideraciones
de la Teoría de la complejidad computacional, de post-procesamiento de las estructuras
descubiertas, de la visualización y de la actualización en línea.
El término es un concepto de moda, y es frecuentemente mal utilizado para referirse a
cualquier forma de datos a gran escala o procesamiento de la información (recolección,
extracción, almacenamiento, análisis y estadísticas), pero también se ha generalizado a
cualquier tipo de sistema de apoyo informático decisión, incluyendo la inteligencia artificial,
aprendizaje automático y la inteligencia empresarial. En el uso de la palabra, el término clave
es el descubrimiento, comúnmente se define como "la detección de algo nuevo". Incluso el
popular libro "La minería de datos: sistema de prácticas herramientas de aprendizaje y
técnicas con Java" (que cubre todo el material de aprendizaje automático) originalmente iba a
ser llamado simplemente "la máquina de aprendizaje práctico", y el término "minería de datos"
se añadió por razones de marketing. A menudo, los términos más generales "(gran escala) el
análisis de datos", o "análisis" -. o cuando se refiere a los métodos actuales, la inteligencia
artificial y aprendizaje automático, son más apropiados.
La tarea de minería de datos real es el análisis automático o semi-automático de grandes
cantidades de datos para extraer patrones interesantes hasta ahora desconocidos, como los
grupos de registros de datos (análisis clúster), registros poco usuales (la detección de
anomalías) y dependencias (minería por reglas de asociación). Esto generalmente implica el
uso de técnicas de bases de datos como los índices espaciales. Estos patrones pueden
entonces ser vistos como una especie de resumen de los datos de entrada, y pueden ser
utilizados en el análisis adicional o, por ejemplo, en el aprendizaje automático y análisis
predictivo. Por ejemplo, el paso de minería de datos podría identificar varios grupos en los
datos, que luego pueden ser utilizados para obtener resultados más precisos de predicción por
un sistema de soporte de decisiones. Ni la recolección de datos, preparación de datos, ni la
interpretación de los resultados y la información son parte de la etapa de minería de datos,
pero que pertenecen a todo el proceso KDD como pasos adicionales.
Los términos relacionados con la obtención de datos, la pesca de datos y espionaje de los
datos se refieren a la utilización de métodos de minería de datos a las partes de la muestra de
un conjunto de datos de población más grandes establecidas que son (o pueden ser)
demasiado pequeñas para las inferencias estadísticas fiables que se hizo acerca de la validez
de cualquier patrón descubierto. Estos métodos pueden, sin embargo, ser utilizados en la
creación de nuevas hipótesis que se prueban contra poblaciones de datos más grandes.

Proceso[editar]
Un proceso típico de minería de datos consta de los siguientes pasos generales:

1. Selección del conjunto de datos, tanto en lo que se refiere a las variables objetivo
(aquellas que se quiere predecir, calcular o inferir), como a las variables
independientes (las que sirven para hacer el cálculo o proceso), como posiblemente
al muestreo de los registros disponibles.
2. Análisis de las propiedades de los datos, en especial los histogramas, diagramas
de dispersión, presencia de valores atípicos y ausencia de datos (valores nulos).
3. Transformación del conjunto de datos de entrada, se realizará de diversas formas
en función del análisis previo, con el objetivo de prepararlo para aplicar la técnica de
minería de datos que mejor se adapte a los datos y al problema, a este paso también
se le conoce como preprocesamiento de los datos.
4. Seleccionar y aplicar la técnica de minería de datos, se construye el modelo
predictivo, de clasificación o segmentación.
5. Extracción de conocimiento, mediante una técnica de minería de datos, se obtiene
un modelo de conocimiento, que representa patrones de comportamiento observados
en los valores de las variables del problema o relaciones de asociación entre dichas
variables. También pueden usarse varias técnicas a la vez para generar distintos
modelos, aunque generalmente cada técnica obliga a un preprocesado diferente de
los datos.
6. Interpretación y evaluación de datos, una vez obtenido el modelo, se debe proceder
a su validación comprobando que las conclusiones que arroja son válidas y
suficientemente satisfactorias. En el caso de haber obtenido varios modelos mediante
el uso de distintas técnicas, se deben comparar los modelos en busca de aquel que
se ajuste mejor al problema. Si ninguno de los modelos alcanza los resultados
esperados, debe alterarse alguno de los pasos anteriores para generar nuevos
modelos.
Si el modelo final no superara esta evaluación el proceso se podría repetir desde el principio o,
si el experto lo considera oportuno, a partir de cualquiera de los pasos anteriores. Esta
retroalimentación se podrá repetir cuantas veces se considere necesario hasta obtener un
modelo válido.
Una vez validado el modelo, si resulta ser aceptable (proporciona salidas adecuadas y/o con
márgenes de error admisibles) éste ya está listo para su explotación. Los modelos obtenidos
por técnicas de minería de datos se aplican incorporándolos en los sistemas de análisis de
información de las organizaciones, e incluso, en los sistemas transaccionales. En este sentido
cabe destacar los esfuerzos del Data Mining Group, que está estandarizando el
lenguaje PMML (Predictive Model Markup Language), de manera que los modelos de minería
de datos sean interoperables en distintas plataformas, con independencia del sistema con el
que han sido construidos. Los principales fabricantes de sistemas de bases de datos y
programas de análisis de la información hacen uso de este estándar.
Tradicionalmente, las técnicas de minería de datos se aplicaban sobre información contenida
en almacenes de datos. De hecho, muchas grandes empresas e instituciones han creado y
alimentan bases de datos especialmente diseñadas para proyectos de minería de datos en las
que centralizan información potencialmente útil de todas sus áreas de negocio. No obstante,
actualmente está cobrando una importancia cada vez mayor la minería de datos
desestructurados como información contenida en ficheros de texto, en Internet, etc.

Protocolo de un proyecto de minería de datos[editar]


Un proyecto de minería de datos tiene varias fases necesarias que son, esencialmente:

 Comprensión: del negocio y del problema que se quiere resolver.


 Determinación, obtención y limpieza: de los datos necesarios.
 Creación de modelos matemáticos.
 Validación, comunicación: de los resultados obtenidos.
 Integración: si procede, de los resultados en un sistema transaccional o similar.
La relación entre todas estas fases sólo es lineal sobre el papel. En realidad, es mucho más
compleja y esconde toda una jerarquía de subfases. A través de la experiencia acumulada en
proyectos de minería de datos se han ido desarrollando metodologías que permiten gestionar
esta complejidad de una manera más o menos uniforme.

Técnicas de minería de datos[editar]


Como ya se ha comentado, las técnicas de la minería de datos provienen de la inteligencia
artificial y de la estadística, dichas técnicas, no son más que algoritmos, más o menos
sofisticados que se aplican sobre un conjunto de datos para obtener unos resultados.
Las técnicas más representativas son:

 Redes neuronales.- Son un paradigma de aprendizaje y procesamiento automático


inspirado en la forma en que funciona el sistema nervioso de los animales. Se trata de un
sistema de interconexión de neuronas en una red que colabora para producir un estímulo
de salida. Algunos ejemplos de red neuronal son:
 El perceptrón.
 El perceptrón multicapa.
 Los mapas autoorganizados, también conocidos como redes de Kohonen.

 Regresión lineal.- Es la más utilizada para formar relaciones entre datos. Rápida y eficaz
pero insuficiente en espacios multidimensionales donde puedan relacionarse más de 2
variables.

 Árboles de decisión.- Un árbol de decisión es un modelo de predicción utilizado en el


ámbito de la inteligencia artificial y el análisis predictivo, dada una base de datos se
construyen estos diagramas de construcciones lógicas, muy similares a los sistemas de
predicción basados en reglas, que sirven para representar y categorizar una serie de
condiciones que suceden de forma sucesiva, para la resolución de un problema.
Ejemplos:
 Algoritmo ID3.
 Algoritmo C4.5

 Modelos estadísticos.- Es una expresión simbólica en forma de igualdad o ecuación que


se emplea en todos los diseños experimentales y en la regresión para indicar los
diferentes factores que modifican la variable de respuesta.

 Agrupamiento o Clustering.- Es un procedimiento de agrupación de una serie de


vectores según criterios habitualmente de distancia; se tratará de disponer los vectores de
entrada de forma que estén más cercanos aquellos que tengan características comunes.
Ejemplos:
 Algoritmo K-means
 Algoritmo K-medoids

 Reglas de asociación.- Se utilizan para descubrir hechos que ocurren en común dentro
de un determinado conjunto de datos.
Según el objetivo del análisis de los datos, los algoritmos utilizados se clasifican en
supervisados y no supervisados (Weiss y Indurkhya, 1998):
 Algoritmos supervisados (o predictivos): predicen un dato (o un conjunto de ellos)
desconocido a priori, a partir de otros conocidos.
 Algoritmos no supervisados (o del descubrimiento del conocimiento): se descubren
patrones y tendencias en los datos.

Ejemplos de uso de la minería de datos[editar]


Negocios[editar]
La minería de datos puede contribuir significativamente en las aplicaciones de administración
empresarial basada en la relación con el cliente. En lugar de contactar con el cliente de forma
indiscriminada a través de un centro de llamadas o enviando e-mails, sólo se contactará con
aquellos que se perciba que tienen una mayor probabilidad de responder positivamente a una
determinada oferta o promoción.
Las empresas que emplean minería de datos ven habitualmente el retorno de la inversión,
pero también reconocen que el número de modelos predictivos desarrollados puede crecer
muy rápidamente. En lugar de crear modelos para predecir qué clientes pueden cambiar, la
empresa podría construir modelos separados para cada región y/o para cada tipo de cliente.
También puede querer determinar qué clientes van a ser rentables durante una ventana de
tiempo (una quincena, un mes, ...) y sólo enviar las ofertas a las personas que es probable
que sean rentables. Para mantener esta cantidad de modelos, es necesario gestionar las
versiones de cada modelo y pasar a una minería de datos lo más automatizada posible.
En un entorno tan cambiante donde los volúmenes de datos medibles crece exponencialmente
gracias al marketing digital,2 "las esperas producidas por dependencias de departamentos
técnicos y los expertos estadistas consiguen que finalmente los resultados de los análisis sean
inservibles" a los usuarios de negocio y decisores.3 Esto explica que los proveedores de
herramientas de minería de datos estén trabajando en aplicaciones más fáciles de utilizar en
lo que se conoce como minería de datos visual4 y la demanda de empleo de este tipo de
usuario analista de negocio se esté disparando en los últimos años. Según Gartner es
previsible que durante 2016-2017 sólo haya "profesionales cualificados para cubrir una tercera
parte de los puestos".5
Análisis de la cesta de la compra[editar]
El ejemplo clásico de aplicación de la minería de datos tiene que ver con la detección
de hábitos de compra en supermercados. Un estudio muy citado detectó que los viernes
había una cantidad inusualmente elevada de clientes que adquirían a la vez pañales y
cerveza. Se detectó que se debía a que dicho día solían acudir al supermercado padres
jóvenes cuya perspectiva para el fin de semana consistía en quedarse en casa cuidando de su
hijo y viendo la televisión con una cerveza en la mano. El supermercado pudo incrementar sus
ventas de cerveza colocándolas próximas a los pañales para fomentar las ventas compulsivas.
Patrones de fuga[editar]
Un ejemplo más habitual es el de la detección de patrones de fuga. En muchas industrias —
como la banca, las telecomunicaciones, etc.— existe un comprensible interés en detectar
cuanto antes aquellos clientes que puedan estar pensando en rescindir sus contratos para,
posiblemente, pasarse a la competencia. A estos clientes —y en función de su valor— se les
podrían hacer ofertas personalizadas, ofrecer promociones especiales, etc., con el objetivo
último de retenerlos. La minería de datos ayuda a determinar qué clientes son los más
proclives a darse de baja estudiando sus patrones de comportamiento y comparándolos con
muestras de clientes que, efectivamente, se dieron de baja en el pasado.
Fraudes[editar]
Un caso análogo es el de la detección de transacciones de lavado de dinero o de fraude en el
uso de tarjetas de crédito o de servicios de telefonía móvil e, incluso, en la relación de los
contribuyentes con el fisco. Generalmente, estas operaciones fraudulentas o ilegales suelen
seguir patrones característicos que permiten, con cierto grado de probabilidad, distinguirlas de
las legítimas y desarrollar así mecanismos para tomar medidas rápidas frente a ellas.
Recursos humanos[editar]
La minería de datos también puede ser útil para los departamentos de recursos humanos en la
identificación de las características de sus empleados de mayor éxito. La información obtenida
puede ayudar a la contratación de personal, centrándose en los esfuerzos de sus empleados y
los resultados obtenidos por estos. Además, la ayuda ofrecida por las aplicaciones
para Dirección estratégica en una empresa se traducen en la obtención de ventajas a nivel
corporativo, tales como mejorar el margen de beneficios o compartir objetivos; y en la mejora
de las decisiones operativas, tales como desarrollo de planes de producción o gestión
de mano de obra.

Comportamiento en Internet[editar]
También es un área en boga el del análisis del comportamiento de los visitantes —sobre todo,
cuando son clientes potenciales— en una página de Internet. O la utilización de la información
—obtenida por medios más o menos legítimos— sobre ellos para ofrecerles propaganda
adaptada específicamente a su perfil. O para, una vez que adquieren un determinado
producto, saber inmediatamente qué otro ofrecerle teniendo en cuenta la información histórica
disponible acerca de los clientes que han comprado el primero.

Terrorismo[editar]
La minería de datos ha sido citada como el método por el cual la unidad Able Danger del
Ejército de los EE.UU. había identificado al líder de los atentados del 11 de septiembre de
2001, Mohammed Atta, y a otros tres secuestradores del "11-S" como posibles miembros de
una célula de Al Qaeda que operan en los EE. UU. más de un año antes del ataque. Se ha
sugerido que tanto la Agencia Central de Inteligencia y su homóloga canadiense, Servicio de
Inteligencia y Seguridad Canadiense, también han empleado este método.6

Juegos[editar]
Desde comienzos de la década de 1960, con la disponibilidad de oráculos para
determinados juegos combinacionales, también llamados finales de juego de tablero (por
ejemplo, para las tres en raya o en finales de ajedrez) con cualquier configuración de inicio, se
ha abierto una nueva área en la minería de datos que consiste en la extracción de estrategias
utilizadas por personas para estos oráculos. Los planteamientos actuales
sobre reconocimiento de patrones, no parecen poder aplicarse con éxito al funcionamiento de
estos oráculos. En su lugar, la producción de patrones perspicaces se basa en una amplia
experimentación con bases de datos sobre esos finales de juego, combinado con un estudio
intensivo de los propios finales de juego en problemas bien diseñados y con conocimiento de
la técnica (datos previos sobre el final del juego). Ejemplos notables de investigadores que
trabajan en este campo son Berlekamp en el juego de puntos-y-cajas (o Timbiriche) y John
Nunn en finales de ajedrez.

Videojuegos
En el transcurrir de los años las tecnologías y los avances con relación a la minería de datos
se vieron involucrados en diferentes procesos de negocios y la industria de los videojuegos no
se quedó atrás en este campo, la necesidad por conocer a sus consumidores y el gusto de
estos es parte fundamental para sobrevivir en un ambiente tan competitivo como lo es este, se
necesitan de diferentes datos para antes de siquiera comenzar la idea de proyecto en un
nuevo videojuego. Grandes compañías desarrolladoras han caído bajo el manto de
cancelaciones, pérdidas, fracasos y en casos hasta la misma quiebra por el mal manejo de la
información. En los últimos años estas empresas desarrolladoras de videojuegos entendieron
la gran importancia del contenido que se maneja y como lo ve el consumidor por eso se
enfocaron en la contratación de servicios de empresas especializadas en este sector de
minería de datos para poder presentar productos de calidad y que realmente gusten al público
basándose en el análisis de la información obtenida en el transcurrir de los años
“videojugabilisticos” de su público objetivo.

Ciencia e Ingeniería
En los últimos años la minería de datos se está utilizando ampliamente en diversas áreas
relacionadas con la ciencia y la ingeniería. Algunos ejemplos de aplicación en estos campos
son:
Genética
En el estudio de la genética humana, el objetivo principal es entender la
relación cartográfica entre las partes y la variación individual en las secuencias
del ADN humano y la variabilidad en la susceptibilidad a las enfermedades. En términos más
llanos, se trata de saber cómo los cambios en la secuencia de ADN de un individuo afectan al
riesgo de desarrollar enfermedades comunes (como por ejemplo el cáncer). Esto es muy
importante para ayudar a mejorar el diagnóstico, prevención y tratamiento de las
enfermedades. La técnica de minería de datos que se utiliza para realizar esta tarea se
conoce como "reducción de dimensionalidad multifactorial".7
Ingeniería eléctrica
En el ámbito de la ingeniería eléctrica, las técnicas de minería de datos han sido ampliamente
utilizadas para monitorizar las condiciones de las instalaciones de alta tensión. La finalidad de
esta monitorización es obtener información valiosa sobre el estado del aislamiento de los
equipos. Para la vigilancia de las vibraciones o el análisis de los cambios de carga en
transformadores se utilizan ciertas técnicas para agrupación de datos (clustering) tales como
los mapas auto-organizativos (SOM: Self-organizing map). Estos mapas sirven para detectar
condiciones anormales y para estimar la naturaleza de dichas anomalías.8
Análisis de gases
También se han aplicado técnicas de minería de datos para el análisis de gases
disueltos (DGA: Dissolved gas analysis) en transformadores eléctricos. El análisis de gases
disueltos se conoce desde hace mucho tiempo como la herramienta para diagnosticar
transformadores. Los mapas auto-organizativos (SOM) se utilizan para analizar datos y
determinar tendencias que podrían pasarse por alto utilizando las técnicas clásicas (DGA).

Minería de datos y otras disciplinas análogas


Suscita cierta polémica el definir las fronteras existentes entre la minería de datos y las
disciplinas análogas, como pueden serlo la estadística, la inteligencia artificial, etc. Hay
quienes sostienen que la minería de datos no es sino estadística envuelta en una jerga de
negocios que la conviertan en un producto vendible. Otros, en cambio, encuentran en ella una
serie de problemas y métodos específicos que la hacen distinta de otras disciplinas.
El hecho es que, en la práctica la totalidad de los modelos y algoritmos de uso general en
minería de datos —redes neuronales, árboles de regresión y clasificación, modelos logísticos,
análisis de componentes principales, etc.— gozan de una tradición relativamente larga en
otros campos.

De la estadística
Ciertamente, la minería de datos bebe de la estadística, de la que toma las siguientes
técnicas:

 Análisis de varianza, mediante el cual se evalúa la existencia de diferencias significativas


entre las medias de una o más variables continuas en poblaciones distintas.
 Regresión: define la relación entre una o más variables y un conjunto de variables
predictoras de las primeras.
 Prueba chi-cuadrado: por medio de la cual se realiza el contraste de la hipótesis de
dependencia entre variables.
 Análisis de agrupamiento o clustering: permite la clasificación de una población
de individuos caracterizados por múltiples atributos (binarios, cualitativos o cuantitativos)
en un número determinado de grupos, con base en las semejanzas o diferencias de los
individuos.
 Análisis discriminante: permite la clasificación de individuos en grupos que previamente se
han establecido, permite encontrar la regla de clasificación de los elementos de estos
grupos, y por tanto una mejor identificación de cuáles son las variables que definan la
pertenencia al grupo.
 Series de tiempo: permite el estudio de la evolución de una variable a través del tiempo
para poder realizar predicciones, a partir de ese conocimiento y bajo el supuesto de que
no van a producirse cambios estructurales.
De la informática
De la informática toma las siguientes técnicas:

 Algoritmos genéticos: Son métodos numéricos de optimización, en los que aquella


variable o variables que se pretenden optimizar junto con las variables de estudio
constituyen un segmento de información. Aquellas configuraciones de las variables de
análisis que obtengan mejores valores para la variable de respuesta, corresponderán a
segmentos con mayor capacidad reproductiva. A través de la reproducción, los mejores
segmentos perduran y su proporción crece de generación en generación. Se puede
además introducir elementos aleatorios para la modificación de las variables (mutaciones).
Al cabo de cierto número de iteraciones, la población estará constituida por buenas
soluciones al problema de optimización, pues las malas soluciones han ido
descartándose, iteración tras iteración.

 Inteligencia Artificial: Mediante un sistema informático que simula un sistema inteligente,


se procede al análisis de los datos disponibles. Entre los sistemas de Inteligencia Artificial
se encuadrarían los Sistemas Expertos y las Redes Neuronales.

 Sistemas Expertos: Son sistemas que han sido creados a partir de reglas prácticas
extraídas del conocimiento de expertos. Principalmente a base de inferencias o de causa-
efecto.

 Sistemas Inteligentes: Son similares a los sistemas expertos, pero con mayor ventaja ante
nuevas situaciones desconocidas para el experto.
 Redes neuronales: Genéricamente, son métodos de proceso numérico en paralelo, en el
que las variables interactúan mediante transformaciones lineales o no lineales, hasta
obtener unas salidas. Estas salidas se contrastan con los que tenían que haber salido,
basándose en unos datos de prueba, dando lugar a un proceso de retroalimentación
mediante el cual la red se reconfigura, hasta obtener un modelo adecuado.

Minería de datos basada en teoría de la información


Todas las herramientas tradicionales de minería de datos asumen que los datos que usarán
para construir los modelos contienen la información necesaria para lograr el propósito
buscado: obtener suficiente conocimiento que pueda ser aplicado al negocio (o problema)
para obtener un beneficio (o solución).
El inconveniente es que esto no es necesariamente cierto. Además, existe otro problema
mayor aún. Una vez construido el modelo no es posible conocer si el mismo ha capturado toda
la información disponible en los datos. Por esta razón la práctica común es realizar varios
modelos con distintos parámetros para ver si alguno logra mejores resultados.
Un enfoque relativamente nuevo al análisis de datos soluciona estos problemas haciendo que
la práctica de la minería de datos se parezca más a una ciencia que a un arte.
En 1948 Claude Shannon publicó un trabajo llamado “Una teoría matemática de la
comunicación”. Posteriormente ésta pasó a llamarse Teoría de la información y sentó las
bases de la comunicación y la codificación de la información. Shannon propuso una manera
de medir la cantidad de información a ser expresada en bits.
En 1999 Dorian Pyle publicó un libro llamado “Data Preparation for Data Mining” en el que
propone una manera de usar la Teoría de la Información para analizar datos. En este nuevo
enfoque, una base de datos es un canal que transmite información. Por un lado está el mundo
real que captura datos generados por el negocio. Por el otro están todas las situaciones y
problemas importantes del negocio. Y la información fluye desde el mundo real y a través de
los datos, hasta la problemática del negocio.
Con esta perspectiva y usando la Teoría de la información, es posible medir la cantidad de
información disponible en los datos y qué porción de la misma podrá utilizarse para resolver la
problemática del negocio. Como un ejemplo práctico, podría encontrarse que los datos
contienen un 65% de la información necesaria para predecir qué cliente rescindirán sus
contratos. De esta manera, si el modelo final es capaz de hacer predicciones con un 60% de
acierto, se puede asegurar que la herramienta que generó el modelo hizo un buen trabajo
capturando la información disponible. Ahora, si el modelo hubiese tenido un porcentaje de
aciertos de sólo el 10%, por ejemplo, entonces intentar otros modelos o incluso con otras
herramientas podría valer la pena.
La capacidad de medir información contenida en los datos tiene otras ventajas importantes.
Al analizar los datos desde esta nueva perspectiva se genera un mapa de información que
hace innecesario la preparación previa de los datos, una tarea absolutamente imprescindible
si se desea buenos resultados, pero que lleva enorme cantidad de tiempo.
Es posible seleccionar un grupo de variables óptimo que contenga la información necesaria
para realizar un modelo de predicción.
Una vez que las variables son procesadas con el fin de crear el mapa de información y luego
seleccionadas aquellas que aportan la mayor información, la elección de la herramienta que
se usará para crear el modelo deja de tener importancia, ya que el mayor trabajo fue realizado
en los pasos previos.
Tendencias
La Minería de Datos ha sufrido transformaciones en los últimos años de acuerdo con cambios
tecnológicos, de estrategias de marketing, la extensión de los modelos de compra en línea,
etc. Los más importantes de ellos son:

 La importancia que han cobrado los datos no estructurados (texto, páginas de Internet,
etc.).
 La necesidad de integrar los algoritmos y resultados obtenidos en sistemas operacionales,
portales de Internet, etc.
 La exigencia de que los procesos funcionen prácticamente en línea (por ejemplo, en casos
de fraude con una tarjeta de crédito).
 Los tiempos de respuesta. El gran volumen de datos que hay que procesar en muchos
casos para obtener un modelo válido es un inconveniente; esto implica grandes
cantidades de tiempo de proceso y hay problemas que requieren una respuesta en tiempo
real.

Herramientas de software
Existen muchas herramientas de software para el desarrollo de modelos de minería de datos
tanto libres como comerciales como, por ejemplo:
 RapidMiner  Orange  SPSS Modeler
 KXEN  Powerhouse  SAS Enterprise Miner
 KNIME  Quiterian  STATISTICA Data Miner
 Neural Designer  R  Weka
 OpenNN  KEEL
¿Qué es la minería de
datos?
El reto de estos nuevos profesionales es extraer información de enormes bases de
datos. ¿Estás preparado para la era del big data?

Muy Interesante
2 minutos de lectura
Tradicionalmente el objetivo de la minería era la obtención de carbón. No obstante, una
nueva generación de mineros ha aparecido en el inicio de esta cuarta revolución
industrial. Son los mineros o exploradores de datos, que cuales en lugar de buscar carbón
intentan descubrir patrones en enormes volúmenes de datos. Los métodos utilizados de
estos nuevos profesionales son la inteligencia artificial, el aprendizaje automático, la
estadística y sistemas de base de datos.

La minería de datos es el conjunto de técnicas y tecnologías que permiten explorar


grandes bases de datos con el objetivo de encontrar patrones que nos puedan aportar
información valiosa en la toma de futuras decisiones. El proceso de minería de datos
tiene normalmente cuatro etapas principales:

- Determinación de los objetivos


- Procesamiento de los datos
- Determinación del modelo
- Análisis de los resultados

En el primero de los pasos se trata el tipo de información que el cliente desea extraer de la
base de datos. La segunda etapa es la que requiere más trabajo ya que se tiene
de seleccionar, limpiar, enriquecer, reducir y transformar la base de datos que nos ha
facilitado el cliente. Una vez la hemos procesado y está lista para implementarle el
algoritmo de inteligencia artificial, tenemos que escoger qué algoritmo nos va a dar
mejores resultados.

TAMBIÉN TE PUEDE INTERESAR


¿CUÁNTO SABES SOBRE INTERNET?
La elección del mejor algoritmo para una tarea analítica específica es un gran desafío y
depende del problema a resolver. Hay básicamente cinco problemas diferentes en la
minería de datos: clasificación, regresión, segmentación, asociación y análisis de
secuencias.

Para resolver estos problemas hay muchos algoritmos a utilizar, los principales son: los de
asociación, los clústeres, los de árbol de decisión, los de regresión lineal, el clasificador
Bayesiano ingenuo, los de red neuronal, los clústeres de secuencia y los de serie temporal.

Finalmente, el último paso es el de análisis de los resultados. Actualmente este trabajo se


está realizando en muchas áreas de negocio como seguridad de datos, finanzas,
salud, marketing, detección de fraude, búsquedas online, procesamiento de lenguaje
natural o los nuevos coches inteligentes.

Por estas razones la minería de datos se está convirtiendo en uno de los trabajos con
mayor proyección para el futuro, ya que ahorra grandes cantidades de dinero para las
empresas y abre nuevas oportunidades de negocio.

Conceptos de minería de datos



 Tiempo de lectura: 28 minutos
 Colaboradores
o

SE APLICA A: SQL Server Analysis Services Azure Analysis Services

La minería de datos es el proceso de detectar la información procesable de los


conjuntos grandes de datos. Utiliza el análisis matemático para deducir los
patrones y tendencias que existen en los datos.Normalmente, estos patrones no se
pueden detectar mediante la exploración tradicional de los datos porque las
relaciones son demasiado complejas o porque hay demasiado datos.
Estos patrones y tendencias se pueden recopilar y definir como un modelo de
minería de datos. Los modelos de minería de datos se pueden aplicar en escenarios
como los siguientes:

 Pronóstico: cálculo de las ventas y predicción de las cargas del servidor o del
tiempo de inactividad del servidor.
 Riesgo y probabilidad: elección de los mejores clientes para la distribución
de correo directo, determinación del punto de equilibrio probable para los
escenarios de riesgo, y asignación de probabilidades a diagnósticos y otros
resultados.
 Recomendaciones: determinación de los productos que se pueden vender
juntos y generación de recomendaciones.
 Búsqueda de secuencias: análisis de los artículos que los clientes han
introducido en el carrito de la compra y predicción de posibles eventos.
 Agrupación: distribución de clientes o eventos en grupos de elementos
relacionados, y análisis y predicción de afinidades.

La generación de un modelo de minería de datos forma parte de un proceso


mayor que incluye desde la formulación de preguntas acerca de los datos y la
creación de un modelo para responderlas, hasta la implementación del
modelo en un entorno de trabajo. Este proceso se puede definir mediante los
seis pasos básicos siguientes:

1. Definir el problema
2. Preparar los datos
3. Explorar los datos
4. Generar modelos
5. Explorar y validar los modelos
6. Implementar y actualizar los modelos

El siguiente diagrama describe las relaciones existentes entre cada paso del
proceso y las tecnologías de Microsoft SQL Server que se pueden usar para
completar cada paso.
El proceso que se ilustra en el diagrama es cíclico, lo que significa que la
creación de un modelo de minería de datos es un proceso dinámico e
iterativo. Una vez que ha explorado los datos, puede que descubra que
resultan insuficientes para crear los modelos de minería de datos adecuados y
que, por tanto, debe buscar más datos. O bien, puede generar varios modelos
y descubrir entonces que no responden adecuadamente al problema
planteado cuando los definió y que, por tanto, debe volver a definir el
problema. Es posible que deba actualizar los modelos una vez implementados
debido a que haya más datos disponibles. Puede que haya que repetir cada
paso del proceso muchas veces para crear un modelo adecuado.

La minería de datos de Microsoft SQL Server ofrece un entorno integrado


para crear y trabajar con modelos de minería de datos. Este entorno incluye
SQL Server Development Studio, que contiene algoritmos de minería de datos
y herramientas de consulta que facilitan la generación de una solución
completa para una serie de proyectos, y SQL Server Management Studio, que
contiene herramientas que permiten examinar modelos y administrar objetos
de minería de datos. Para obtener más información, vea Crear modelos
multidimensionales al usar las herramientas de datos de SQL Server (SSDT).

Si quiere ver un ejemplo de cómo las herramientas de SQL Server se pueden


aplicar en un escenario empresarial, vea Tutorial básico de minería de datos.
Definir el problema

El primer paso del proceso de minería de datos, tal como se resalta en el siguiente
diagrama, consiste en definir claramente el problema y considerar formas de usar
los datos para proporcionar una respuesta para el mismo.

Este paso incluye analizar los requisitos empresariales, definir el ámbito del
problema, definir las métricas por las que se evaluará el modelo y definir los
objetivos concretos del proyecto de minería de datos. Estas tareas se traducen en
preguntas como las siguientes:

 ¿Qué está buscando? ¿Qué tipos de relaciones intenta buscar?


 ¿Refleja el problema que está intentando resolver las directivas o procesos de
la empresa?
 ¿Desea realizar predicciones a partir del modelo de minería de datos o
solamente buscar asociaciones y patrones interesantes?
 ¿Qué resultado o atributo desea predecir?
 ¿Qué tipo de datos tiene y qué tipo de información hay en cada columna? En
caso de que haya varias tablas, ¿cómo se relacionan? ¿Necesita limpiar,
agregar o procesar los datos antes de poder usarlos?
 ¿Cómo se distribuyen los datos? ¿Los datos son estacionales? ¿Los datos
representan con precisión los procesos de la empresa?

Para responder a estas preguntas, puede que deba dirigir un estudio de


disponibilidad de datos para investigar las necesidades de los usuarios de la
empresa con respecto a los datos disponibles. Si los datos no abarcan las
necesidades de los usuarios, podría tener que volver a definir el proyecto.
También debe considerar las maneras en las que los resultados del modelo se
pueden incorporar en los indicadores de rendimiento clave (KPI) que se
utilizan para medir el progreso comercial.

Preparar los datos

El segundo paso del proceso de minería de datos, como se indica en el siguiente


diagrama, consiste en consolidar y limpiar los datos identificados en el paso Definir
el problema .

Los datos pueden estar dispersos en la empresa y almacenados en formatos


distintos; también pueden contener incoherencias como entradas que faltan o
incorrectas. Por ejemplo, los datos pueden mostrar que un cliente adquirió un
producto incluso antes que se ofreciera en el mercado o que el cliente compra
regularmente en una tienda situada a 2.000 kilómetros de su casa.

La limpieza de datos no solamente implica quitar los datos no válidos o interpolar


valores que faltan, sino también buscar las correlaciones ocultas en los datos,
identificar los orígenes de datos que son más precisos y determinar qué columnas
son las más adecuadas para el análisis. Por ejemplo, ¿debería utilizar la fecha de
envío o la fecha de pedido? ¿Qué influye más en las ventas: la cantidad, el precio
total o un precio con descuento? Los datos incompletos, los datos incorrectos y las
entradas que parecen independientes, pero que de hecho están estrechamente
correlacionadas, pueden influir en los resultados del modelo de maneras que no
espera.
Por consiguiente, antes de empezar a generar los modelos de minería de datos,
debería identificar estos problemas y determinar cómo los corregirá. En la minería
de datos, por lo general se trabaja con un conjunto de datos de gran tamaño y no
se puede examinar la calidad de los datos de cada transacción; por tanto, es
posible que necesite usar herramientas de generación de perfiles de datos, y de
limpieza y filtrado automático de datos, como las que se proporcionan
en Integration Services,Microsoft SQL Server 2012 Master Data Serviceso SQL
Server Data Quality Services para explorar los datos y buscar incoherencias. Para
obtener más información, vea estos recursos:

 Integration Services en Business Intelligence Development Studio


 Introducción a Master Data Services (MDS)
 Data Quality Services

Es importante tener en cuenta que los datos que se usan para la minería de
datos no necesitan almacenarse en un cubo de procesamiento analítico en
línea (OLAP), ni siquiera en una base de datos relacional, aunque puede usar
ambos como orígenes de datos. Puede realizar minería de datos mediante
cualquier origen de datos definido como origen de datos de Analysis
Services .Por ejemplo, archivos de texto, libros de Excel o datos de otros
proveedores externos. Para obtener más información, vea Orígenes de datos
admitidos (SSAS - Multidimensionales).

Explorar los datos

El tercer paso del proceso de minería de datos, como se resalta en el siguiente


diagrama, consiste en explorar los datos preparados.
Debe conocer los datos para tomar las decisiones adecuadas al crear los modelos
de minería de datos.Entre las técnicas de exploración se incluyen calcular los
valores mínimos y máximos, calcular la media y las desviaciones estándar, y
examinar la distribución de los datos. Por ejemplo, al revisar el máximo, el mínimo
y los valores de la media se podría determinar que los datos no son representativos
de los clientes o procesos de negocio, y que por consiguiente debe obtener más
datos equilibrados o revisar las suposiciones que son la base de sus
expectativas. Las desviaciones estándar y otros valores de distribución pueden
proporcionar información útil sobre la estabilidad y exactitud de los resultados.Una
desviación estándar grande puede indicar que agregar más datos podría ayudarle a
mejorar el modelo. Los datos que se desvían mucho de una distribución estándar
se podrían sesgar o podrían representar una imagen precisa de un problema de la
vida real, pero dificultar el ajustar un modelo a los datos.

Al explorar los datos para conocer el problema empresarial, puede decidir si el


conjunto de datos contiene datos defectuosos y, a continuación, puede inventar
una estrategia para corregir los problemas u obtener una descripción más
profunda de los comportamientos que son típicos de su negocio.

Puede usar herramientas como Master Data Services para sondear los orígenes de
datos disponibles y determinar su disponibilidad para la minería de datos. Puede
usar herramientas como SQL Server Data Quality Services, o el generador de
perfiles de datos de Integration Services, para analizar la distribución de los datos y
solucionar problemas, como la existencia de datos incorrectos o la falta de datos.

Cuando tenga definido los orígenes, combínelos en una vista del origen de datos
con el Diseñador de vistas del origen de datos de Herramientas de datos de SQL
Server. Para obtener más información, vea Vistas del origen de datos en modelos
multidimensionales. Este diseñador también contiene algunas herramientas que
podrá usar para explorar los datos y comprobar que funcionarán a la hora de crear
un modelo. Para obtener más información, vea Explorar datos en una vista del
origen de datos (Analysis Services).

Tenga en cuenta que cuando se crea un modelo, Analysis Services crea


automáticamente resúmenes estadísticos de los datos contenidos en él, que puede
consultar para su uso en informes o análisis. Para obtener más información,
vea Consultas de minería de datos.

Generar modelos

El cuarto paso del proceso de minería de datos, como se resalta en el siguiente


diagrama, consiste en generar el modelo o modelos de minería de datos. Usará los
conocimientos adquiridos en el paso Explorar los datos para definir y crear los
modelos.

Deberá definir qué columnas de datos desea que se usen; para ello, creará una
estructura de minería de datos. La estructura de minería de datos se vincula al
origen de datos, pero en realidad no contiene ningún dato hasta que se procesa. Al
procesar la estructura de minería de datos, Analysis Servicesgenera agregados y
otra información estadística que se puede usar para el análisis. Cualquier modelo
de minería de datos que esté basado en la estructura puede utilizar esta
información. Para obtener más información sobre cómo se relacionan las
estructuras de minería de datos con los modelos de minería de datos,
vea Arquitectura lógica (Analysis Services - Minería de datos).

Antes de procesar la estructura y el modelo, un modelo de minería de datos


simplemente es un contenedor que especifica las columnas que se usan para la
entrada, el atributo que está prediciendo y parámetros que indican al algoritmo
cómo procesar los datos. El procesamiento de un modelo a menudo se
denomina entrenamiento. El entrenamiento hace referencia al proceso de aplicar un
algoritmo matemático concreto a los datos de la estructura para extraer
patrones. Los patrones que encuentre en el proceso de entrenamiento dependerán
de la selección de los datos de entrenamiento, el algoritmo que elija y cómo se
haya configurado el algoritmo. SQL Server 2017 contiene muchos algoritmos
diferentes. Cada uno está preparado para un tipo diferente de tarea y crea un tipo
distinto de modelo. Para obtener una lista de los algoritmos proporcionados
en SQL Server 2017, vea Algoritmos de minería de datos (Analysis Services: Minería
de datos).

También puede utilizar los parámetros para ajustar cada algoritmo y puede aplicar
filtros a los datos de entrenamiento para utilizar un subconjunto de los datos,
creando resultados diferentes. Después de pasar los datos a través del modelo, el
objeto de modelo de minería de datos contiene los resúmenes y modelos que se
pueden consultar o utilizar para la predicción.

Puede definir un modelo nuevo mediante el Asistente para minería de datos


de Herramientas de datos de SQL Server o con el lenguaje DMX (Extensiones de
minería de datos). Para obtener más información sobre cómo usar el Asistente para
minería de datos, vea Asistente para minería de datos (Analysis Services - Minería
de datos). Para obtener más información sobre cómo usar DMX, vea Referencia de
Extensiones de minería de datos (DMX).

Es importante recordar que siempre que los datos cambian, debe actualizar la
estructura y el modelo de minería de datos. Al actualizar una estructura de minería
de datos volviéndola a procesar, Analysis Services recupera los datos del origen,
incluido cualquier dato nuevo si el origen se actualiza dinámicamente, y vuelve a
rellenar la estructura de minería de datos. Si tiene modelos que están basados en la
estructura, puede elegir actualizar estos, lo que significa que se vuelven a entrenar
con los nuevos datos, o puede dejar los modelos tal cual. Para más información,
vea Requisitos y consideraciones de procesamiento (minería de datos).
Explorar y validar los modelos

El quinto paso del proceso de minería de datos, como se resalta en el siguiente


diagrama, consiste en explorar los modelos de minería de datos que ha generado y
comprobar su eficacia.

Antes de implementar un modelo en un entorno de producción, es aconsejable


probar si funciona correctamente. Además, al generar un modelo, normalmente se
crean varios con configuraciones diferentes y se prueban todos para ver cuál ofrece
los resultados mejores para su problema y sus datos.

Analysis Services proporciona herramientas que ayudan a separar los datos en


conjuntos de datos de entrenamiento y pruebas, para que pueda evaluar con
precisión el rendimiento de todos los modelos en los mismos datos. El conjunto de
datos de entrenamiento se utiliza para generar el modelo y el conjunto de datos de
prueba para comprobar la precisión del modelo mediante la creación de consultas
de predicción. Este particionamiento se puede hacer automáticamente mientras se
genera el modelo de minería de datos. Para obtener más información, vea Prueba y
validación (minería de datos).

Puede explorar las tendencias y patrones que los algoritmos detectan mediante los
visores del diseñador de minería de datos de Herramientas de datos de SQL
Server. Para obtener más información, vea Visores de modelos de minería de
datos. También puede comprobar si los modelos crean predicciones correctamente
mediante herramientas del diseñador como el gráfico de mejora respecto al
modelo predictivo y la matriz de clasificación. Para comprobar si el modelo es
específico de sus datos o se puede usar para realizar inferencias en la población
general, puede usar la técnica estadística denominada validación cruzada para
crear automáticamente subconjuntos de los datos y probar el modelo con cada
uno. Para obtener más información, vea Prueba y validación (minería de datos).

Si ninguno de los modelos que ha creado en el paso Generar modelos funciona


correctamente, puede que deba volver a un paso anterior del proceso y volver a
definir el problema o volver a investigar los datos del conjunto de datos original.

Implementar y actualizar los modelos

El último paso del proceso de minería de datos, como se resalta en el siguiente


diagrama, consiste en implementar los modelos que funcionan mejor en un
entorno de producción.

Una vez que los modelos de minería de datos se encuentran en el entorno de


producción, puede llevar acabo diferentes tareas, dependiendo de sus
necesidades. Las siguientes son algunas de las tareas que puede realizar:

 Use los modelos para crear predicciones que luego podrá usar para tomar
decisiones comerciales. SQL Server pone a su disposición el lenguaje DMX,
que podrá usar para crear consultas de predicción, y el Generador de
consultas de predicción, que le ayudará a generar las consultas. Para más
información, vea Referencia de Extensiones de minería de datos (DMX).
 Crear consultas de contenido para recuperar estadísticas, reglas o fórmulas
del modelo. Para obtener más información, vea Consultas de minería de
datos.
 Incrustar la funcionalidad de minería de datos directamente en una
aplicación. Puede incluir Objetos de administración de análisis (AMO), que
contiene un conjunto de objetos que la aplicación pueda utilizar para crear,
cambiar, procesar y eliminar estructuras y modelos de minería de
datos. También puede enviar mensajes XML for Analysis (XMLA) directamente
a una instancia de Analysis Services. Para obtener más información,
vea Desarrollo (Analysis Services - Minería de datos).
 Utilizar Integration Services para crear un paquete en el que se utilice un
modelo de minería de datos para dividir de forma inteligente los datos
entrantes en varias tablas. Por ejemplo, si una base de datos se actualiza
continuamente con clientes potenciales, puede utilizar un modelo de minería
de datos junto con Integration Services para dividir los datos entrantes en
clientes que probablemente compren un producto y clientes que
probablemente no compren un producto.Para más información,
consulte Usos típicos de Integration Services.
 Crear un informe que permita a los usuarios realizar consultas directamente
en un modelo de minería de datos existente. Para obtener más información,
vea Reporting Services en SQL Server Data Tools (SSDT).
 Actualizar los modelos después de la revisión y análisis. Cualquier
actualización requiere que vuelve a procesar los modelos. Para más
información, consulte Processing Data Mining Objects.
 Actualizar dinámicamente los modelos, cuando entren más datos en la
organización, y realizar modificaciones constantes para mejorar la efectividad
de la solución debería ser parte de la estrategia de implementación. Para
obtener más información, vea Administración de las soluciones y los objetos
de minería de datos.
El proceso en la minería de datos
GESTIÓN DOCUMENTAL

minería de datos:
Seleccionar el conjunto de los datos
Se trata de seleccionar la información relacionada con las variables objetivo y las
variables independientes como también el muestreo de los registros disponibles.

Analizar las propiedades de los datos


Es con respecto al histograma, los diagramas de dispersión, la presencia de
valores atípicos y la ausencia de datos.

La transformación de los datos de entrada


Se realiza de diversas formas y en función de un análisis previo con la intención
de prepararlo para la aplicación de las técnicas de minería de datos que mejor se
adapte a la información contenida. En realidad se trata de un procesamiento de
datos.

La selección y la aplicación de las técnicas de minería de datos


Es un proceso en donde se construye el modelo predictivo, de clasificación o de
segmentación.

La extracción del conocimiento


Se realiza mediante una técnica de minería de datos en donde se obtiene un
modelo de conocimiento que representa a los valores del comportamiento que son
observados en las variables del problema o sobre las relaciones que están
asociadas a las mencionadas variables.

La interpretación y la evaluación de los datos


Una vez que se ha obtenido el modelo se debe validar los datos en donde se
comprobará que los resultados obtenidos sean válidos y satisfactorios.
Al realizar todo el proceso en la minería de datos se concluye que si el
modelo final no supera la evaluación del mismo se podría llegar a repetir desde el
principio o en cualquiera de los pasos cuantas veces sea necesario hasta lograr la
obtención de un modelo satisfactorio.
Una vez encontrado el modelo, si éste resulta aceptable ya estaría listo para su
explotación, en donde se aplicarán en los sistemas de análisis de información de
las organizaciones e inclusive el los sistemas transaccionales de la empresa.

Tradicionalmente las técnicas de minería de datos eran aplicadas sobre la


información contenida en los almacenes de datos, en donde muchas empresas
han creado bases de información que están especialmente diseñadas para
proyectos de minería de datos, centralizando la información potencialmente
diseñada para proyectos de este tipo y la información potencial en todas las áreas
de negocio.

Aprendizaje automático
Ir a la navegaciónIr a la búsqueda

El aprendizaje automático o aprendizaje automatizado o aprendizaje de máquinas (del


inglés, "Machine Learning") es el subcampo de las ciencias de la computación y una rama de
la inteligencia artificial, cuyo objetivo es desarrollar técnicas que permitan que las
computadoras aprendan. De forma más concreta, se trata de crear programas capaces de
generalizar comportamientos a partir de una información suministrada en forma de ejemplos.
Es, por lo tanto, un proceso de inducción del conocimiento. En muchas ocasiones el campo de
actuación del aprendizaje automático se solapa con el de la estadística computacional, ya que
las dos disciplinas se basan en el análisis de datos. Sin embargo, el aprendizaje automático
también se centra en el estudio de la complejidad computacional de los problemas. Muchos
problemas son de clase NP-hard, por lo que gran parte de la investigación realizada en
aprendizaje automático está enfocada al diseño de soluciones factibles a esos problemas. El
aprendizaje automático puede ser visto como un intento de automatizar algunas partes
del método científico mediante métodos matemáticos.
El aprendizaje automático tiene una amplia gama de aplicaciones, incluyendo motores de
búsqueda, diagnósticos médicos, detección de fraude en el uso de tarjetas de crédito, análisis
del mercado de valores, clasificación de secuencias de ADN, reconocimiento del habla y
del lenguaje escrito, juegos y robótica.
Resumen[editar]
Algunos sistemas de aprendizaje automático intentan eliminar toda necesidad de intuición o
conocimiento experto de los procesos de análisis de datos, mientras otros tratan de establecer
un marco de colaboración entre el experto y la computadora. De todas formas, la intuición
humana no puede ser reemplazada en su totalidad, ya que el diseñador del sistema ha de
especificar la forma de representación de los datos y los métodos de manipulación y
caracterización de los mismos. Sin embargo, las computadoras son utilizadas por todo el
mundo con fines tecnológicos muy buenos.

Modelos[editar]
El aprendizaje automático tiene como resultado un modelo para resolver una tarea dada. Entre
los modelos se distinguen1

 Los modelos geométricos, construidos en el espacio de instancias y que pueden tener


una, dos o múltiples dimensiones. Si hay un borde de decisión lineal entre las clases, se
dice que los datos son linealmente separables. Un límite de decisión lineal se define como
w * x = t, donde w es un vector perpendicular al límite de decisión, x es un punto arbitrario
en el límite de decisión y t es el umbral de la decisión.
 Los modelos probabilísticos, que intentan determinar la distribución de probabilidades
descriptora de la función que enlaza a los valores de las características con valores
determinados. Uno de los conceptos claves para desarrollar modelos probabilísticos es
la estadística bayesiana.
 Los modelos lógicos, que transforman y expresan las probabilidades en reglas
organizadas en forma de árboles de decisión.
Los modelos pueden también clasificarse como modelos de agrupamiento y modelos de
gradiente. Los primeros tratan de dividir el espacio de instancias en grupos. Los segundos,
como su nombre lo indican, representan un gradiente en el que se puede diferenciar entre
cada instancia. Clasificadores geométricos como las máquinas de vectores de apoyo son
modelos de gradientes.

Tipos de algoritmos[editar]

Una máquina de vectores de soporte

Los diferentes algoritmos de Aprendizaje Automático se agrupan en una taxonomía en función


de la salida de los mismos. Algunos tipos de algoritmos son:
Aprendizaje supervisado
Artículo principal: Aprendizaje supervisado
El algoritmo produce una función que establece una correspondencia entre las
entradas y las salidas deseadas del sistema. Un ejemplo de este tipo de algoritmo es
el problema de clasificación, donde el sistema de aprendizaje trata de etiquetar
(clasificar) una serie de vectores utilizando una entre varias categorías (clases). La
base de conocimiento del sistema está formada por ejemplos de etiquetados
anteriores. Este tipo de aprendizaje puede llegar a ser muy útil en problemas de
investigación biológica, biología computacional y bioinformática.
Aprendizaje no supervisado
Artículo principal: Aprendizaje no supervisado
Todo el proceso de modelado se lleva a cabo sobre un conjunto de ejemplos formado
tan sólo por entradas al sistema. No se tiene información sobre las categorías de esos
ejemplos. Por lo tanto, en este caso, el sistema tiene que ser capaz de reconocer
patrones para poder etiquetar las nuevas entradas.
Aprendizaje semisupervisado
Este tipo de algoritmos combinan los dos algoritmos anteriores para poder clasificar de
manera adecuada. Se tiene en cuenta los datos marcados y los no marcados.
Aprendizaje por refuerzo
Artículo principal: Aprendizaje por refuerzo
El algoritmo aprende observando el mundo que le rodea. Su información de entrada es
el feedback o retroalimentación que obtiene del mundo exterior como respuesta a sus
acciones. Por lo tanto, el sistema aprende a base de ensayo-error.
El aprendizaje por refuerzo es el más general entre las tres categorías. En vez de que
un instructor indique al agente qué hacer, el agente inteligente debe aprender cómo se
comporta el entorno mediante recompensas (refuerzos) o castigos, derivados del éxito
o del fracaso respectivamente. El objetivo principal es aprender la función de valor que
le ayude al agente inteligente a maximizar la señal de recompensa y así optimizar sus
políticas de modo a comprender el comportamiento del entorno y a tomar buenas
decisiones para el logro de sus objetivos formales.
Los principales algoritmos de aprendizaje por refuerzo se desarrollan dentro de los
métodos de resolución de problemas de decisión finitos de Markov, que incorporan las
ecuaciones de Bellman y las funciones de valor. Los tres métodos principales son:
la Programación Dinámica, los métodos de Monte Carlo y el aprendizaje de
Diferencias Temporales.2
Entre las implementaciones desarrolladas está AlphaGo, un programa de IA
desarrollado por Google DeepMind para jugar el juego de mesa Go. En marzo de 2016
AlphaGo le ganó una partida al jugador profesional Lee Se-Dol que tiene la categoría
noveno dan y 18 títulos mundiales. Entre los algoritmos que utiliza se encuentra el
árbol de búsqueda Monte Carlo, también utiliza aprendizaje profundo con redes
neuronales. Puede ver lo ocurrido en el documental de Netflix “AlphaGo”.
Transducción
Similar al aprendizaje supervisado, pero no construye de forma explícita una función.
Trata de predecir las categorías de los futuros ejemplos basándose en los ejemplos de
entrada, sus respectivas categorías y los ejemplos nuevos al sistema.
Aprendizaje multi-tarea
Métodos de aprendizaje que usan conocimiento previamente aprendido por el sistema
de cara a enfrentarse a problemas parecidos a los ya vistos.
El análisis computacional y de rendimiento de los algoritmos de aprendizaje automático es una
rama de la estadística conocida como teoría computacional del aprendizaje.
El aprendizaje automático las personas lo llevamos a cabo de manera automática ya que es un
proceso tan sencillo para nosotros que ni nos damos cuenta de cómo se realiza y todo lo que
implica. Desde que nacemos hasta que morimos los seres humanos llevamos a cabo diferentes
procesos, entre ellos encontramos el de aprendizaje por medio del cual adquirimos
conocimientos, desarrollamos habilidades para analizar y evaluar a través de métodos y técnicas
así como también por medio de la experiencia propia. Sin embargo, a las máquinas hay que
indicarles cómo aprender, ya que si no se logra que una máquina sea capaz de desarrollar sus
habilidades, el proceso de aprendizaje no se estará llevando a cabo, sino que solo será una
secuencia repetitiva. También debemos tener en cuenta que el tener conocimiento o el hecho de
realizar bien el proceso de aprendizaje automático no implica que se sepa utilizar, es preciso saber
aplicarlo en las actividades cotidianas, y un buen aprendizaje también implica saber cómo y
cuándo utilizar nuestros conocimientos.
Para llevar a cabo un buen aprendizaje es necesario considerar todos los factores que a este le
rodean, como la sociedad, la economía, la ciudad, el ambiente, el lugar, etc. Por lo tanto, es
necesario empezar a tomar diversas medidas para lograr un aprendizaje adecuado, y obtener una
automatización adecuada del aprendizaje. Así, lo primero que se debe tener en cuenta es el
concepto de conocimiento, que es el entendimiento de un determinado tema o materia en el cual
tú puedas dar tu opinión o punto de vista, así como responder a ciertas interrogantes que puedan
surgir de dicho tema o materia.
Técnicas de clasificación[editar]
Árboles de decisiones[editar]
Artículo principal: Árbol de decisión
Este tipo de aprendizaje usa un árbol de decisiones como modelo predictivo. Se mapean observaciones
sobre un objeto con conclusiones sobre el valor final de dicho objeto.
Los árboles son estructuras básicas en la informática. Los árboles de atributos son la base de las
decisiones. Una de las dos formas principales de árboles de decisiones es la desarrollada
por Quinlan de medir la impureza de la entropía en cada rama, algo que primero desarrolló en el
algoritmo ID3 y luego en el C4.5. Otra de las estrategias se basa en el índice GINI y fue desarrollada
por Breiman, Friedman et alia. El algoritmo de CART es una implementación de esta estrategia.3
Reglas de asociación[editar]
Artículo principal: Reglas de asociación
Los algoritmo de reglas de asociación procuran descubrir relaciones interesantes entre variables. Entre
los métodos más conocidos se hallan el algoritmo a priori, el algoritmo Eclat y el algoritmo de Patrón
Frecuente.
Algoritmos genéticos[editar]
Artículo principal: Algoritmos genéticos
Los algoritmos genéticos son procesos de búsqueda heurística que simulan la selección natural. Usan
métodos tales como la mutación y el cruzamiento para generar nuevas clases que puedan ofrecer una
buena solución a un problema dado.
Redes neuronales artificiales[editar]
Artículo principal: Red neuronal artificial
Las redes de neuronas artificiales (RNA) son un paradigma de aprendizaje automático inspirado en las
neuronas de los sistemas nerviosos de los animales. Se trata de un sistema de enlaces de neuronas que
colaboran entre sí para producir un estímulo de salida. Las conexiones tienen pesos numéricos que se
adaptan según la experiencia. De esta manera, las redes neurales se adaptan a un impulso y son
capaces de aprender. La importancia de las redes neurales cayó durante un tiempo con el desarrollo de
los vectores de soporte y clasificadores lineales, pero volvió a surgir a finales de la década de 2000 con
la llegada del aprendizaje profundo.
Máquinas de vectores de soporte[editar]
Artículo principal: Máquinas de vectores de soporte
Las MVS son una serie de métodos de aprendizaje supervisado usados para clasificación y regresión.
Los algoritmos de MVS usan un conjunto de ejemplos de entrenamiento clasificado en dos categorías
para construir un modelo que prediga si un nuevo ejemplo pertenece a una u otra de dichas categorías.
Algoritmos de agrupamiento[editar]
Artículo principal: Algoritmo de agrupamiento
El análisis por agrupamiento (clustering en inglés) es la clasificación de observaciones en subgrupos -
clusters - para que las observaciones en cada grupo se asemejen entre sí según ciertos criterios.
Las técnicas de agrupamiento hacen inferencias diferentes sobre la estructura de los datos; se guían
usualmente por una medida de similaridad específica y por un nivel de compactamiento interno
(similaridad entre los miembros de un grupo) y la separación entre los diferentes grupos.
El agrupamiento es un método de aprendizaje no supervisado y es una técnica muy popular de análisis
estadístico de datos.
Redes bayesianas[editar]
Artículo principal: Red bayesiana
Una red bayesiana, red de creencia o modelo acíclico dirigido es un modelo probabilístico que
representa una serie de variables de azar y sus independencias condicionales a través de un grafo
acíclico dirigido. Una red bayesiana puede representar, por ejemplo, las relaciones probabilísticas entre
enfermedades y síntomas. Dados ciertos síntomas, la red puede usarse para calcular las probabilidades
de que ciertas enfermedades estén presentes en un organismo. Hay algoritmos eficientes que infieren
y aprenden usando este tipo de representación.
Conocimiento[editar]
En el aprendizaje automático podemos obtener 3 tipos de conocimiento, que son:
1. Crecimiento
Es el que se adquiere de lo que nos rodea, el cual guarda la información en la memoria como si dejara
huellas.
2. Reestructuración
Al interpretar los conocimientos el individuo razona y genera nuevo conocimiento al cual se le llama de
reestructuración.
3. Ajuste
Es el que se obtiene al generalizar varios conceptos o generando los propios.
Los tres tipos se efectúan durante un proceso de aprendizaje automático pero la importancia de cada
tipo de conocimiento depende de las características de lo que se está tratando de aprender.
El aprendizaje es más que una necesidad, es un factor primordial para satisfacer las necesidades de
la inteligencia artificial.
Distinción entre Aprendizaje supervisado y no supervisado[editar]
El aprendizaje supervisado se caracteriza por contar con información que especifica qué conjuntos de
datos son satisfactorios para el objetivo del aprendizaje. Un ejemplo podría ser un software que
reconoce si una imagen dada es o no la imagen de un rostro: para el aprendizaje del programa
tendríamos que proporcionarle diferentes imágenes, especificando en el proceso si se trata o no de
rostros.
En el aprendizaje no supervisado, en cambio, el programa no cuenta con datos que definan qué
información es satisfactoria o no. El objetivo principal de estos programas suele ser encontrar patrones
que permitan separar y clasificar los datos en diferentes grupos, en función de sus atributos. Siguiendo
el ejemplo anterior un software de aprendizaje no supervisado no sería capaz de decirnos si una
imagen dada es un rostro o no pero sí podría, por ejemplo, clasificar las imágenes entre aquellas que
contienen rostros humanos, de animales, o las que no contienen. La información obtenida por un
algoritmo de aprendizaje no supervisado debe ser posteriormente interpretada por una persona para
darle utilidad.
Aplicaciones[editar]
Motores de búsqueda
Diagnóstico médico
Detección de fraudes con el uso de tarjetas de crédito
Análisis del mercado de valores
Clasificación de secuencias de ADN
Reconocimiento del habla
Robótica
Minería de datos
Big Data
Previsiones de series temporales
Temas del aprendizaje automático[editar]
A continuación se muestran una serie de temas que podrían formar parte del temario de un curso
sobre aprendizaje automático.
Modelado de funciones de densidad de probabilidad condicionadas: clasificación y regresión
Redes neuronales artificiales
Árboles de decisión: El aprendizaje por árboles de decisión usa un árbol de decisión como modelo
predictivo que mapea observaciones a conclusiones sobre el valor de un objeto dado.
Modelos de regresión múltiple no postulados
Regresión en procesos Gaussianos
Análisis de discriminantes lineales
k-vecinos más próximos
Perceptrón
Funciones de base radial
Máquinas de soporte vectorial
Modelado de funciones de densidad de probabilidad mediante modelos generativos
Algoritmo EM
Modelos gráficos, como las redes bayesianas y los campos aleatorios de Markov
Mapeado topográfico generativo
Técnicas de inferencia aproximada
Cadenas de Markov y Método de Montecarlo
Métodos variacionales
Optimización: La mayoría de los métodos descritos arriba usan algoritmos de optimización o son por sí
mismos instancias de problemas de optimización.
Historia y relación con otros temas[editar]
El aprendizaje automático nació de la búsqueda de inteligencia artificial. Ya en los primeros días de la
IA como disciplina académica, algunos investigadores se interesaron en hacer que las máquinas
aprendiesen. Trataron de resolver el problema con diversos métodos simbólicos, así como lo que ellos
llamaron 'redes neurales' que eran en general percentrones y otros modelos básicamente basados en
modelos lineares generalizados como se conocen en las estadísticas.
Software[editar]
Muchos lenguajes de programación pueden usarse para implementar algoritmos de aprendizaje
automático. Los más populares para 2015 eran R y Python.4 R es muy usado ante todo en el campo
académico, mientras que Python es más popular en la empresa privada.
Entre los paquetes de software que incluyen algoritmos de aprendizaje automatizado, se hallan los
siguientes:

También podría gustarte