Tarea#5 KDD

Descargar como docx, pdf o txt
Descargar como docx, pdf o txt
Está en la página 1de 5

Nombres: __Joselyne Elizabeth__

Apellidos: __Villón Mena__
Paralelo: __ISI-S-NO-6-5_
Asignatura: _Electiva III_
Fecha de entrega: __26 de Agosto del 2020__

¿De qué disciplinas, ciencias, conceptos o herramientas se vale KDD para su


aplicación?
El KDD es un proceso que consta de una serie de etapas consecutivas, y funciona de forma
iterativa e interactiva. Iterativa, ya que es posible regresar desde cualquier etapa a una
anterior para ajustar los parámetros o supuestos previos, e interactiva pues el usuario
experto del negocio tiene que estar presente para aportar con su conocimiento en la
preparación de los datos y en la validación de los resultados que se obtengan durante el
proceso.
La relación entre el proceso KDD y los Data Warehouse se da de forma natural, pues el
primero busca contar con datos procesados, limpios y consolidados, mientras que los
segundos ofrecen una estructura bien definida en donde almacenar la información con esas
características.
Relación de KDD con otras Áreas
 En el área de tecnología de bases de datos y bodegas de datos, por las formas
eficientes de almacenar, accesar y manipular los datos.
 En el aprendizaje computacional, estadística, computación suave (redes neuronales,
lógica difusa, algoritmos genéticos, razonamiento probabilístico) mediante el
desarrollo de técnicas para extraer conocimiento a partir de los datos.
 En el área de reconocimiento de patrones mediante el desarrollo de herramientas de
clasificación.
 En el área de visualización de datos, que permite por un extremo, el uso de una
interfaz entre los humanos y los datos, y por el otro, entre humanos y los patrones.
 Y en el área de cómputo de alto desempeño, para el mejoramiento de los algoritmos
debido a la complejidad y a la cantidad de datos que manejan.

Debido a su naturaleza y correlación con métodos como el aprendizaje automático, análisis


de bases de datos, procesamiento y gestión de datos, inteligencia artificial y demás , es
también considerada un subconjunto de la ciencia de datos (disciplina científico-
informática dedicada a la obtención, limpieza, análisis, modelado e interpretación de
distintos tipos de datos).
Las principales áreas de aplicación de KDD incluyen marketing, detección de fraudes,
telecomunicaciones y fabricación.
La inteligencia artificial también es compatible con KDD al descubrir leyes empíricas a
partir de la experimentación y las observaciones. Los patrones reconocidos en los datos
deben ser válidos en datos nuevos y poseer cierto grado de certeza.
Ahora alberga muchos enfoques diferentes para el
descubrimiento, que incluyen aprendizaje inductivo,
estadísticas bayesianas, optimización de consultas
semánticas, adquisición de conocimiento para sistemas
expertos y teoría de la información.
Para trabajar con algoritmos necesitamos contar con
conocimiento en varios campos, entre ellos las ciencias
de la computación, estadística, machine learning,
optimización, y otros.

HERRAMIENTAS

LIONOSO
Es una máquina de aprendizaje completo y herramienta de optimización inteligente
desarrollado por un equipo de expertos, ofrece diferentes soluciones dirigidas a la salud y
las empresas.
 Herramienta de optimización y aprendizaje automático.
 Herramienta ideal para rápido análisis.
 Está clasificada en el ámbito académico y organización sin fines de lucro.
 El software promueve la investigación y el desarrollo industrial.
 Investigadores pueden hacer su trabajo con esta herramienta.
 El software puede conectar e integrarse con base de datos.
 Brinda soluciones para bioinformática, áreas de salud y negocios.
 Permite aprender de los datos.

ADVANCEDMINER
Es una herramienta analítica integrada para el procesamiento, análisis y modelado de datos.
 Tiene una interfaz gráfica.
 Ofrece un ambiente completo y amigable para la exploración de datos.
 Permite segmentación y perfilado de usuarios.
 Analiza los datos y prepara modelo de datos.
 Permite la exploración de datos.
 Permite la detección de fraudes y el análisis de riesgo.
 Ofrece un entorno completo y fácil de usar para la exploración de datos.
 Permite el procesamiento de datos.
 Ofrece funciones para extraer y guardar datos de diferentes sistemas y archivos de
bases de datos.
 Realiza varias funciones de análisis.
 Puede preparar y evaluar varios tipos de modelos de datos.
 Presenta informes de calidad después de evaluaciones modales.
 Tiene algunas características avanzadas, con estas se puede realizar la integración
con el paquete JAVA y R.
 En funciones avanzadas, el software también puede soportar lenguaje SQL.
 El software lleva a cabo análisis de riesgo, calificación de crédito, segmentación de
clientes, perfil de clientes y análisis basado en el mercado, análisis de tasa de churn,
optimización de campañas de marketing, detección de fraudes, venta cruzada y up-
selling.

IBM SPSS MODELER


Es una plataforma analítica de IBM, que brinda inteligencia predictiva a problemas de
negocios del día a día:
 Provee un rango de análisis avanzado que incluye análisis de texto, análisis de redes
sociales, modelado automático, preparación de datos, gestión y optimización de
decisiones.
 Se conecta con datos almacenados en Data Warehouse, base de datos, Hadoop, o
archivos planos al margen de si están estructurado por edad, precio, producto,
locación o sin estructurar como ejemplo en un texto, email o medios sociales.

MICROSOFT SQL SERVER


Microsoft Integration Services es una plataforma para crear soluciones de integración de
datos y transformaciones de datos a nivel de empresa.
 Se utiliza para resolver problemas empresariales complejos al copiar o descargar
archivos, enviar mensajes de correo electrónico en respuesta a eventos, actualizar
almacenes de datos, limpiar y extraer datos y administrar objetos y datos de SQL
Server.
 Los paquetes pueden trabajar solos o en conjunto con otros paquetes para resolver
las complejas necesidades del negocio.
 Puede extraer y transformar datos de una amplia variedad de fuentes, como archivos
de datos XML, archivos planos y fuentes de datos relacionales, y luego cargar los
datos en uno o más destinos.
 Incluye un rico conjunto de tareas y transformaciones integradas: Herramientas para
la construcción y administración de paquetes.
 Puede utilizar las herramientas gráficas para crear soluciones sin escribir una sola
línea de código.
 Puede crear paquetes mediante programación y codificar tareas personalizadas y
otros objetos de paquete.

ORACLE DATA MINING ODM


Oracle Data Mining ODM proporciona una potente funcionalidad de minería de datos y
permite a los usuarios descubrir nuevos conocimientos sobre datos ocultos.
 Oracle Data Mining ODM tiene varios algoritmos de minería de datos y análisis
de datos y forma parte de Oracle Relational Database Management System
Enterprise Edition.
 Estos algoritmos proporcionan medios para la creación, manipulación,
aplicación, prueba y despliegue de modelos.
 Se utilizan para la clasificación, predicción, regresión, asociaciones, selección
de características, detección de anomalías, extracción de características y
análisis especializados.
 Los modelos se implementan en el kernel de la base de datos Oracle y se
almacenan como objetos de la base de datos.
 Los modelos se pueden crear utilizando una interfaz gráfica de usuario.
 Los analistas de negocios pueden hacer análisis predictivos utilizando la hoja de
cálculo de Oracle para análisis predictivo.
 La mayoría de los enfoques de aprendizaje de máquina conocidos como árboles
de decisión, bayes ingenuos, máquinas vectoriales de apoyo, modelo lineal
generalizado para minería predictiva, reglas de asociación, K-medios y partición
ortogonal, agrupación y factorización matricial no negativa están disponibles.
 La minería de texto también está disponible en Oracle Data Mining ODM.

El aprendizaje supervisado se utiliza en problemas en los que se tiene conocimiento del


resultado al que se quiere llegar, por ejemplo, para la detección de aquellos clientes que son
más propensos a la fuga de la empresa.
Los modelos predictivos requieren ser “entrenados”, utilizando un conjunto de datos de
entrenamiento cuyo valor de variable objetivo es conocido. La idea es que el modelo
entregue resultados en base un aprendizaje, en otras palabras, que se vaya ajustando a la
realidad conocida.
El aprendizaje no supervisado, es usado en los casos en que no se tiene conocimiento
previo del resultado al que se va a llegar, por ejemplo, al segmentar a los clientes en grupos
que no hayan sido definidos previamente.
Se tienen los modelos descriptivos, en los cuales no se cuenta con un resultado conocido
para poder guiar a los algoritmos, en donde el modelo se va ajustando de acuerdo a las
observaciones o datos entregados, y se recurre muchas veces a argumentos heurísticos para
evaluar la calidad de los resultados.

http://repositorio.usil.edu.pe/bitstream/USIL/2763/1/2017_Granda_Aplicacion-de-mineria-
datos.pdf

https://mnrva.io/kdd-platform.html

https://hipodec.up.edu.mx/blog/que-es-data-mining

También podría gustarte