Universidad Tecnológica de Nezahualcóyotl: Extracción de Conocimientos de Base de Datos

Descargar como pdf o txt
Descargar como pdf o txt
Está en la página 1de 8

Universidad Tecnológica de

Nezahualcóyotl

Extracción de Conocimientos de Base de Datos


ML - Conceptos Mat
Profesora:
Barbeyto Chalte Catalina

Alumno:
Agaton Barrera Edher Donnovan
Minero Ramirez Andres Minero

Grupo: ITIC-901M
ML
El Machine Learning o aprendizaje automático es un campo científico y, más
particularmente, una subcategoría de inteligencia artificial.

Consiste en dejar que los algoritmos descubran «patterns», es decir, patrones


recurrentes, en conjuntos de datos. Esos datos pueden ser números, palabras,
imágenes, estadísticas, etc.

Todo lo que se pueda almacenar digitalmente puede servir como dato para el
Machine Learning. Al detectar patrones en esos datos, los algoritmos aprenden y
mejoran su rendimiento en la ejecución de una tarea específica.

ML supervisado
En el caso del aprendizaje supervisado, el más común, los datos se etiquetan para
indicar a la máquina qué patrones tiene que buscar.
El sistema se entrena sobre un conjunto de datos etiquetados, con la información
que se supone que tiene que determinar. Es posible que los datos ya estén
clasificados de la forma en que se supone que debe hacerlo el sistema.
Este método requiere menos datos de entrenamiento que los demás y facilita el
proceso de entrenamiento, ya que los resultados del modelo se pueden comparar
con los datos ya etiquetados. Sin embargo, etiquetar los datos puede resultar caro.
Un modelo también puede estar sesgado debido a los datos de entrenamiento, lo
que afectará a su rendimiento más adelante cuando procese nuevos datos.

ML no supervisado
En el caso del aprendizaje no supervisado, los datos no tienen etiquetas. La
máquina se contenta con explorar los datos en busca de posibles patrones. Ingiere
grandes cantidades de datos y utiliza algoritmos para extraer las características
relevantes necesarias para etiquetar, ordenar y clasificar datos en tiempo real sin
intervención humana.
En lugar de automatizar decisiones y predicciones, este enfoque ayuda a identificar
patrones y relaciones que los humanos pueden pasar por alto en los datos. Esta
técnica no es muy popular porque es menos fácil de aplicar. Sin embargo, es cada
vez más popular en el campo de la ciberseguridad.
ML semisupervisado
El aprendizaje «semisupervisado» se encuentra entre los dos y ofrece un punto
medio entre aprendizaje supervisado y no supervisado. Durante el entrenamiento,
se utiliza un conjunto de datos etiquetado más pequeño para guiar la clasificación y
la extracción de características de un conjunto de datos no etiquetado más grande.
Este enfoque es útil en situaciones en las que no hay datos etiquetados
suficientes para entrenar un algoritmo supervisado. Permite solventar el problema.
Finalmente, el aprendizaje por refuerzo consiste en dejar que un algoritmo aprenda
de sus errores para lograr un objetivo. El algoritmo probará muchos enfoques
diferentes para intentar lograr su objetivo.
Dependiendo de su rendimiento, será recompensado o penalizado para animarlo a
continuar por un camino o cambiar su enfoque. Esta técnica se utiliza en particular
para permitir que una IA supere a los humanos en los juegos.

Por ejemplo, AlphaGo de Google venció al campeón de Go a través del aprendizaje


por refuerzo. Asimismo, OpenAI ha entrenado una IA capaz de derrotar a los
mejores jugadores del videojuego Dota 2.

Algoritmos para ML
Existe una amplia variedad de algoritmos de Machine Learning.
En primer lugar, se utilizan diferentes algoritmos para los datos etiquetados.

Los algoritmos de regresión, lineal o logística, permiten comprender las relaciones


entre los datos. La regresión lineal se utiliza para predecir el valor de una variable
dependiente en función del valor de una variable independiente.

“ En estadísticas, regresión lineal es una aproximación para modelar la relación


entre una variable escalar dependiente “y” y una o mas variables explicativas
nombradas con “X”. ”
Sería por ejemplo, para predecir las ventas anuales de un comercial en función de
su nivel de estudios o de experiencia.
La regresión logística a su vez se utiliza cuando las variables dependientes son
binarias. Otro tipo de algoritmo de regresión llamado máquina de vectores de
soporte es pertinente cuando las variables dependientes son más difíciles de
clasificar.
Algoritmos para ML

• Regresión lineal

La regresión lineal (linear regression) es un algoritmo de aprendizaje supervisado


que se utiliza para predecir y pronosticar valores dentro de un rango continuo, como
cifras de ventas o precios.

Procedente de la estadística, la regresión lineal desempeña una tarea de


regresión (regression task), que asigna una pendiente constante utilizando un valor
de entrada (X) con una variable de salida (Y) para predecir un valor numérico o una
cantidad. La regresión lineal usa datos etiquetados para hacer predicciones
estableciendo una línea de mejor ajuste (line of best fit), o “línea de regresión”, que
se aproxima a partir de un diagrama de dispersión de puntos de datos. Como
resultado, la regresión lineal se emplea para el modelado predictivo más que para
la categorización.

• Regresión logística
La regresión logística (logistic regression), o “regresión logit”, es un algoritmo de
aprendizaje supervisado utilizado para la clasificación binaria, como decidir si una
imagen encaja en una clase u otra.
Originaria de la estadística, la regresión logística predice técnicamente la
probabilidad de que una entrada pueda clasificarse en una única clase primaria. En
la práctica, sin embargo, puede emplearse para agrupar las salidas en una de dos
categorías: “clase primaria” (“the primary class”) o “clase secundaria” (“not the
primary class”). Esto se consigue creando un rango para la clasificación binaria, de
forma que cualquier salida entre 0 y 0,49 se incluya en un grupo y cualquier salida
entre 0,50 y 1,00 se incluya en otro.
Como resultado, la regresión logística en el aprendizaje automático se utiliza
normalmente para la categorización binaria en lugar de para el modelado predictivo.

• Clasificador bayesiano ingenuo


El clasificador bayesiano ingenuo o “Naive Bayes” es un conjunto de algoritmos
de aprendizaje supervisado que se utilizan para crear modelos predictivos de
categorización binaria o múltiple. Basado en el Teorema de Bayes, Naive Bayes
opera con probabilidades condicionales, que son independientes entre sí, pero
indican la probabilidad de una clasificación basada en sus factores combinados.
Por ejemplo, un programa ingeniado para identificar plantas podría usar un
algoritmo de Bayes ingenuo para clasificar imágenes en función de factores
concretos, como el tamaño, el color y la apariencia percibida. Aunque cada uno de
estos factores es independiente del otro, el algoritmo anotaría la probabilidad de
que un objeto sea una planta concreta utilizando los factores combinados.

• Árbol de decisión
Un árbol de decisión (decision tree) es un algoritmo de aprendizaje supervisado
utilizado para la clasificación y el modelado predictivo.
Semejante a un diagrama de flujo gráfico, un árbol de decisión comienza con
un nodo raíz, que formula una pregunta concreta a los datos y luego los envía por
una rama en función de la respuesta. Cada una de estas ramas conduce a un nodo
interno, que a su vez formula otra pregunta a los datos antes de dirigirlos hacia otra
rama en función de la respuesta. Esto continúa hasta que los datos llegan a un nodo
final, también llamado nodo hoja, que no se ramifica más.
Los árboles de decisión son habituales en el aprendizaje automático porque pueden
manejar conjuntos de datos complejos con relativa sencillez.

• Algoritmo de bosque aleatorio


Un algoritmo de bosque aleatorio (random forest algorithm) utiliza un conjunto de
árboles de decisión para la clasificación y el modelado predictivo.

En un bosque aleatorio, muchos árboles de decisión (a veces cientos o incluso


miles) se entrenan utilizando una muestra aleatoria del conjunto de entrenamiento
(un método conocido como bagging). Después, los investigadores introducen los
mismos datos en cada árbol de decisión del bosque aleatorio y cuentan sus
resultados finales. Luego se selecciona el resultado más común como el más
probable para el conjunto de datos.
Aunque pueden llegar a ser complejos y requerir mucho tiempo, los bosques
aleatorios corrigen el problema común del “sobreajuste” (overfitting) que puede
producirse con los árboles de decisión. Se habla de sobreajuste cuando un
algoritmo se ajusta demasiado a su conjunto de datos de entrenamiento, lo que
puede repercutir negativamente en su precisión cuando se introduce posteriormente
en nuevos datos.

• Algoritmo K-Nearest neighbor (KNN)


Un algoritmo K-Nearest neighbor es un algoritmo de aprendizaje supervisado que
se usa para la clasificación y el modelado predictivo.
Fieles a su nombre, los algoritmos KNN clasifican una salida por su proximidad a
otras salidas en un gráfico. Por ejemplo, si una salida está más cerca de un grupo
de puntos azules en un gráfico que de un grupo de puntos rojos, se clasificaría como
miembro del grupo azul. Este enfoque significa que los algoritmos KNN pueden
utilizarse tanto para clasificar resultados conocidos como para predecir el valor de
resultados desconocidos.

• Algoritmo K means

K means es un algoritmo no supervisado que se emplea para la clasificación y el


modelado predictivo.
Al igual que KNN, K means utiliza la proximidad de un resultado a un conglomerado
de puntos de datos para identificarlo. Cada uno de los conglomerados está definido
por un centroide, un punto central real o imaginario del conglomerado. K means es
útil en grandes conjuntos de datos, especialmente para la agrupación, aunque
puede fallar cuando maneja valores atípicos.
Deep Lerarning
El deep learning es un subconjunto del machine learning que utiliza redes
neuronales multicapa, llamadas redes neuronales profundas, para simular el
complejo poder de toma de decisiones del cerebro humano. Algunas formas de deep
learning impulsan la mayoría de las aplicaciones de inteligencia artificial (IA) en
nuestra vida actual.
La principal diferencia entre el deep learning y el machine learning es la estructura
de la arquitectura de red neuronal subyacente. Los modelos tradicionales de
machine learning “no profundos” utilizan redes neuronales simples con una o dos
capas computacionales. Los modelos de deep learning utilizan tres o más capas,
pero normalmente cientos o miles de capas, para entrenar los modelos.
Mientras que los modelos de aprendizaje supervisado requieren datos de entrada
estructurados y etiquetados para obtener resultados precisos, los modelos de deep
learning pueden utilizar el aprendizaje no supervisado. Con el aprendizaje no
supervisado, los modelos de deep learning pueden extraer las características, los
rasgos y las relaciones que necesitan para obtener resultados precisos a partir de
datos brutos y no estructurados. Además, estos modelos pueden incluso evaluar y
refinar sus resultados para aumentar la precisión.
El deep learning es un aspecto de la ciencia de datos que impulsa muchas
aplicaciones y servicios que mejoran la automatización, realizando tareas analíticas
y físicas sin intervención humana. Esto permite muchos productos y servicios
cotidianos, como asistentes digitales, controles remotos de TV habilitados para voz,
detección de fraudes con tarjetas de crédito, automóviles autónomos e IA
generativa.
Redes Neuronales

Una red neuronal es un programa, o modelo, de machine learning que toma


decisiones de forma similar al cerebro humano, utilizando procesos que imitan la
forma en que las neuronas biológicas trabajan juntas para identificar fenómenos,
sopesar opciones y llegar a conclusiones.
Toda red neuronal consta de capas de nodos o neuronas artificiales: una capa de
entrada, una o varias capas ocultas y una capa de salida. Cada nodo se conecta a
los demás y tiene su propia ponderación y umbral asociados. Si la salida de
cualquier nodo individual está por encima del valor umbral especificado, ese nodo
se activa y envía datos a la siguiente capa de la red. De lo contrario, no se pasa
ningún dato a la siguiente capa de la red.
Las redes neuronales se basan en datos de entrenamiento para aprender y mejorar
su precisión con el tiempo. Una perfeccionadas, se convierten en potentes
herramientas en informática e inteligencia artificial, que nos permiten clasificar y
agrupar datos a gran velocidad. Las tareas de reconocimiento de voz o de imágenes
pueden llevar minutos frente a horas si se comparan con la identificación manual
por parte de expertos humanos. Uno de los ejemplos más conocidos de red
neuronal es el algoritmo de búsqueda de Google.

1. Fortune Business Insights. “The global machine learning (ML) market is expected to
grow from $21.17 billion in 2022 to $209.91 billion by 2029,
https://www.fortunebusinessinsights.com/machine-learning-market-102226”.
Consultado el 2 de diciembre de 2022.

2. IBM. (s. f.). ¿Qué es el deep learning?. IBM. https://www.ibm.com/es-es/topics/deep-


learning

3. IBM. (s. f.). ¿Qué es una red neuronal?. IBM. https://www.ibm.com/es-


es/topics/neural-networks

También podría gustarte