Introduccion Al Machine Learning

Descargar como docx, pdf o txt
Descargar como docx, pdf o txt
Está en la página 1de 5

PRESENTACION

Schedule, PPT teóricos + metodología (jupyter notebooks) + casos prácticos


del negocio.

INTRODUCCION AL MACHINE LEARNING


((Imagen de los globos)) Lugar del machine en el mundo

La Data Science está definida como campo multidisciplinario compuesto de 3


skills, disciplinas y/o dominios: pensamiento computacional,
estadística/matemáticas y dominio de negocio.

Big Data es un paradigma de computación en el que confluyen las 3Vs:


Velocidad, Volumen y/o Variedad, empujado por la alta capacidad de
computación.

Un paradigma caracterizado por:


➔ Exponencial incremento de la generación y almacenamiento de datos
➔ Incremento de formatos de datos
➔ Capacidad de computación
➔ Capacidad de la red
➔ Real time
➔ Internet de las cosas

Big Data Science es donde confluyen las 3 Vs del Big Data y las 3 disciplinas
de la Data Science.

La Inteligencia Artificial es un área de la Informática (Ciencias de la


Computación) que trata de construir máquinas que piensen y se comporten
como humanos.

Machine Learning es una disciplina dentro de la Inteligencia Artificial donde se


estudian métodos para hacer predicciones, que podamos programar y
automatizar. Machine Learning dota a las máquinas de la capacidad de
aprender.

“A computer program is said to learn from experience (E) with some class of
tasks (T) and a performance measure (P) if its performance at tasks in T as
measured by P improves with E”

“Un programa de ordenador se dice que aprende de una experiencia (E) a


través de una serie de tareas (T) y una medida de realización (P) si su
realización de las tareas T son medidas por P y mejoradas con E.”
Deep Learning es un área que trata de imitar la actividad de las capas de
neuronas de la neocorteza. Se construye software que aprende (de forma muy
real) a reconocer patrones en representaciones digitales de sonidos, imágenes
y otros datos complejos.

Conceptos básicos de Machine learning

Conceptos de Features, Labels, Fase de entrenamiento, Fase de predicción


Imagen de imagen de entrenamiento y predicción

Diferencias y similitudes entre cómo aprenden los humanos y las máquinas.


Imágenes de cómo aprenden los humanos y las máquinas.

Bases del apredizaje supervisado y no supervisado

(La idea es dividir el dibujo de la división de machine learning en varias


diapositivas para cada caso)

Imagen de división de Machine Learning (solo globos principales)

¿Qué es el aprendizaje supervisado? Ejemplos

Imagen de aprendizaje supervisado

¿Qué es el aprendizaje no supervisado? Ejemplos

Imagen de aprendizaje no supervisado

¿Qué es el aprendizaje por transferencia?

Imagen de aprendizaje por transferencia

El aprendizaje supervisado

División en dos grandes bloques: Clasificación y Regresión


Clasificación: Ejemplos de Clasificación: Detección de
enfermedades, Apuestas deportivas, Evaluación de préstamos, Enfermedades
de plantas. OCR sobre caracteres manuscritos, Anti Spam, Face Recognition,
NLP, Computer Vision, etc.

Regresión: Cálculo de precios. (más de la diapositiva) Se utiliza


en segmentación de mercados, análisis de redes sociales, análisis de datos
astronómicos, etc
Varios modelos para estos dos grandes bloques: SVM, Redes
neuronales, Deep Learning, Árbol de decisión, Bosque aleatorio , KNN,
Regresión logística, etc.

Faltan imágenes de Qué se clasifica y qué se clusteriza

Imágenes 1 a 9 de clustering

Problemas de dosificación y predicción (Sesgo y Varianza)

Imagen de sesgo y varianza 1 y después 2

Receta muy muy básica para evitar la bias y la variance

1. ¿High Bias?
Si: - Añadir características
- Mejorar el algoritmo, cambiar la red neuronal, etc
- Decrementar Lambda si hay regularización
- Volver al paso 1.
2. ¿High Variance?
Si: - Conseguir más casos de entrenamiento
- Añadir regularización (L2, dropout, Data Augmentation, Early
Stopping por ejemplo), o incrementar Lambda
- Volver al paso 2.
3. Nuestro sistema es óptimo

Otros de resolución de problemas: Feature normalización.

Distribución de las muestras en varios tipos: Entrenamiento, Validación


Test.

¿Qué se saca de esto?


La principal ventaja es que con el set de entrenamiento, se hace aprender al
modelo, con el de Validación se ajustan los hiperparámetros, y con el de Test, se
prueba.
División básica y división para big data en %
Básica: 60-20-20
Big Data: 98-1-1
Curvas de aprendizaje (imágenes)

Problemas de cálculo. Vectorización.


¿Qué es la validación cruzada?
La validación cruzada es una técnica que consiste en reservar una muestra
particular de un conjunto de datos en el que no se entrena el modelo. Luego, prueba
su modelo en esta muestra antes de finalizarlo.

Aquí están los pasos involucrados en la validación cruzada:

1. Se reserva un conjunto de datos de muestra.


2. Se entrena el modelo utilizando la parte restante del conjunto de datos
3. Utilice la muestra de reserva del conjunto de prueba (validación). Esto le
ayudará a evaluar la eficacia del rendimiento de su modelo. Si su modelo
ofrece un resultado positivo en los datos de validación, siga adelante con el
modelo actual.

Hay varios enfoques:

a) 50/50 (50% para entrenamiento, 50% para Validación cruzada)


b) LOOCV (Dejar solo un ejemplo para Validación cruzada) ó LPOCV,
que deja un número p de ejemplos para Validación cruzada.
c) K-fold: Se toman k combinaciones aleatorias de conjuntos train y
conjuntos val. Se prueba en los k-1 y se valida en el k. Se anotan los
errores de cada combinación y la media es el error de validación
cruzada.
d) K-fold estratificada: Es una mejora de K-fold, porque se asegura que
las k combinaciones dan muestras más identificativas del conjunto
total de los datos.
e) K-fold repetida: Para aquellos casos en los que el conjunto de
entrenamiento no representa adecuadamente a toda la población del
estudio.
f) Validación cruzada especial para series temporales. Ya que las
anteriores no funcionan para dichas series temporales. Las
combinaciones siempre van en la dirección del tiempo.

Visión general del problema:


Todos aquellos que empiezan en el mundo del Machine Learning, piensan que todo
consiste en aplicar al conjunto de datos el algoritmo o la estrategia más adecuada. Si
no se ajusta, se buscan más datos, se modifican algunos parámetros hasta que la
precisión sea muy alta.

Pero esta parte es sólo la punta del Iceberg.

Todo proceso de machine learning podría seguir una serie de pasos.


0. Obtener los datos brutos.
1. Seleccionar las características de entrada. Cuidando su proporción con el
número de muestras de ejemplo. Utilizar ingeniería de características si es
necesario.
2. Determinar la idoneidad de las muestras de ejemplo. Estructuración de las
muestras. Limpieza, eliminación de perdidos, ajuste de outliers, etc.
3. Distribución en set train /dev/test por algún método de validación cruzada.
4. Entrenamiento con el train set. Se estudia la bondad del algoritmo
5. Ajuste de los hyperparámetros con el dev set. Aplicando regularización, etc.
Modificando el algoritmo que trabaja el punto 4. Y volviendo al de nuevo a
este punto 5.
6. Probar el algoritmo con el test set. Cálculo de precisiones y se da por bueno:
puesta en producción.
Iceber Comparativa

Visto lo visto, si además el conjunto de datos es grande, el proceso puede ser


inabarcable y además habría que afrontar optimización (mini-batch, inicialización de
pesos, momentum, RMSprop, Adam optimization, etc

Hyperparámetros: Son parámetros de optimización, de regularización, de aprendizaje


que permiten un mejor funcionamiento de los algoritmos y por ello del control de los
verdaderos parámetros.
No todos los hiperparámetros son igualmente importantes, de hecho, la importancia
del tratamiento de los hiperparámetros puede ser la siguiente:
i. Learning rate.
ii. Momentum beta.
iii. Mini-batch size.
iv. No. of hidden units. (Si es NN)
v. No. of layers. (Si es NN)
vi. Learning rate decay.
vii. Regularization lambda.
viii. Activation functions, o algoritmo del modelo
ix. Adam beta1 & beta2.

También podría gustarte