Bootcamp DATA ENGINEER

Descargar como pdf o txt
Descargar como pdf o txt
Está en la página 1de 11

Bootcamp

Data Engineer
+10 cursos
e-learning

¡Conviértete en el próximo
Ingeniero de Datos de Latam!
Aprenderás las herramientas de Big Data más utilizadas por las
grandes empresas. Podrás armar tu propio portafolio de proyectos
y conocer la implementación sobre arquitectura batch y realtime.
+14
Sobre este
programa +150 +10
Semanas de Horas académicas
Cursos
preparación e-learning

¿Cómo trabajamos?
•En sesiones 80% prácticas.
•Temas desde los más básicos hasta los más avanzados.
•Asesorías permanentes con docentes top del programa.
•Acceso libre al contenido de nuestra plataforma.
•Elaboración conjunta del portafolio final.

Nuestros egresados cuentan con las habilidades para


diseñar soluciones de data desde cero tomando en
consideración aspectos como la seguridad,
escalabilidad, costo y eficiencia operativa con la nube y
Perfil del onpremise. Un Data Engineer sabe diseñar soluciones y
egresado tiene el conocimiento suficiente para automatizar flujos
de datos utilizando herramientas cloud y onpremise.

Adquirirás los
conocimientos
1. Data Analytics Fundamentals 6. Despliegue de APIS with Python
2. Linux Fundamentals 7. BigData Developer
3. Database fundamentals 8. Data Scheduling
4. Git and Github Fundamentals 9. Apache Spark Developer
5. Análisis de datos con Python 10. Cloud Specialization

Claúsulas: No se requiere conocimientos previos para cursar el


Bootcamp Data Engineer.
Docentes del Programa

Mario Barbosa [Data Engineer- CBQA Solutions Inc.]

Cuenta con +9 años de experiencia en planificación,


desarrollo e implementación de proyectos que requieren el
uso de datos para la obtención de valor. Aprovecha los
conocimientos adquiridos con los diferentes diplomados,
procesos de autoaprendizaje y cursos de preparación
académica realizados y utiliza la agilidad y su manifiesto
como hoja de ruta en sus proyectos personales de
aprendizaje y crecimiento profesional.

Kremlin Huamán [Big Data Engineer - Interbank]

Licenciado en Ingeniería de software de la UNMSM. Se


desempeña como Big Data Software Engineer. Neo4J
Certified Professional. Cuenta con certificaciones y
especializaciones en Azure, Spark, Python. Cuenta con
+5 años de experiencia en TI. Cuenta con +3 años de
experiencia en Data Engineering

Robert Huayta [Analytics Leader]

Profesional con más de 12 años de experiencia en


áreas de TI, BI, Data, Big data y Analytics en
entidades del rubro de banca, seguro, retail, agro
industrial y telecomunicaciones
Contenido del Programa

Módulo 1: Analytics Fundamentals Módulo 5: Introducción a Machine Learning


El primer módulo es para comprender los Temas a abordar:
fundamentos de un proyecto de analitica de datos. Introducción a Machine Learning - Fundamentos
Temas a aborar: Contruyendo un Movie recommendation system
Introducción a Data & Analytics con Sklearn
Metodología para construír un proyecto en data Creación de Blog: ML Movie recommendation
system with Python
Certificación de BI en Certiprof

Módulo 6: Despliegue Data API's con Python


Módulo 2: Introducción a Bases de Datos
Temas a abordar:
El segundo módulo es para comprender los Introducción y despliege de modelos de ML con
fundamentos de las bases de datos y cómo FastApi/Flask
funcionan en un proyecto de Ingeniería de Datos. Despliege de modelos de ML con FastApi/Flask II
Temas a abordar: Creación de Blog: Despliegue de modelos de ML
¿Qué es y cómo funciona una base de con FastAPI/Flask
datos?, Sublenguajes DDL, DML, DCL en MySQL
Modelando bases de datos Transaccionales
Módulo 7: Big Data Developer
(OLTP)
Modelando bases de datos analíticas (OLAP) Temas a abordar:
Vistas, procedimientos almacenados, Introducción al ecosistema Hadoop e instalación
funciones y Triggers de herramientas
Creación y publicación de blogs sobre BD’s Almacenamiento de datos en FDHS
OLT y OLAP Procesamiento de datos con Apache Spark y Hive
Creación de Blogs: Data Pipelines from MySQL to
HDFS y Data Pipelines from HDFS to Hive
Módulo 3: Git y Github
Fundamentals
Módulo 8. Proyecto: Real Time
El presente módulo es para comprender los processing con Apache Spark y Kafka
fundamentos de git y github. Temas a
abordar: Temas a abordar:
Introducción a Git y Github Introducción al real time processing
Versionando proyectos con Git y Github Data Pipeline from Mysql to Stage Layer data in
Creación de un blog sobre como crear real time
Creación de Blog: Data Pipelines from MySQL to
un repositorio en Github: hacer Git add,
Stage Layer Data
commit, push and pull

Módulo 4: Análisis de Datos Módulo 9: Data Engineering


con Python with Python
El presente módulo es para comprender los Temas a abordar:
fundamentos de Python y su aplicación en la Definición de Arquitectura de un proyecto
cencia de datos. Temas a abordar: Ingesta de datos I
Conociendo Python: El lenguaje de Construcción de Data Pipelines I
Construcción de Data Pipelines II
programación de los ingenieros de datos
Data Scheduling con Airflow
Implementando un proceso ETL con Python
Puesta en producción de pipelines
Análisis de datos con Pandas Creación de Blog: Data Pipelines from Stage Layer
Visualización de datos con Seaborn & Matplotlib Data to Data Warehouse in Mysql and Scheduling
Creación de Blog: ETL Process with MySQL and with Airflow
Data Analytics with Python

Datapath, para sus programas de Educación Continuada, se reserva el derecho de


modificar la currícula según estándares de calidad o demandas en el campo laboral,
cambiar sus docentes y fechas de realización, o cancelarlos de no contar con el número de
personas requerido para tal fin. Lo anterior se informará a los interesados con antelación.
Proyectos que desarrollarás en el
Bootcamp Data Engineer

Business Intelligence OLTP Relational


Certified by Certiprof Database with

1 . Certificación Profesional De La Fundación 2 . Creación de una Base de datos


Business Intelligence - BIFPC Transaccional (OLTP) con MySQL
Business Intelligence Data Analyst MySQL SQL
Cerificado otorgado por aprovar el examen de Certiprof Cómo implementar adecuadamente bases de datos
transaccionales en MySQL

OLAP
OLAP Relational OLTP
ETL

Database with

3. Creación de una base de datos analítica 4. ETL Process with MySQL and Data
OLAP con MySQL Analytics with Python
MySQL SQL Python MySQL OLAP OLTP
Cómo crear bases de datos analíticas en MySQL Implementar procesos ETL con Python

Movie Recomender Deploy Machine


System with Learning Models
Scikit-Learn with APIS
5. Movie Recomendation system with 6. Despliegue de modelos de Machine
ScikitLearn Learning con FastAPI
Python ScikitLearn Machine Learning FastAPI Python Machine Learning APIS
Implementar un modelo de recomendaciõn de
Desplegar modelos de machine learning con FastAPI
pelĩculas con Python y Sckit learn

Data Pipelines Data Pipelines from


from MySQL MySQL to Apache Hive
to HDFS
7. Data Pipelines from MySQL to HDFS 8. Data Pipelines from HDFS to Hive with Spark
MySQL HDFS Apache Spark Hadoop Hive
Conectar una base de datos en MySQL a Hadoop HDFS Construir un pipeline de datos con Spark, utilizando
Hadoop y Hive

Real time Data pipelines


processing with with Apache
Apache Kafka Airflow
9. Data Pipelines from MySQL to Stage Layer 10. Data Pipelines from Stage Layer Data to
Data in Real Time MySQL OLAP with Apache AIrflow
Apache Kafka MySQL Real Time Python Apache Airflow MySQL
Real TIme Processing with Apache Kafka and MySQL Build a data pipeline with Apache AIrflow
Especialízate en una de las principales nubes de mayor uso en el mundo
Duración: 5 semanas

Roadmap de
aprendizaje 1 2
Data & Analytics Bases de Datos

5 4 3
Machine Learning Python Git y Github

6 7 8
Despliegue Big Data & Real Time processing
Data API’s Hadoop con Apache Spark
Ecosystem y Kafka

11 10 9
Empleabilidad Cloud Construcción de
Specialization data pipelines
Además de las clases en vivo,
tendrás acceso gratuito a 18 cursos
e-learning en nuestra plataforma:

Apache Spark Fundamentals


BigQuery de Cero a Héroe
Azure Synapse Analytics
Airflow 2.0 de Cero a Héroe
Análisis de Datos con Python
Introducción a Azure
Introducción a Google Cloud Platform
Scala Fundamentals
NoSQL desde cero
Fundamentos de consumo y construcción de APIs
Azure Data Factory
SQL para Todos
Fundamentos de Git en Cloud
Introducción a AWS
Azure SQL
Python para Todos
Apache Spark Developer
Visualización de Datos con Python.

Todos incluyen certificado


de aprobación para
potenciar tu CV
TESTIMONIOS DE LOS ALUMNOS

Brayan Aguilera Barrón Luciano Paucar Sanchez

Mi experiencia a sido muy satisfactoria, ya Yo recomiendo al 100% a Datapath,


que, soy nuevo en el mundo de los datos y porque sus profesores son de
Datapath a sido el lugar donde me han primera,ya que, más allá de la teoría
enseñado muchas cosas, me abrió un que nos brindan nos pudo guíar con
panorama que no conocía y en un futuro experiencias y sobretodo la práctica,
poder poner en práctica todo lo aprendido. entonces eso es un plus más.

Juan Pablo Izquierdo

Si recomendaria a Datapath,puesto que,los


docentes son muy buenos, ya que, cuentan
con una experiencia y sobre todo han
estado dispuestos a ayudarnos en todo
momento, a nuestros compañeros y a mí.
Horarios

Martes, Jueves, Sábado 150 horas Crea tu portafolio


3hrs por sesión académicas de proyectos

Martes

6pm-9pm 7pm-10pm 8pm-11pm 9pm-12pm

Jueves

6pm-9pm 7pm-10pm 8pm-11pm 9pm-12pm

Sábado

8am-11am 9am-12pm 10am-1pm 11am-2pm


Tarjeta
débito/crédito Paypal

Binance Western Union

Transferencia Bancaria
(Solo para estudiantes de Perú)

Corriente Interbank a nombre de Disruptive Training SRL*

Nº DE CUENTA SOLES: 041-3002240629


C. INTERBANCARIO: 003-041-003002240629-19

Nº DE CUENTA DÓLARES: 041-3002240636


C. INTERBANCARIO: 003-041-003002240636-14
Acelerando el talento en Datos en Latinoamérica

www.datapath.ai

Consulta nuestros próximos programas

+51 946561058 hola@datapath.ai

Síguenos en
@datapathinformation

También podría gustarte