Duración
30 horas
Objetivos
La persona asistente practicará con ecosistemas Big Data ampliamente utilizados (Hadoop y Spark), aprenderá a trabajar con grafos en la base de datos líder (Neo4J), aplicará machine learning en el datawarehouse de Google en la nube (BigQuery) y realizará laboratorios con los algoritmos esenciales del aprendizaje automático.
Temario
- Introducción a Big Data
- Tendencias
- Internet de las Cosas
- Economía del Dato
- ¿Qué es Big Data?
- Ecosistema Big Data
- Características de Big Data
- Tipos de Datos
- Big Data en la Nube
- Servicios IaaS / PaaS / SaaS
- Top players en la Nube
- Herramientas usadas en Big Data
- Hadoop
- ¿Qué es Hadoop?
- ¿Por qué es importante Hadoop?
- HDFS
- Hbase
- Map/Reduce
- Yarn
- Zookeeper
- Sqoop
- Hive
- Kafka
- Hue, Flume, Pig, Impala
- Lab Hadoop. Proceso de Negocio Completo
- Spark
- ¿Qué es Spark?
- Características
- Spark vs Map / Reduce
- DAG Gráfico Acíclico Dirigido
- RDD Dataset Distribuído Resiliente
- Acciones y transformaciones
- Etapas de un proceso Spark
- Modelo de programación
- Trabajo por lotes / tiempo real
- Ecosistema Spark
- NoSQL Neo4J
- Bases de datos NoSQL
- Bases de datos de Grafos: Neo4J
- ¿Qué es y cómo funciona Neo4J?
- Modelo de datos de un Grafo
- Google Big Query
- La nube de Google
- Comparativa Cloud top players
- Google Big Query. El Datawarehouse de Google
- Machine Learning
- Preparación de datos para Machine Learning
- Introducción a Inteligencia Artificial
- Algoritmos