Contenido Formativo
Conocer en profundidad los diferentes paradigmas de procesamiento en sistemas Big Data y dominar las principales tecnologías y su utilización para el diseño de arquitecturas escalables adaptadas a cada proyecto.
Objetivos
1. Batch processing.
1.1. Hadoop.
1.2. Pig.
1.3. Hive.
1.4. Sqoop.
1.5. Flume.
1.6. Spark core.
1.7. Spark 2.0.
2. Streaming processing.
2.1. Fundamentos de streaming processing.
2.2. Spark streaming.
2.3. Kafka.
2.4. Pulsar y apache apex.
2.5. Implementación de un sistema real-time.
3. Sistemas noSQL.
3.1. Hbase.
3.2. Cassandra.
3.3. MongoDB.
3.4. Neo4j.
3.5. Redis.
3.6. Berkeley DB.
4. Interactive query.
4.1. Lucene + solr.
5. Sistemas de computación híbridos.
5.1. Arquitectura lambda.
5.2. Arquitectura kappa.
5.3. Apache flink e implementaciones prácticas.
5.4. Druid.
5.5. Elasticsearch.
5.6. Logstash.
5.7. Kibana.
6. Cloud computing.
6.1. Amazon web services.
6.2. Google cloud platform.
7. Administración de sistemas big.
7.1. Administración e instalación de clusters: cloudera y hortonworks.
7.2. Optimización y monitorización de servicios.
7.3. Seguridad: apache knox, ranger y sentry.
8. Visualización de datos.
8.1. Herramientas de visualización: tableau y cartodb.
8.2. Librerías de visualización: d3, leaflet, cytoscape.
Duración
165 horas
¡Infórmate gratis y sin compromiso!