Programa do Curso

Introdução

  • Visão geral das características e da arquitetura do Spark e Hadoop
  • Compreender os grandes volumes de dados
  • Python noções básicas de programação

Primeiros passos

  • Configurar o Python, o Spark e o Hadoop
  • Compreender as estruturas de dados em Python
  • Compreender a API PySpark
  • Compreender o HDFS e o MapReduce

Integrando Spark e Hadoop com Python

  • Implementar o Spark RDD em Python
  • Processar dados usando MapReduce
  • Criando conjuntos de dados distribuídos no HDFS

Machine Learning com Spark MLlib

Processando Big Data com Spark Streaming

Trabalhar com sistemas de recomendação

Trabalhar com Kafka, Sqoop, Kafka e Flume

Apache Mahout com Spark e Hadoop

Solução de problemas

Resumo e próximos passos

Requisitos

  • Experiência com Spark e Hadoop
  • Python experiência em programação

Público

  • Cientistas de dados
  • Programadores
 21 Horas

Número de participantes


Preço por Participante

Declaração de Clientes (3)

Próximas Formações Provisórias

Categorias Relacionadas