Cursos de Apache Kafka for Python Programmers
Apache Kafka é uma plataforma de processamento de fluxos de código aberto que proporciona uma plataforma rápida, fiável e de baixa latência para o tratamento de análises de dados em tempo real. A Apache Kafka pode ser integrada com linguagens de programação disponíveis, como a Python.
Este treinamento ao vivo conduzido por instrutor (no local ou remoto) é destinado a engenheiros de dados, cientistas de dados e programadores que desejam usar os recursos Apache Kafka no fluxo de dados com Python.
No final deste treinamento, os participantes serão capazes de usar Apache Kafka para monitorar e gerenciar condições em fluxos de dados contínuos usando a programação Python.
Formato do curso
- Palestra interactiva e discussão.
- Muitos exercícios e prática.
- Implementação prática num ambiente de laboratório ao vivo.
Opções de personalização do curso
- Para solicitar uma formação personalizada para este curso, por favor contacte-nos para combinar.
Programa do Curso
Introdução
Síntese de Apache Kafka Características e arquitetura de Python
- APIs de base (produtor, consumidor, fluxos, conetor)
- Conceitos e utilizações
[Utilização do Kafka em Python
- Bibliotecas Python disponíveis para utilização
- Formatos de compressão suportados
Instalação Apache Kafka
- Instalação no computador
- Servidor privado virtual e instalação de máquina virtual
Iniciar o servidor do Broker Kafka
- Leitura e edição usando um IDE (Ambiente de Desenvolvimento Integrado)
- Executar o Zookeeper
- Pasta de registos
Criar um tópico do Kafka
- Conectando a um cluster do Kafka
- Lendo detalhes do tópico
Enviando mensagens usando produtores
- Iniciando um produtor
- Examinar mensagens recebidas
- Executar vários produtores
Consumir mensagens
- Consumidor da consola Kafka
- Executar vários consumidores
Resolução de problemas
Resumo e conclusão
Requisitos
- Experiência com a linguagem de programação Python.
- Familiaridade com plataformas de processamento de fluxos
Público
- Engenheiros de dados
- Cientistas de dados
- Programadores
Os cursos de treinamento abertos exigem mais de 5 participantes.
Cursos de Apache Kafka for Python Programmers - Booking
Cursos de Apache Kafka for Python Programmers - Enquiry
Apache Kafka for Python Programmers - Solicitação de Consultoria
Solicitação de Consultoria
Declaração de Clientes (5)
Sufficient hands on, trainer is knowledgable
Chris Tan
Curso - A Practical Introduction to Stream Processing
During the exercises, James explained me every step whereever I was getting stuck in more detail. I was completely new to NIFI. He explained the actual purpose of NIFI, even the basics such as open source. He covered every concept of Nifi starting from Beginner Level to Developer Level.
Firdous Hashim Ali - MOD A BLOCK
Curso - Apache NiFi for Administrators
Excelentes competências, exemplos, exercícios muito bons
Marek Konieczny - G2A.COM Limited
Curso - Kafka for Administrators
Máquina Traduzida
That I had it in the first place.
Peter Scales - CACI Ltd
Curso - Apache NiFi for Developers
Recalling/reviewing keypoints of the topics discussed.
Paolo Angelo Gaton - SMS Global Technologies Inc.
Curso - Building Stream Processing Applications with Kafka Streams
Próximas Formações Provisórias
Cursos Relacionados
Apache Kafka Connect
7 HorasEsta formação em direto, ministrada por um formador, em Brasil (online ou no local) destina-se a programadores que pretendam integrar Apache Kafka em bases de dados e aplicações existentes para processamento, análise, etc.
No final desta formação, os participantes serão capazes de
- Use o Kafka Connect para ingerir grandes quantidades de dados de um banco de dados em tópicos do Kafka.
- Ingira dados de log gerados por servidores de aplicativos em tópicos do Kafka.
- Disponibilizar todos os dados coletados para processamento de fluxo.
- Exportar dados de tópicos do Kafka para sistemas secundários para armazenamento e análise.
Unified Batch and Stream Processing with Apache Beam
14 HorasApache Beam é um modelo de programação unificado e de código aberto para definir e executar pipelines de processamento de dados paralelos. O seu poder reside na sua capacidade de executar pipelines em lote e em fluxo contínuo, sendo a execução efectuada por um dos back-ends de processamento distribuído suportados pelo Beam: Apache Apex, Apache Flink, Apache Spark e Google Cloud Dataflow. A solução Apache Beam é útil para tarefas de ETL (Extrair, Transformar e Carregar), como mover dados entre diferentes mídias de armazenamento e fontes de dados, transformar dados em um formato mais desejável e carregar dados em um novo sistema.
Neste treinamento ao vivo conduzido por instrutor (no local ou remoto), os participantes aprenderão como implementar os SDKs Apache Beam em um aplicativo Java ou Python que define um pipeline de processamento de dados para decompor um grande conjunto de dados em pedaços menores para processamento paralelo e independente.
Ao final deste treinamento, os participantes serão capazes de:
- Instalar e configurar Apache Beam.
- Utilizar um único modelo de programação para efetuar o processamento em lote e em fluxo a partir da sua aplicação Java ou Python.
- Executar pipelines em vários ambientes.
Formato do curso
- Parte palestra, parte discussão, exercícios e muita prática
Nota
- Este curso estará disponível Scala no futuro. Por favor, contacte-nos para organizar.
Building Kafka Solutions with Confluent
14 Horaseste instrutor liderada, treinamento ao vivo (no local ou remoto) destina-se a engenheiros que desejam usar confluent (uma distribuição de Kafka) para construir e gerenciar uma plataforma de processamento de dados em tempo real para suas aplicações.
no final deste treinamento, os participantes poderão:
- instalar e configurar plataforma confluente.
- use ferramentas de gestão confluentes & #39; s e serviços para executar Kafka mais facilmente.
- armazenar e processar dados de fluxo de entrada.
- otimizar e gerenciar clusters Kafka. fluxos de dados
- Secure.
formato do curso
- palestra interativa e discussão.
- lotes de exercícios e prática.
- implementação hands-on em um ambiente de laboratório ao vivo.
Opções de personalização do curso
- este curso é baseado na versão de código aberto de confluent: fonte aberta confluente.
- para solicitar um treinamento personalizado para este curso, entre em contato conosco para organizar.
Building Data Pipelines with Apache Kafka
7 HorasApache Kafka é uma plataforma de streaming distribuída. É, de fato, um padrão para a construção de pipelines de dados e resolve muitos casos de uso diferentes em torno do processamento de dados: ele pode ser usado como uma fila de mensagens, um log distribuído, um processador de fluxo etc.
Vamos começar com alguma teoria por trás dos pipelines de dados em geral, depois continuar com conceitos fundamentais por trás de Kafka. Também descobriremos componentes importantes como o Kafka Streams e o Kafka Connect.
Apache Flink Fundamentals
28 HorasEste treinamento ao vivo conduzido por instrutor em Brasil (no local ou remoto) apresenta os princípios e abordagens por trás do fluxo distribuído e do processamento de dados em lote, e orienta os participantes na criação de um aplicativo de streaming de dados em tempo real em Apache Flink.
No final deste treinamento, os participantes serão capazes de:
- Configurar um ambiente para o desenvolvimento de aplicativos de análise de dados.
- Entender como funciona a biblioteca de processamento de gráficos do Apache Flink (Gelly).
- Empacotar, executar e monitorar aplicativos de streaming de dados baseados em Flink, tolerantes a falhas.
- Gerenciar diversas cargas de trabalho.
- Realizar análises avançadas.
- Configurar um cluster Flink de vários nós.
- Medir e otimizar o desempenho.
- Integrar o Flink com diferentes sistemas Big Data.
- Comparar os recursos do Flink com os de outros frameworks de processamento de big data.
A Practical Introduction to Stream Processing
21 HorasNeste treinamento ao vivo conduzido por instrutor em Brasil (no local ou remoto), os participantes aprenderão como configurar e integrar diferentes estruturas Stream Processing com sistemas de armazenamento de big data existentes e aplicativos de software relacionados e microsserviços.
No final desta formação, os participantes serão capazes de
- Instalar e configurar diferentes Stream Processing frameworks, como Spark Streaming e Kafka Streaming.
- Compreender e selecionar a estrutura mais apropriada para o trabalho.
- Processar dados de forma contínua, simultânea e de forma registo a registo.
- Integrar Stream Processing soluções com bancos de dados existentes, data warehouses, data lakes, etc.
- Integrar a biblioteca de processamento de fluxo mais adequada com aplicativos corporativos e microsserviços.
Mensagens Distribuídas com Apache Kafka
14 HorasEste curso destina-se a arquitetos, desenvolvedores, administradores de sistemas e qualquer pessoa que queira entender e usar um sistema de mensagens distribuídas de alto rendimento. Se você tiver requisitos mais específicos (por exemplo, apenas lado da administração do sistema), este curso pode ser adaptado para atender melhor às suas necessidades.
Kafka for Administrators
21 HorasEste treinamento ao vivo conduzido por instrutor em Brasil (no local ou remoto) é destinado a administradores de sistemas que desejam configurar, implantar, gerenciar e otimizar um cluster Kafka de nível empresarial.
No final desta formação, os participantes serão capazes de
- Configurar e administrar um cluster do Kafka.
- Avaliar os benefícios e desvantagens da implantação do Kafka no local versus na nuvem.
- Implantar e monitorar o Kafka usando várias ferramentas de ambiente no local e na nuvem.
Stream Processing with Kafka Streams
7 HorasO Kafka Streams é uma biblioteca do lado do cliente para criar aplicativos e microsserviços cujos dados são transmitidos para e de um sistema de mensagens Kafka. Tradicionalmente, o Apache Kafka conta com o Apache Spark ou o Apache Storm para processar dados entre produtores e consumidores de mensagens. Ao chamar a API Kafka Streams de dentro de um aplicativo, os dados podem ser processados diretamente no Kafka, ignorando a necessidade de enviar os dados para um cluster separado para processamento.
Neste treinamento ao vivo conduzido por instrutor, os participantes aprenderão a integrar o Kafka Streams em um conjunto de aplicativos Java de amostra que transmitem dados para e do Apache Kafka para processamento de fluxo.
No final deste treinamento, os participantes serão capazes de:
- Entenda os recursos e vantagens do Kafka Streams em relação a outras estruturas de processamento de fluxo
- Processar dados do fluxo diretamente dentro de um cluster Kafka
- Escreva um aplicativo ou microsserviço Java ou Scala que se integre com Kafka e Kafka Streams
- Escrever código conciso que transforma tópicos de entrada do Kafka em tópicos de saída do Kafka
- Construa, empacote e implante o aplicativo
Público
- Desenvolvedores
Formato do curso
- Palestra parcial, parte discussão, exercícios e prática prática
Notas
- Para solicitar um treinamento personalizado para este curso, entre em contato conosco para
Confluent KSQL
7 HorasEste treinamento ao vivo conduzido por instrutor em Brasil (no local ou remoto) é destinado a desenvolvedores que desejam implementar o processamento de fluxo Apache Kafka sem escrever código.
No final deste treinamento, os participantes serão capazes de:
- Instalar e configurar o Confluent KSQL.
- Configurar um pipeline de processamento de fluxo usando apenas comandos SQL (sem codificação Java ou Python).
- Realizar filtragem de dados, transformações, agregações, junções, janelamento e sessionização inteiramente em SQL.
- Conceber e implementar consultas interactivas e contínuas para ETL de fluxo contínuo e análise em tempo real.
Apache NiFi for Administrators
21 HorasNeste treinamento ao vivo conduzido por instrutor em Brasil (no local ou remoto), os participantes aprenderão como implantar e gerenciar Apache NiFi em um ambiente de laboratório ao vivo.
No final deste treinamento, os participantes serão capazes de:
- Instalar e configurar o Apachi NiFi.
- Fonte, transformar e gerenciar dados de fontes de dados díspares e distribuídas, incluindo bancos de dados e grandes lagos de dados.
- Automatizar fluxos de dados.
- Habilitar a análise de streaming.
- Aplicar várias abordagens para a ingestão de dados.
- Transformar Big Data em informações comerciais.
Apache NiFi for Developers
7 HorasNeste treinamento ao vivo conduzido por instrutor em Brasil, os participantes aprenderão os fundamentos da programação baseada em fluxo à medida que desenvolvem uma série de extensões de demonstração, componentes e processadores usando Apache NiFi.
No final deste treinamento, os participantes serão capazes de:
- Compreender a arquitetura do NiFi e os conceitos de fluxo de dados.
- Desenvolver extensões usando NiFi e APIs de terceiros.
- Desenvolver seu próprio processador Apache Nifi.
- Ingerir e processar dados em tempo real de formatos de arquivos e fontes de dados diferentes e incomuns.
Spark Streaming with Python and Kafka
7 HorasEste treinamento ao vivo conduzido por instrutor em Brasil (no local ou remoto) é destinado a engenheiros de dados, cientistas de dados e programadores que desejam usar os recursos Spark Streaming no processamento e análise de dados em tempo real.
No final deste treinamento, os participantes poderão usar Spark Streaming para processar fluxos de dados ao vivo para uso em bancos de dados, sistemas de arquivos e painéis ao vivo.