Cursos de Stream Processing with Kafka Streams
O Kafka Streams é uma biblioteca do lado do cliente para criar aplicativos e microsserviços cujos dados são transmitidos para e de um sistema de mensagens Kafka. Tradicionalmente, o Apache Kafka conta com o Apache Spark ou o Apache Storm para processar dados entre produtores e consumidores de mensagens. Ao chamar a API Kafka Streams de dentro de um aplicativo, os dados podem ser processados diretamente no Kafka, ignorando a necessidade de enviar os dados para um cluster separado para processamento.
Neste treinamento ao vivo conduzido por instrutor, os participantes aprenderão a integrar o Kafka Streams em um conjunto de aplicativos Java de amostra que transmitem dados para e do Apache Kafka para processamento de fluxo.
No final deste treinamento, os participantes serão capazes de:
- Entenda os recursos e vantagens do Kafka Streams em relação a outras estruturas de processamento de fluxo
- Processar dados do fluxo diretamente dentro de um cluster Kafka
- Escreva um aplicativo ou microsserviço Java ou Scala que se integre com Kafka e Kafka Streams
- Escrever código conciso que transforma tópicos de entrada do Kafka em tópicos de saída do Kafka
- Construa, empacote e implante o aplicativo
Público
- Desenvolvedores
Formato do curso
- Palestra parcial, parte discussão, exercícios e prática prática
Notas
- Para solicitar um treinamento personalizado para este curso, entre em contato conosco para
Programa do Curso
Introdução
- Kafka contra Spark, Flink e Storm
Visão geral dos recursos do Kafka Streams
- Processamento com e sem estado, processamento de tempo de evento, DSL, operações de janelas baseadas em tempo de evento, etc.
Estudo de caso: API Kafka Streams para orçamento preditivo
Configurando o Ambiente de Desenvolvimento
Criando um aplicativo Streams
Iniciando o Cluster Kafka
Preparando os Tópicos e Dados de Entrada
Opções para processamento de dados de fluxo
- Kafka Streams DSL de alto nível
- Processador de nível inferior
Transformando os dados de entrada
Inspecionando os dados de saída
Parando o Cluster Kafka
Opções para implantar o aplicativo
- Ferramentas de operações clássicas (Puppet, Chef e Salt)
- Docker
- arquivo WAR
Solução de problemas
Resumo e conclusão
Requisitos
- Um conhecimento do Apache Kafka
- Java experiência em programação
Os cursos de treinamento abertos exigem mais de 5 participantes.
Cursos de Stream Processing with Kafka Streams - Booking
Cursos de Stream Processing with Kafka Streams - Enquiry
Stream Processing with Kafka Streams - Solicitação de Consultoria
Solicitação de Consultoria
Declaração de Clientes (1)
Recalling/reviewing keypoints of the topics discussed.
Paolo Angelo Gaton - SMS Global Technologies Inc.
Curso - Building Stream Processing Applications with Kafka Streams
Próximas Formações Provisórias
Cursos Relacionados
Apache Kafka Connect
7 HorasEsta formação em direto, ministrada por um formador, em Brasil (online ou no local) destina-se a programadores que pretendam integrar Apache Kafka em bases de dados e aplicações existentes para processamento, análise, etc.
No final desta formação, os participantes serão capazes de
- Use o Kafka Connect para ingerir grandes quantidades de dados de um banco de dados em tópicos do Kafka.
- Ingira dados de log gerados por servidores de aplicativos em tópicos do Kafka.
- Disponibilizar todos os dados coletados para processamento de fluxo.
- Exportar dados de tópicos do Kafka para sistemas secundários para armazenamento e análise.
Unified Batch and Stream Processing with Apache Beam
14 HorasApache Beam é um modelo de programação unificado e de código aberto para definir e executar pipelines de processamento de dados paralelos. O seu poder reside na sua capacidade de executar pipelines em lote e em fluxo contínuo, sendo a execução efectuada por um dos back-ends de processamento distribuído suportados pelo Beam: Apache Apex, Apache Flink, Apache Spark e Google Cloud Dataflow. A solução Apache Beam é útil para tarefas de ETL (Extrair, Transformar e Carregar), como mover dados entre diferentes mídias de armazenamento e fontes de dados, transformar dados em um formato mais desejável e carregar dados em um novo sistema.
Neste treinamento ao vivo conduzido por instrutor (no local ou remoto), os participantes aprenderão como implementar os SDKs Apache Beam em um aplicativo Java ou Python que define um pipeline de processamento de dados para decompor um grande conjunto de dados em pedaços menores para processamento paralelo e independente.
Ao final deste treinamento, os participantes serão capazes de:
- Instalar e configurar Apache Beam.
- Utilizar um único modelo de programação para efetuar o processamento em lote e em fluxo a partir da sua aplicação Java ou Python.
- Executar pipelines em vários ambientes.
Formato do curso
- Parte palestra, parte discussão, exercícios e muita prática
Nota
- Este curso estará disponível Scala no futuro. Por favor, contacte-nos para organizar.
Building Kafka Solutions with Confluent
14 Horaseste instrutor liderada, treinamento ao vivo (no local ou remoto) destina-se a engenheiros que desejam usar confluent (uma distribuição de Kafka) para construir e gerenciar uma plataforma de processamento de dados em tempo real para suas aplicações.
no final deste treinamento, os participantes poderão:
- instalar e configurar plataforma confluente.
- use ferramentas de gestão confluentes & #39; s e serviços para executar Kafka mais facilmente.
- armazenar e processar dados de fluxo de entrada.
- otimizar e gerenciar clusters Kafka. fluxos de dados
- Secure.
formato do curso
- palestra interativa e discussão.
- lotes de exercícios e prática.
- implementação hands-on em um ambiente de laboratório ao vivo.
Opções de personalização do curso
- este curso é baseado na versão de código aberto de confluent: fonte aberta confluente.
- para solicitar um treinamento personalizado para este curso, entre em contato conosco para organizar.
Building Data Pipelines with Apache Kafka
7 HorasApache Kafka é uma plataforma de streaming distribuída. É, de fato, um padrão para a construção de pipelines de dados e resolve muitos casos de uso diferentes em torno do processamento de dados: ele pode ser usado como uma fila de mensagens, um log distribuído, um processador de fluxo etc.
Vamos começar com alguma teoria por trás dos pipelines de dados em geral, depois continuar com conceitos fundamentais por trás de Kafka. Também descobriremos componentes importantes como o Kafka Streams e o Kafka Connect.
Apache Flink Fundamentals
28 HorasEste treinamento ao vivo conduzido por instrutor em Brasil (no local ou remoto) apresenta os princípios e abordagens por trás do fluxo distribuído e do processamento de dados em lote, e orienta os participantes na criação de um aplicativo de streaming de dados em tempo real em Apache Flink.
No final deste treinamento, os participantes serão capazes de:
- Configurar um ambiente para o desenvolvimento de aplicativos de análise de dados.
- Entender como funciona a biblioteca de processamento de gráficos do Apache Flink (Gelly).
- Empacotar, executar e monitorar aplicativos de streaming de dados baseados em Flink, tolerantes a falhas.
- Gerenciar diversas cargas de trabalho.
- Realizar análises avançadas.
- Configurar um cluster Flink de vários nós.
- Medir e otimizar o desempenho.
- Integrar o Flink com diferentes sistemas Big Data.
- Comparar os recursos do Flink com os de outros frameworks de processamento de big data.
A Practical Introduction to Stream Processing
21 HorasNeste treinamento ao vivo conduzido por instrutor em Brasil (no local ou remoto), os participantes aprenderão como configurar e integrar diferentes estruturas Stream Processing com sistemas de armazenamento de big data existentes e aplicativos de software relacionados e microsserviços.
No final desta formação, os participantes serão capazes de
- Instalar e configurar diferentes Stream Processing frameworks, como Spark Streaming e Kafka Streaming.
- Compreender e selecionar a estrutura mais apropriada para o trabalho.
- Processar dados de forma contínua, simultânea e de forma registo a registo.
- Integrar Stream Processing soluções com bancos de dados existentes, data warehouses, data lakes, etc.
- Integrar a biblioteca de processamento de fluxo mais adequada com aplicativos corporativos e microsserviços.
Mensagens Distribuídas com Apache Kafka
14 HorasEste curso destina-se a arquitetos, desenvolvedores, administradores de sistemas e qualquer pessoa que queira entender e usar um sistema de mensagens distribuídas de alto rendimento. Se você tiver requisitos mais específicos (por exemplo, apenas lado da administração do sistema), este curso pode ser adaptado para atender melhor às suas necessidades.
Kafka for Administrators
21 HorasEste treinamento ao vivo conduzido por instrutor em Brasil (no local ou remoto) é destinado a administradores de sistemas que desejam configurar, implantar, gerenciar e otimizar um cluster Kafka de nível empresarial.
No final desta formação, os participantes serão capazes de
- Configurar e administrar um cluster do Kafka.
- Avaliar os benefícios e desvantagens da implantação do Kafka no local versus na nuvem.
- Implantar e monitorar o Kafka usando várias ferramentas de ambiente no local e na nuvem.
Apache Kafka for Python Programmers
7 HorasEste treinamento ao vivo conduzido por instrutor em Brasil (no local ou remoto) é destinado a engenheiros de dados, cientistas de dados e programadores que desejam usar os recursos Apache Kafka no fluxo de dados com Python.
No final deste treinamento, os participantes poderão usar Apache Kafka para monitorar e gerenciar condições em fluxos de dados contínuos usando a programação Python.
Confluent KSQL
7 HorasEste treinamento ao vivo conduzido por instrutor em Brasil (no local ou remoto) é destinado a desenvolvedores que desejam implementar o processamento de fluxo Apache Kafka sem escrever código.
No final deste treinamento, os participantes serão capazes de:
- Instalar e configurar o Confluent KSQL.
- Configurar um pipeline de processamento de fluxo usando apenas comandos SQL (sem codificação Java ou Python).
- Realizar filtragem de dados, transformações, agregações, junções, janelamento e sessionização inteiramente em SQL.
- Conceber e implementar consultas interactivas e contínuas para ETL de fluxo contínuo e análise em tempo real.
Apache NiFi for Administrators
21 HorasNeste treinamento ao vivo conduzido por instrutor em Brasil (no local ou remoto), os participantes aprenderão como implantar e gerenciar Apache NiFi em um ambiente de laboratório ao vivo.
No final deste treinamento, os participantes serão capazes de:
- Instalar e configurar o Apachi NiFi.
- Fonte, transformar e gerenciar dados de fontes de dados díspares e distribuídas, incluindo bancos de dados e grandes lagos de dados.
- Automatizar fluxos de dados.
- Habilitar a análise de streaming.
- Aplicar várias abordagens para a ingestão de dados.
- Transformar Big Data em informações comerciais.
Apache NiFi for Developers
7 HorasNeste treinamento ao vivo conduzido por instrutor em Brasil, os participantes aprenderão os fundamentos da programação baseada em fluxo à medida que desenvolvem uma série de extensões de demonstração, componentes e processadores usando Apache NiFi.
No final deste treinamento, os participantes serão capazes de:
- Compreender a arquitetura do NiFi e os conceitos de fluxo de dados.
- Desenvolver extensões usando NiFi e APIs de terceiros.
- Desenvolver seu próprio processador Apache Nifi.
- Ingerir e processar dados em tempo real de formatos de arquivos e fontes de dados diferentes e incomuns.
Spark Streaming with Python and Kafka
7 HorasEste treinamento ao vivo conduzido por instrutor em Brasil (no local ou remoto) é destinado a engenheiros de dados, cientistas de dados e programadores que desejam usar os recursos Spark Streaming no processamento e análise de dados em tempo real.
No final deste treinamento, os participantes poderão usar Spark Streaming para processar fluxos de dados ao vivo para uso em bancos de dados, sistemas de arquivos e painéis ao vivo.