Kod kursu
kafkastreams
Czas trwania
7 godzin
szkolenie zdalne: 1 lub 2 dni
szkolenie stacjonarne: 1 dzień
Wymagania
- An understanding of Apache Kafka
- Java programming experience
Opis
Kafka Streams to biblioteka po stronie klienta do budowania aplikacji i mikrousług, których dane są przekazywane do iz systemu przesyłania wiadomości Kafka. Tradycyjnie Apache Kafka polegał na Apache Spark lub Apache Storm do przetwarzania danych między producentami wiadomości a konsumentami. Wywołując interfejs API strumieni Kafka z poziomu aplikacji, dane można przetwarzać bezpośrednio w Kafce, omijając potrzebę wysyłania danych do osobnego klastra w celu przetworzenia.
W tym instruktażowym szkoleniu na żywo uczestnicy dowiedzą się, jak zintegrować strumienie Kafka z zestawem przykładowych aplikacji Java , które przekazują dane zi do Apache Kafka celu przetwarzania strumieniowego.
Pod koniec tego szkolenia uczestnicy będą mogli:
- Poznaj funkcje i zalety strumieni Kafka w porównaniu do innych platform przetwarzania strumieniowego
- Przetwarzaj strumień danych bezpośrednio w klastrze Kafka
- Napisz aplikację lub mikrousługę Java lub Scala , która integruje się ze strumieniami Kafka i Kafka
- Napisz zwięzły kod, który przekształca wejściowe tematy Kafka w wyjściowe tematy Kafka
- Kompiluj, pakuj i wdrażaj aplikację
Publiczność
- Deweloperzy
Format kursu
- Część wykładu, część dyskusji, ćwiczenia i ciężka praktyka
Notatki
- Aby poprosić o niestandardowe szkolenie dla tego kursu, skontaktuj się z nami w celu umówienia się
Machine Translated
Plan Szkolenia
Introduction
- Kafka vs Spark, Flink, and Storm
Overview of Kafka Streams Features
- Stateful and stateless processing, event-time processing, DSL, event-time based windowing operations, etc.
Case Study: Kafka Streams API for Predictive Budgeting
Setting up the Development Environment
Creating a Streams Application
Starting the Kafka Cluster
Preparing the Topics and Input Data
Options for Processing Stream Data
- High-level Kafka Streams DSL
- Lower-level Processor
Transforming the Input Data
Inspecting the Output Data
Stopping the Kafka Cluster
Options for Deploying the Application
- Classic ops tools (Puppet, Chef and Salt)
- Docker
- WAR file
Troubleshooting
Summary and Conclusion