Bądźmy w kontakcie

Plan Szkolenia

Moduł 1: Wprowadzenie do architektury Confluent Apache Kafka i konfiguracji klastra

  • Czym jest Apache Kafka i platforma Confluent?
  • Podstawy dotyczące brokera, producenta, konsumenta i tematów w Kafka
  • Rola Kafka w potokach przesyłania danych i wiadomości
  • Rozszerzenia Confluent: REST Proxy, Schema Registry, Control Center
  • Architektura klastra Kafka: brokerzy, partycje i replikacja

Moduł 2: Konfiguracja kworum Zookeepera

  • Czym jest Zookeeper?
  • Rola Zookeepera w klastrze Kafka
  • Rozmiar kworum Zookeepera
  • Konfiguracja Zookeepera
  • Implementacja SSH na naszych serwerach
  • Praktycznie: Konfiguracja Zookeepera (zespołowo i jako usługa)
  • Korzystanie z interfejsu wiersza poleceń (CLI) Zookeepera
  • Praktycznie: Konfiguracja kworum Zookeepera
  • Wewnętrzny system plików Zookeepera
  • Czynniki wpływające na wydajność Zookeepera
  • Demo: Narzędzia do zarządzania Zookeeperem i Zoonavigator

Moduł 3: Konfiguracja klastra Kafka

  • Podstawy Kafka
  • Konfiguracja Kafka
  • Praktycznie: Konfiguracja Kafka na jednym brokerze
  • Praktycznie: Wykonywanie poleceń Kafka
  • Praktycznie: Konfiguracja wielobrokerowego klastra Kafka
  • Praktycznie: Testowanie klastra Kafka
  • Czy mogę połączyć się z moim klastrem Kafka?
  • Konfiguracja advertised.listeners: kluczowe ustawienie
  • Konfiguracja tematów
  • Konfiguracja pozyskiwania i dostarczania wiadomości w tematach
  • Praktycznie: Demonstracja odporności Kafka
  • Wydajność Kafka: I/O, sieć, RAM, CPU, system operacyjny
  • Wydajność Kafka: inne czynniki
  • Praktycznie: Jak modyfikować konfiguracje brokerów

Moduł 4: Zaawansowana konfiguracja Kafka

  • Konfiguracja Landoop Kafka Topics UI, Confluent REST Proxy, Confluent Schema Registry
  • Wysyłanie i odbieranie wiadomości (CLI, Java, Spring Framework)
  • Narzędzia do monitorowania i metryk (Confluent Control Center, Elasticsearch itp.)
  • Pliki dzienników i zarządzanie offsetami
  • Wysoka dostępność i odzyskiwanie po awariach
  • Zapewnianie wysokiej dostępności poprzez replikację
  • Dostosowywanie wydajności (producent/konsument)
  • Strategie odzyskiwania po awariach
  • Kontrola failover i odzyskiwanie danych
  • Konfiguracja łączników
  • Implementacja Kafka Connect
  • Funkcje bezpieczeństwa Kafka

Podsumowanie i kolejne kroki

Wymagania

  • Doświadczenie w systemach opartych na Linux i narzędziach wiersza poleceń
  • Znajomość koncepcji systemów rozproszonych
  • Zrozumienie podstawowych zagadnień związanych z sieciami i konfiguracją systemu

Grupa docelowa

  • Zespoły DevOps i SRE zarządzające wdrożeniami Kafka
  • Administratorzy systemów pracujący z Confluent i Zookeeperem
  • Deweloperzy i architekci Kafka odpowiedzialni za skalowalne systemy
 16 godzin

Liczba uczestników


Cena za uczestnika (netto)

Opinie uczestników (2)

Propozycje terminów

Powiązane Kategorie