Plan Szkolenia

Moduł 1: Wprowadzenie do architektury i konfiguracji klastera Confluent Apache Kafka

  • Co to jest Apache Kafka i platforma Confluent?
  • Podstawy brokera Kafka, producenta, konsumenta i tematów
  • Rola Kafka w przepływach danych i kanałach przesyłania wiadomości
  • Rozszerzenia Confluent: REST Proxy, Schema Registry, Control Center
  • Architektura klastera Kafka: brokery, partycje i replikacja

Moduł 2: Konfiguracja kworum Zookeeper

  • Co to jest Zookeeper?
  • Rola Zookeeper w klastrach Kafka
  • Rozmiar kworum Zookeeper
  • Konfiguracja Zookeeper
  • Wdrożenie SSH na naszych serwerach
  • Praktyka: Konfiguracja Zookeeper (w zespole i jako usługa)
  • Używanie wiersza polecenia Zookeeper (CLI)
  • Praktyka: Konfiguracja kworum Zookeeper
  • Wewnętrzny system plików Zookeeper
  • Czynniki wpływające na wydajność Zookeeper
  • Demonstracja: Narzędzia zarządzania Zookeeper i Zoonavigator

Moduł 3: Konfiguracja klastera Kafka

  • Podstawy Kafka
  • Konfiguracja Kafka
  • Praktyka: Konfiguracja Kafka na pojedynczym brokerze
  • Praktyka: Wykonanie poleceń Kafka
  • Praktyka: Konfiguracja wielobrokerowa (klaster) Kafka
  • Praktyka: Testowanie klastera Kafka
  • Czy mogę połączyć się z moim klastrem Kafka?
  • Konfiguracja advertised.listeners: kluczowe ustawienie
  • Konfiguracja tematów
  • Konfiguracja odbioru i dostarczania wiadomości w tematach
  • Praktyka: Demonstracja odporności Kafka
  • Wydajność Kafka: I/O, sieć, RAM, CPU, system operacyjny
  • Wydajność Kafka: inne czynniki
  • Praktyka: Jak modyfikować konfiguracje brokerów

Moduł 4: Zaawansowana konfiguracja Kafka

  • Konfiguracja Landoop Kafka Topics UI, Confluent REST Proxy, Confluent Schema Registry
  • Wysyłanie i odbieranie wiadomości (CLI, Java, Spring Framework)
  • Narzędzia monitorowania i metryk (Confluent Control Center, Elasticsearch, itd.)
  • Pliki dziennika i zarządzanie offsetami
  • Wysoka dostępność i odzyskiwanie po awarii
  • Zapewnienie wysokiej dostępności dzięki replikacji
  • Optymalizacja wydajności (producent/konsument)
  • Strategie odzyskiwania po awarii
  • Kontrola przejmowania i odzyskiwanie danych
  • Konfiguracja konektorów
  • Wdrażanie Kafka Connect
  • Funkcje zabezpieczające Kafka

Podsumowanie i kolejne kroki

Wymagania

  • Doświadczenie z systemami opartymi na Linux i narzędziami wiersza polecenia
  • Znałość pojęć związanych z systemami rozproszonymi
  • Zrozumienie podstawowej sieci oraz konfiguracji systemu

Grupa docelowa

  • DevOps oraz zespoły SRE zarządzające wdrożeniami Kafka
  • Administratorzy systemów pracujący z Confluent i Zookeeper
  • Developerzy i architekci Kafka odpowiedzialni za skalowalne systemy
 16 godzin

Liczba uczestników


cena netto za uczestnika

Opinie uczestników (5)

Propozycje terminów

Powiązane Kategorie