Plan Szkolenia

Moduł 1: Wprowadzenie do architektury i konfiguracji klastera Confluent Apache Kafka

  • Rola Kafka w nowoczesnych potokach danych
  • Różnice między Apache Kafka a Confluent Kafka
  • Podstawowe składniki: producenci, konsumenci, brokery, tematy, podziałki
  • Modele wdrażania i skalowania klastrów Kafka

Moduł 2: Konfiguracja quorum Zookeeper

  • Co to jest Zookeeper?
  • Rola Zookeeper w klastrze Kafka
  • Rozmiar quorum Zookeeper
  • Konfiguracja Zookeeper
  • Wdrażanie SSH na naszych serwerach
  • Praktyczne: Konfiguracja Zookeeper (w zespole i jako usługa)
  • Używanie interfejsu wiersza polecenia Zookeeper (CLI)
  • Praktyczne: Konfiguracja quorum Zookeeper
  • Wewnętrzny system plików Zookeeper
  • Czynniki wpływające na wydajność Zookeeper
  • Demonstracja narzędzi zarządzania dla Zookeeper i Zoonavigator

Moduł 3: Konfiguracja klastru Kafka

  • Podstawowe koncepcje Kafka
  • Konfiguracja Kafka
  • Praktyczne: Konfiguracja brokera Kafka
  • Praktyczne: Wykonanie poleceń Kafka
  • Praktyczne: Konfiguracja klastru Kafka z wieloma brokerami
  • Praktyczne: Testowanie klastru Kafka
  • Czy mogę połączyć się z moim klastrem Kafka?
  • Konfiguracja advertised.listeners: najważniejszy ustawienie
  • Konfiguracja tematów
  • Konfiguracja pobierania i przyjmowania wiadomości w tematach
  • Praktyczne: Demonstracja odporności Kafka
  • Wydajność Kafka: I/O
  • Wydajność Kafka: Sieć (RED)
  • Wydajność Kafka: Pamięć RAM
  • Wydajność Kafka: Procesor (CPU)
  • Wydajność Kafka: System operacyjny (OS)
  • Wydajność Kafka: Inne
  • Praktyczne: Jak zmienić konfigurację brokera Kafka

Moduł 4: Zaawansowana konfiguracja Kafka

  • Konfiguracja interfejsu tematów Landoop Kafka, Confluent REST Proxy i Confluent Schema Registry
  • Wysyłanie i otrzymywanie wiadomości (CLI, Java i framework Spring)
  • Monitorowanie wskaźników i narzędzi (Confluent Control Center, Elasticsearch itd.)
  • Pliki dziennika i zarządzanie offsetami
  • Wysoka dostępność i odzyskiwanie danych w przypadku awarii
  • Zapewnienie wysokiej dostępności poprzez replikację
  • Optymalizacja wydajności producentów i konsumentów
  • Strategie odzyskiwania danych w przypadku awarii
  • Kontrola przejmowania i odzyskiwania danych
  • Konfiguracja połączeń
  • Wdrażanie Kafka Connect
  • Funkcje zabezpieczające Kafka

Podsumowanie i Krok Następny

Wymagania

  • Znałeść z systemami rozproszonymi i koncepcjami przekazywania wiadomości
  • Doświadczenie z linią poleceń Linux
  • Podstawowa znajomość sieci i administracji systemem

Grupa docelowa

  • Administratorzy systemów
  • Inżynierowie DevOps
  • Zespoły platformy i infrastruktury
 21 godzin

Liczba uczestników


cena netto za uczestnika

Opinie uczestników (5)

Propozycje terminów

Powiązane Kategorie