Plan Szkolenia

Podstawy NiFi i Przepływu Danych

  • Dane w ruchu vs. dane w spoczynku: koncepcje i wyzwania
  • Architektura NiFi: rdzenie, kontroler przepływu, pochodzenie danych i biuletyny
  • Kluczowe komponenty: procesory, połączenia, kontrolery i pochodzenie danych

Kontekst i Integracja Wielkich Danych

  • Rola NiFi w ekosystemach Big Data (Hadoop, Kafka, chmura)
  • Przegląd HDFS, MapReduce i nowoczesnych alternatyw
  • Kluczowe przypadki zastosowania: przesyłanie strumieniowe, logowanie, potoki zdarzeń

Instalacja, Konfiguracja i Ustawianie Klastera

  • Zainstalowanie NiFi w trybie jedno- i wielo-węzłowym
  • Konfiguracja klastra: role węzłów, zookeeper i balansowanie obciążenia
  • Orczeustwo wdrożeń NiFi: używanie Ansible, Docker lub Helm

Projektowanie i Zarządzanie Przepływami Danych

  • Routowanie, filtrowanie, dzielenie i łączenie przepływów
  • Konfiguracja procesorów (InvokeHTTP, QueryRecord, PutDatabaseRecord itp.)
  • Obsługa schematów, wzbogacanie i operacje transformacji
  • Obsługa błędów, relacje ponownych prób i backpressure

Scenariusze Integracyjne

  • Połączenie z bazami danych, systemami komunikatów i REST API
  • Przesyłanie strumieniowe do systemów analizy: Kafka, Elasticsearch lub chmura
  • Integracja z Splunk, Prometheus lub potokami logowania

Monitorowanie, Odzyskiwanie i Pochodzenie Danych

  • Korzystanie z UI NiFi, metryk i wizualizatora pochodzenia danych
  • Projektowanie autonomicznego odzyskiwania i eleganckiej obsługi awarii
  • Kopia zapasowa, wersjonowanie przepływów i zarządzanie zmianami

Optymalizacja Wydajności

  • Dostosowywanie JVM, kopułki pamięci, pul wątków i parametrów klastra
  • Optymalizacja projektu przepływu w celu zmniejszenia zastoinów
  • Izolowanie zasobów, priorytetyzacja przepływów i kontrola przepustowości

Najlepsze Praktyki i Zarządzanie

  • Dokumentacja przepływu, standardy nazewnicze, modułowa konstrukcja
  • Zabezpieczenia: TLS, uwierzytelnianie, sterowanie dostępem, szyfrowanie danych
  • Kontrola zmian, wersjonowanie, sterowanie rolami i śledzenie audytowe

Rozwiązywanie Problemów i Reakcja na Incydenty

  • Częste problemy: zakleszczenia, wycieki pamięci, błędy procesorów
  • Analiza dzienników, diagnostyka błędów i badanie przyczyn zasadniczych
  • Strategie odzyskiwania i cofania zmian w przepływie

Laboratorium Praktyczne: Realistyczna Implementacja Potoku Danych

  • Tworzenie przepływu od początku do końca: ingest, transformacja, dostarczanie
  • Zaimplementowanie obsługi błędów, backpressure i skalowania
  • Test wydajnościowy i optymalizacja potoku

Podsumowanie i Następne Kroki

Wymagania

  • Znajomość linii poleceń Linux
  • Podstawowe zrozumienie sieci i systemów danych
  • Doświadczenie w przesyłaniu strumieniowym danych lub koncepcjach ETL

Odbiorcy

  • Administratorzy systemowi
  • Inżynierowie danych
  • Programiści
  • Profesjonaliści DevOps
 21 godzin

Liczba uczestników


cena netto za uczestnika

Opinie uczestników (7)

Propozycje terminów

Powiązane Kategorie