Bądźmy w kontakcie

Plan Szkolenia

Podstawy NiFi i przepływu danych

  • Dane w ruchu vs dane w spoczynku: koncepcje i wyzwania
  • Architektura NiFi: rdzenie, kontroler przepływu, pochodzenie i biuletyn
  • Kluczowe komponenty: procesory, połączenia, kontrolery i pochodzenie

Kontekst Big Data i integracja

  • Rola NiFi w ekosystemach Big Data (Hadoop, Kafka, chmura)
  • Przegląd HDFS, MapReduce i nowoczesnych alternatyw
  • Przykłady zastosowań: pozyskiwanie strumieni, przesyłanie logów, potoki zdarzeń

Instalacja, konfiguracja i konfiguracja klastra

  • Instalacja NiFi w trybie pojedynczego węzła i klastra
  • Konfiguracja klastra: role węzłów, Zookeeper i równoważenie obciążenia
  • Orchestracja wdrożeń NiFi: używanie Ansible, Docker lub Helm

Projektowanie i zarządzanie przepływami danych

  • Routowanie, filtrowanie, dzielenie i łączenie przepływów
  • Konfiguracja procesorów (InvokeHTTP, QueryRecord, PutDatabaseRecord itp.)
  • Obsługa schematów, wzbogacanie i operacje transformacji
  • Obsługa błędów, relacje ponawiania i przeciążenie

Scenariusze integracji

  • Łączenie z bazami danych, systemami przesyłania wiadomości, REST API
  • Przesyłanie strumieniowe do systemów analitycznych: Kafka, Elasticsearch lub chmura
  • Integracja z Splunk, Prometheus lub potokami logowania

Monitorowanie, odzyskiwanie i pochodzenie

  • Korzystanie z interfejsu NiFi, metryk i wizualizatora pochodzenia
  • Projektowanie autonomicznego odzyskiwania i eleganckiej obsługi błędów
  • Backup, wersjonowanie przepływów i zarządzanie zmianami

Optymalizacja wydajności

  • Dostrajanie JVM, pamięci, pul wątków i parametrów klastra
  • Optymalizacja projektu przepływów w celu redukcji wąskich gardeł
  • Izolacja zasobów, priorytetyzacja przepływów i kontrola przepustowości

Najlepsze praktyki i zarządzanie

  • Dokumentacja przepływów, standardy nazewnictwa, modułowy projekt
  • Bezpieczeństwo: TLS, uwierzytelnianie, kontrola dostępu, szyfrowanie danych
  • Kontrola zmian, wersjonowanie, kontrola dostępu oparta na rolach, ślady audytu

Rozwiązywanie problemów i reakcja na incydenty

  • Typowe problemy: zakleszczenia, wycieki pamięci, błędy procesorów
  • Analiza logów, diagnostyka błędów i badanie przyczyn źródłowych
  • Strategie odzyskiwania i wycofywania przepływów

Praktyczne laboratorium: Implementacja realistycznego potoku danych

  • Budowanie kompleksowego przepływu: pozyskiwanie, transformacja, dostarczanie
  • Implementacja obsługi błędów, przeciążenia i skalowania
  • Testowanie wydajności i dostrajanie potoku

Podsumowanie i kolejne kroki

Wymagania

  • Doświadczenie w pracy z linią poleceń Linux
  • Podstawowa znajomość sieci i systemów danych
  • Znajomość koncepcji przesyłania strumieniowego danych lub ETL

Grupa docelowa

  • Administratorzy systemów
  • Inżynierowie danych
  • Programiści
  • Specjaliści DevOps
 21 godzin

Liczba uczestników


Cena za uczestnika (netto)

Opinie uczestników (7)

Propozycje terminów

Powiązane Kategorie