Lokalne, prowadzone przez instruktora kursy szkoleniowe z przetwarzania strumieniowego na żywo demonstrują poprzez interaktywną dyskusję i praktyczne ćwiczenia z podstawami i zaawansowanymi tematami przetwarzania strumieniowego. Szkolenie z przetwarzania strumieniowego jest dostępne jako "szkolenie online na żywo" lub "szkolenie na żywo na miejscu". Szkolenie na żywo online (inaczej "zdalne szkolenie na żywo") odbywa się za pomocą interaktywnego, zdalnego pulpitu . Szkolenie na żywo na miejscu może odbywać się lokalnie w siedzibie klienta w Koszalin lub w korporacyjnych centrach szkoleniowych NobleProg w Koszalin. NobleProg — Twój lokalny dostawca szkoleń
Koszalin
Gwardia, Sportowa 34, Koszalin, Polska, 75-503
Sala szkoleniowa jest wyposażona w nowoczesne udogodnienia. Znajduje się 3 kilometry od centrum miasta. Obiekt posiada przestronny parking dla uczestników szkoleń, co zapewnia wygodny dostęp dla wszystkich kursantów.
Apache Beam to otwarty, zunifikowany model programowania do definiowania i wykonywania równoległych potoków przetwarzania danych. Jego moc polega na możliwości uruchamiania zarówno potoków wsadowych, jak i strumieniowych, przy czym wykonanie jest przeprowadzane przez jeden z obsługiwanych przez Beam back-endów przetwarzania rozproszonego: Apache Apex, Apache Flink, Apache Spark i Google Cloud Dataflow. Rozwiązanie Apache Beam jest przydatne w zadaniach ETL (Extract, Transform, and Load), takich jak przenoszenie danych między różnymi nośnikami pamięci i źródłami danych, przekształcanie danych w bardziej pożądany format i ładowanie danych do nowego systemu.
W tym prowadzonym przez instruktora szkoleniu na żywo (na miejscu lub zdalnie) uczestnicy dowiedzą się, jak zaimplementować Apache Beam SDK w aplikacji Java lub Python, która definiuje potok przetwarzania danych w celu dekompozycji dużego zbioru danych na mniejsze fragmenty w celu niezależnego, równoległego przetwarzania.
Pod koniec tego szkolenia uczestnicy będą mogli
Zainstalować i skonfigurować Apache Beam.
Używać pojedynczego modelu programowania do przeprowadzania zarówno przetwarzania wsadowego, jak i strumieniowego z poziomu aplikacji Java lub Python.
Wykonywać potoki w wielu środowiskach.
Format kursu
Wykład częściowy, dyskusja częściowa, ćwiczenia i ciężka praktyka praktyczna
Uwaga
Ten kurs będzie dostępny Scala w przyszłości. Prosimy o kontakt w celu ustalenia szczegółów.
To prowadzone przez instruktora szkolenie na żywo (w trybie online lub na miejscu) jest przeznaczone dla inżynierów, którzy chcą korzystać z Confluent (dystrybucji Kafka) do budowania i zarządzania platformą przetwarzania danych w czasie rzeczywistym dla swoich aplikacji.
Po zakończeniu tego szkolenia uczestnicy będą w stanie
Instalować i konfigurować platformę Confluent.
Korzystać z narzędzi i usług zarządzania Confluent do łatwiejszego uruchamiania Kafka.
Przechowywać i przetwarzać nadchodzące dane strumieniowe.
Optymalizować i zarządzać klasterami Kafka.
Zabezpieczać strumienie danych.
Format kursu
Interaktywne wykłady i dyskusje.
Wiele ćwiczeń i praktyki.
Przykładowa implementacja w środowisku live-lab.
Opcje dostosowywania kursu
Ten kurs oparty jest na wersji open source Confluent: Confluent Open Source.
Aby poprosić o dostosowane szkolenie dla tego kursu, skontaktuj się z nami w celu umówienia.
To prowadzone przez instruktora szkolenie na żywo w Koszalin (na miejscu lub zdalnie) wprowadza zasady i podejścia stojące za rozproszonym przetwarzaniem danych strumieniowych i wsadowych oraz prowadzi uczestników przez proces tworzenia aplikacji do strumieniowego przesyłania danych w czasie rzeczywistym w Apache Flink.
Pod koniec tego szkolenia uczestnicy będą w stanie
Skonfigurować środowisko do tworzenia aplikacji do analizy danych.
Zrozumieć, jak działa biblioteka przetwarzania grafów Apache Flink (Gelly).
Pakować, wykonywać i monitorować oparte na Flink, odporne na błędy aplikacje do strumieniowego przesyłania danych.
Zarządzanie różnorodnymi obciążeniami.
Wykonywanie zaawansowanych analiz.
Konfigurowanie wielowęzłowego klastra Flink.
Mierzyć i optymalizować wydajność.
Integracja Flink z różnymi Big Data systemami.
Porównywanie możliwości Flink z możliwościami innych platform przetwarzania dużych zbiorów danych.
W tym instruktażowym szkoleniu na żywo w Koszalin (na miejscu lub zdalnie) uczestnicy dowiedzą się, jak skonfigurować i zintegrować różne Stream Processing frameworki z istniejącymi systemami przechowywania dużych zbiorów danych oraz powiązanymi aplikacjami i mikrousługami.
Po zakończeniu tego szkolenia uczestnicy będą w stanie
Instalowanie i konfigurowanie różnych Stream Processing frameworków, takich jak Spark Streaming i Kafka Streaming.
Zrozumieć i wybrać najbardziej odpowiedni framework dla danego zadania.
Przetwarzanie danych w sposób ciągły, współbieżny i rekord po rekordzie.
Integracja Stream Processing rozwiązań z istniejącymi bazami danych, hurtowniami danych, jeziorami danych itp.
Integracja najbardziej odpowiedniej biblioteki przetwarzania strumieniowego z aplikacjami korporacyjnymi i mikrousługami.
To prowadzone przez instruktora szkolenie na żywo w Koszalin (na miejscu lub zdalnie) jest przeznaczone dla inżynierów danych, naukowców zajmujących się danymi i programistów, którzy chcą korzystać z funkcji Apache Kafka w strumieniowym przesyłaniu danych z Python.
Pod koniec tego szkolenia uczestnicy będą mogli używać Apache Kafka do monitorowania i zarządzania warunkami w ciągłych strumieniach danych przy użyciu Python programowania.
Kafka Streams jest biblioteką po stronie klienta do tworzenia aplikacji i mikrousług, których dane są przekazywane do i z systemu przesyłania wiadomości Kafka. Tradycyjnie polegało się na Apache Kafka lub Apache Spark lub Apache Storm do przetwarzania danych między producentami i odbiorcami wiadomości. Wywołując API Kafka Streams z poziomu aplikacji, dane mogą być przetwarzane bezpośrednio w Kafce, z pominięciem konieczności wysyłania danych do oddzielnego klastra w celu ich przetworzenia.
W tym prowadzonym przez instruktora szkoleniu na żywo uczestnicy dowiedzą się, jak zintegrować Kafka Streams z zestawem przykładowych Java aplikacji, które przekazują dane do i z Apache Kafka w celu przetwarzania strumieniowego.
Po zakończeniu tego szkolenia uczestnicy będą w stanie
Rozumieć funkcje i zalety Kafka Streams w porównaniu z innymi ramami przetwarzania strumieniowego
Przetwarzać dane strumieniowe bezpośrednio w ramach klastru Kafka
Napisać aplikację lub mikrousługę Java lub Scala, która integruje się z Kafka i Kafka Streams
Napisać zwięzły kod, który przekształca tematy wejściowe Kafka w tematy wyjściowe Kafka
Budować, pakować i wdrażać aplikację
Uczestnicy
Developers
Format kursu
Część wykładu, część dyskusji, ćwiczenia i intensywne praktyczne ćwiczenia
Uwagi
Aby poprosić o spersonalizowane szkolenie dla tego kursu, proszę skontaktować się z nami w celu ustalenia szczegółów
To prowadzone przez instruktora szkolenie na żywo w Koszalin (na miejscu lub zdalnie) jest przeznaczone dla programistów, którzy chcą wdrożyć przetwarzanie strumieniowe Apache Kafka bez pisania kodu.
Pod koniec tego szkolenia uczestnicy będą mogli
Zainstalować i skonfigurować Confluent KSQL.
Skonfigurować potok przetwarzania strumieniowego przy użyciu tylko SQL poleceń (bez kodowania Java lub Python).
Przeprowadzać filtrowanie danych, transformacje, agregacje, łączenia, okienkowanie i sesjonowanie w całości w SQL.
Projektowanie i wdrażanie interaktywnych, ciągłych zapytań dla strumieniowego ETL i analiz w czasie rzeczywistym.
W tym prowadzonym przez instruktora szkoleniu na żywo w Koszalin (na miejscu lub zdalnie) uczestnicy dowiedzą się, jak wdrożyć i zarządzać Apache NiFi w środowisku laboratoryjnym na żywo.
Pod koniec tego szkolenia uczestnicy będą mogli:
Zainstalować i skonfigurować Apachi NiFi.
Pozyskiwać, przekształcać i zarządzać danymi z różnych, rozproszonych źródeł danych, w tym baz danych i dużych jezior danych.
Automatyzować przepływy danych.
Włączać analitykę strumieniową.
Stosowanie różnych podejść do pozyskiwania danych.
Przekształcanie danych Big Data w informacje biznesowe.
W tym prowadzonym przez instruktora szkoleniu na żywo w Koszalin uczestnicy poznają podstawy programowania opartego na przepływie, opracowując szereg rozszerzeń demonstracyjnych, komponentów i procesorów przy użyciu Apache NiFi.
Pod koniec tego szkolenia uczestnicy będą mogli:
Zrozumieć architekturę NiFi i koncepcje przepływu danych.
Rozwijać rozszerzenia przy użyciu NiFi i interfejsów API innych firm.
Rozwijać własny procesor Apache Nifi.
Pozyskiwać i przetwarzać dane w czasie rzeczywistym z różnych i nietypowych formatów plików i źródeł danych.
To prowadzone przez instruktora szkolenie na żywo w Koszalin (na miejscu lub zdalnie) jest przeznaczone dla inżynierów danych, naukowców zajmujących się danymi i programistów, którzy chcą korzystać z funkcji Spark Streaming w przetwarzaniu i analizowaniu danych w czasie rzeczywistym.
Pod koniec tego szkolenia uczestnicy będą mogli używać Spark Streaming do przetwarzania strumieni danych na żywo do użytku w bazach danych, systemach plików i pulpitach nawigacyjnych na żywo.
Więcej...
Ostatnia aktualizacja:
Opinie uczestników (4)
Wystarczająca praktyka, trener jest kompetentny
Chris Tan
Szkolenie - A Practical Introduction to Stream Processing
Przetłumaczone przez sztuczną inteligencję
To have it from the beginning.
Peter Scales - CACI Ltd
Szkolenie - Apache NiFi for Developers
Przetłumaczone przez sztuczną inteligencję
Koleżeńska komunikacja z osobami biorących udział w szkoleniu.
Andrzej Szewczuk - Izba Administracji Skarbowej w Lublinie
Szkolenie - Apache NiFi for Administrators
Przypominanie/przeglądanie kluczowych punktów omówionych tematów.
Paolo Angelo Gaton - SMS Global Technologies Inc.
Szkolenie - Building Stream Processing Applications with Kafka Streams