Praktyczne szkolenia na żywo z Stream Processing to kursy, pokazujące poprzez interaktywną dyskusję i ćwiczenia zagadnienia związane ze przetwarzaniem strumieniowym.
Szkolenie Stream Processing jest dostępne jako "szkolenie stacjonarne" lub "szkolenie online na żywo".
Szkolenie stacjonarne może odbywać się lokalnie w siedzibie klienta w Polsce lub w ośrodkach szkoleniowych NobleProg w Polsce. Zdalne szkolenie online odbywa się za pomocą interaktywnego, zdalnego pulpitu DaDesktop .
NobleProg -- Twój lokalny dostawca szkoleń.
Zapytaj konsultanta NobleProg o dedykowane szkolenie dla Twojego zespołu.
Opinie uczestników
★★★★★
★★★★★
tematyka szkolenia oraz zaangażowanie trenera
Izba Administracji Skarbowej w Lublinie
Szkolenie: Apache NiFi for Administrators
Koleżeńska komunikacja z osobami biorących udział w szkoleniu.
Andrzej Szewczuk - Izba Administracji Skarbowej w Lublinie
Szkolenie: Apache NiFi for Administrators
przydatność ćwiczeń
Algomine sp.z.o.o sp.k.
Szkolenie: Apache NiFi for Administrators
Szkolenie bardzo mi się podobało. Anton posiada dużą wiedzę i wyłożył niezbędną teorię w bardzo przystępny sposób.
Świetne jest to, że na szkoleniu było dużo ciekawych ćwiczeń, więc praktycznie od samego początku mamy kontakt z poznawaną technologią.
Szymon Dybczak - Algomine sp.z.o.o sp.k.
Szkolenie: Apache NiFi for Administrators
-cwiczenia
-wsparcie trenera w tematach ktore nas interesuja (przyklady)
7n/cim
Szkolenie: Apache NiFi for Administrators
Luźne podejście. Pomoc trenera. Dostępność sprzętu przygotowanego do szkolenia.
Bartosz Ratajczyk BartekR; Piotr Michałowski Consulting; Prizma Paweł Białecki; Dariusz Brejnak Business Solutions; BILABS Maciej Antosiewicz; IT Consulting Kamil Kalinowski; RBC Rafał Benesz
Szkolenie: Apache NiFi for Developers
Zwrócenie uwagi na kwestie wydajnościowe, zbudowanie całego przepływu od początku do końca.
Kamil Braniewski
Szkolenie: Apache NiFi for Developers
wiedza trenera, podejście , zakres materiału, przypadki i ćwiczenia, użyte technologie
Adam Jureczko - ING Bank Śląski S.A.
Szkolenie: Apache NiFi for Administrators
Cieszyłem się dobrą równowagą między teorią a praktycznymi laboratoriami.
N. V. Nederlandse Spoorwegen
Szkolenie: Apache Ignite: Improve Speed, Scale and Availability with In-Memory Computing
Machine Translated
Generalnie korzystałem z większego zrozumienia Ignite ...
N. V. Nederlandse Spoorwegen
Szkolenie: Apache Ignite: Improve Speed, Scale and Availability with In-Memory Computing
Machine Translated
Najbardziej podobały mi się dobre wykłady.
N. V. Nederlandse Spoorwegen
Szkolenie: Apache Ignite: Improve Speed, Scale and Availability with In-Memory Computing
Machine Translated
Przywoływanie/recenzowanie punktów kluczowych omawianych tematów.
Paolo Angelo Gaton - SMS Global Technologies Inc.
Szkolenie: Building Stream Processing Applications with Kafka Streams
Machine Translated
-
Roxane Santiago - SMS Global Technologies Inc.
Szkolenie: Building Stream Processing Applications with Kafka Streams
Machine Translated
Ćwiczenia laboratoryjne. Zastosowanie teorii od pierwszego dnia w kolejnych dniach.
Dell
Szkolenie: A Practical Introduction to Stream Processing
Machine Translated
Naprawdę podobały mi się ćwiczenia z klastrem, aby zobaczyć wydajność węzłów w klastrze i rozszerzoną funkcjonalność.
CACI Ltd
Szkolenie: Apache NiFi for Developers
Machine Translated
Ajay był bardzo doświadczonym konsultantem i był w stanie odpowiedzieć na wszystkie nasze pytania, a nawet zasugerował najlepsze praktyki dotyczące projektu, w który jesteśmy obecnie zaangażowani.
Apache Samza jest asynchronicznym szkieletem obliczeniowym typu open-source, działającym w czasie rzeczywistym, do przetwarzania strumieniowego. Wykorzystuje Apache Kafka do przesyłania wiadomości, a Apache Hadoop YARN do odporności na błędy, izolacji procesora, bezpieczeństwa i zarządzania zasobami. Ten prowadzony przez instruktora trening na żywo wprowadza zasady dotyczące systemów przesyłania wiadomości i przetwarzania rozproszonego strumienia, podczas gdy uczestnicy chodzą poprzez tworzenie przykładowego projektu opartego na Samzie i realizacji zadań. Pod koniec tego szkolenia uczestnicy będą mogli:
Użyj Samzy, aby uprościć kod potrzebny do tworzenia i konsumowania wiadomości.
Oddziel obsługę wiadomości od aplikacji.
Użyj Samza do implementacji obliczeń asynchronicznych w czasie zbliżonym do rzeczywistego.
Użyj przetwarzania strumieniowego, aby zapewnić wyższy poziom abstrakcji w systemach przesyłania wiadomości.
Publiczność
Deweloperzy
Format kursu
Wykład częściowy, dyskusja częściowa, ćwiczenia i ciężka praktyka praktyczna
Tigon jest open source, w czasie rzeczywistym, lowlatency, highthroughput, native YARN, framework przetwarzania strumienia, który znajduje się na szczycie HDFS i HBase dla trwałości Aplikacje Tygon adresują przypadki użycia, takie jak wykrywanie włamań i analiz sieciowych, analiza rynku mediów społecznościowych, analiza lokalizacji i zalecenia w czasie rzeczywistym dla użytkowników Ten instruktażowy trening na żywo wprowadza podejście Tigona do mieszania przetwarzania w czasie rzeczywistym i przetwarzania wsadowego, gdy przechodzi uczestników przez tworzenie przykładowej aplikacji Pod koniec tego szkolenia uczestnicy będą mogli: Twórz wydajne aplikacje do przetwarzania strumieniowego do obsługi dużych ilości danych Przetwarzaj źródła strumieniowe, takie jak Twitter i dzienniki serwera WWW Użyj Tigona do szybkiego łączenia, filtrowania i agregowania strumieni Publiczność Deweloperzy Format kursu Wykład częściowy, dyskusja częściowa, ćwiczenia i ciężka praktyka handson .
Podczas tego prowadzonego przez instruktora szkolenia na żywo uczestnicy poznają podstawowe pojęcia związane z architekturą Stream MapR podczas opracowywania aplikacji do strumieniowania w czasie rzeczywistym. Pod koniec tego szkolenia uczestnicy będą mogli tworzyć aplikacje producentów i konsumentów do przetwarzania danych strumieniowych w czasie rzeczywistym. Publiczność
Deweloperzy
Administratorzy
Format kursu
Wykład częściowy, dyskusja częściowa, ćwiczenia i ciężka praktyka praktyczna
Uwaga
Aby poprosić o niestandardowe szkolenie na ten kurs, skontaktuj się z nami w celu umówienia.
Kafka Streams to biblioteka po stronie klienta do budowania aplikacji i mikrousług, których dane są przekazywane do iz systemu przesyłania wiadomości Kafka. Tradycyjnie Apache Kafka polegał na Apache Spark lub Apache Storm do przetwarzania danych między producentami wiadomości a konsumentami. Wywołując interfejs API strumieni Kafka z poziomu aplikacji, dane można przetwarzać bezpośrednio w Kafce, omijając potrzebę wysyłania danych do osobnego klastra w celu przetworzenia. W tym instruktażowym szkoleniu na żywo uczestnicy dowiedzą się, jak zintegrować strumienie Kafka z zestawem przykładowych aplikacji Java , które przekazują dane zi do Apache Kafka celu przetwarzania strumieniowego. Pod koniec tego szkolenia uczestnicy będą mogli:
Poznaj funkcje i zalety strumieni Kafka w porównaniu do innych platform przetwarzania strumieniowego
Przetwarzaj strumień danych bezpośrednio w klastrze Kafka
Napisz aplikację lub mikrousługę Java lub Scala , która integruje się ze strumieniami Kafka i Kafka
Napisz zwięzły kod, który przekształca wejściowe tematy Kafka w wyjściowe tematy Kafka
Kompiluj, pakuj i wdrażaj aplikację
Publiczność
Deweloperzy
Format kursu
Część wykładu, część dyskusji, ćwiczenia i ciężka praktyka
Notatki
Aby poprosić o niestandardowe szkolenie dla tego kursu, skontaktuj się z nami w celu umówienia się
Stream Processing odnosi się do przetwarzania „danych w ruchu” w czasie rzeczywistym, to znaczy wykonywania obliczeń na danych w trakcie ich otrzymywania. Takie dane są odczytywane jako ciągłe strumienie ze źródeł danych, takich jak zdarzenia z czujników, aktywność użytkownika witryny, transakcje finansowe, karty kredytowe, strumienie kliknięć itp. Struktury Stream Processing są w stanie odczytać duże ilości przychodzących danych i zapewniają cenne informacje niemal natychmiast. Podczas tego instruktażowego szkolenia na żywo (na miejscu lub zdalnie) uczestnicy dowiedzą się, jak skonfigurować i zintegrować różne struktury Stream Processing z istniejącymi systemami przechowywania dużych danych oraz powiązanymi aplikacjami i mikrousługami. Pod koniec tego szkolenia uczestnicy będą mogli:
Zainstaluj i skonfiguruj różne platformy Stream Processing , takie jak Spark Streaming i Kafka Streaming.
Zrozum i wybierz najbardziej odpowiednie ramy dla zadania.
Przetwarzanie danych w sposób ciągły, równoległy i rekordowy.
Zintegruj rozwiązania Stream Processing z istniejącymi bazami danych, hurtowniami danych, jeziorami danych itp.
Zintegruj najbardziej odpowiednią bibliotekę przetwarzania strumieniowego z aplikacjami korporacyjnymi i mikrousługami.
Publiczność
Deweloperzy
Architekci oprogramowania
Format kursu
Część wykładu, część dyskusji, ćwiczenia i ciężka praktyka
Notatki
Aby poprosić o niestandardowe szkolenie dla tego kursu, skontaktuj się z nami w celu umówienia się.
Szkolenie na żywo prowadzone przez instruktora (na miejscu lub zdalnie) jest skierowane do inżynierów, którzy chcą korzystać z Confluent (dystrybucja Kafka) do budowy i zarządzania platformą przetwarzania danych w czasie rzeczywistym dla swoich aplikacji. Pod koniec tego szkolenia uczestnicy będą mogli:
Zainstaluj i skonfiguruj Confluent Platform.
Użyj narzędzi i usług zarządzania Confluent, aby łatwiej uruchomić Kafkę.
Przechowuj i przetwarzaj przychodzące dane strumieniowe.
Optymalizuj i zarządzaj klastrami Kafka.
Bezpieczne strumienie danych.
Format kursu
Interaktywny wykład i dyskusja.
Dużo ćwiczeń i ćwiczeń.
Praktyczne wdrożenie w środowisku na żywo.
Opcje dostosowywania kursu
Kurs opiera się na otwartej wersji Confluent: Confluent Open Source.
Aby poprosić o niestandardowe szkolenie dla tego kursu, skontaktuj się z nami w celu umówienia się.
Apache Kafka jest platformą do przetwarzania prądu z otwartym źródłem, która zapewnia szybką, niezawodną i niską platformę do obsługi analiz danych w czasie rzeczywistym. Apache Kafka może być zintegrowany z dostępnymi językami programowania, takimi jak Python.
Ten instruktor prowadzony, szkolenie na żywo (online lub on-site) jest skierowany do inżynierów danych, naukowców danych i programistów, którzy chcą używać funkcji Apache Kafka w transmisji danych z Python.
Po zakończeniu tego szkolenia uczestnicy będą mogli używać Apache Kafka do monitorowania i zarządzania warunkami w ciągłych strumieniach danych za pomocą Python programowania.
Format kursu
Interaktywne wykłady i dyskusje.
Dużo ćwiczeń i praktyk.
Wdrażanie rąk w środowisku Live-Lab.
Opcje dostosowania kursu
Aby poprosić o dostosowane szkolenie dla tego kursu, prosimy o kontakt, aby zorganizować.
This instructor-led, live training in w Polsce introduces the principles and approaches behind distributed stream and batch data processing, and walks participants through the creation of a real-time, data streaming application in Apache Flink.
Apache NiFi (Hortonworks DataFlow) to zintegrowana logistyka danych w czasie rzeczywistym i prosta platforma przetwarzania zdarzeń, która umożliwia przenoszenie, śledzenie i automatyzację danych między systemami. Jest napisany przy użyciu programowania opartego na przepływach i zapewnia interfejs użytkownika oparty na sieci WWW do zarządzania przepływami danych w czasie rzeczywistym. W tym prowadzonym przez instruktora szkoleniu na żywo (na miejscu lub zdalnie) uczestnicy dowiedzą się, jak wdrożyć i zarządzać Apache NiFi w środowisku laboratoryjnym. Pod koniec tego szkolenia uczestnicy będą mogli:
Zainstaluj i skonfiguruj Apachi NiFi.
Źródło, transformacja i zarządzanie danymi z różnych rozproszonych źródeł danych, w tym baz danych i jezior dużych zbiorów danych.
Automatyzuj przepływ danych.
Włącz analizę strumieniową.
Zastosuj różne podejścia do przyjmowania danych.
Przekształć Big Data i spostrzeżenia biznesowe.
Format kursu
Interaktywny wykład i dyskusja.
Wiele ćwiczeń i ćwiczeń.
Praktyczne wdrożenie w środowisku laboratoryjnym na żywo.
Opcje dostosowywania kursu
Aby poprosić o niestandardowe szkolenie na ten kurs, skontaktuj się z nami w celu umówienia.
Apache NiFi (Hortonworks DataFlow) to zintegrowana logistyka danych w czasie rzeczywistym i prosta platforma przetwarzania zdarzeń, która umożliwia przenoszenie, śledzenie i automatyzację danych między systemami. Jest napisany przy użyciu programowania opartego na przepływach i zapewnia interfejs użytkownika oparty na sieci WWW do zarządzania przepływami danych w czasie rzeczywistym. W tym prowadzonym przez instruktora szkoleniu na żywo uczestnicy poznają podstawy programowania opartego na przepływach, ponieważ opracowują szereg rozszerzeń demonstracyjnych, komponentów i procesorów wykorzystujących Apache NiFi . Pod koniec tego szkolenia uczestnicy będą mogli:
Zrozumienie koncepcji architektury i przepływu danych NiFi.
Twórz rozszerzenia za pomocą NiFi i interfejsów API innych firm.
Niestandardowe opracowanie własnego procesora Apache Nifi.
Odbieraj i przetwarzaj dane w czasie rzeczywistym z różnych i nietypowych formatów plików i źródeł danych.
Format kursu
Interaktywny wykład i dyskusja.
Wiele ćwiczeń i ćwiczeń.
Praktyczne wdrożenie w środowisku laboratoryjnym na żywo.
Opcje dostosowywania kursu
Aby poprosić o niestandardowe szkolenie na ten kurs, skontaktuj się z nami w celu umówienia.
Apache Storm jest dystrybuowany, silnik obliczeniowy w czasie rzeczywistym używany do umożliwienia inteligencji biznesowej w czasie rzeczywistym. Umożliwia to aplikacjom wiarygodne przetwarzanie nieograniczonych przepływów danych (np. przetwarzania strumieniowego).
"Storm jest do przetwarzania w czasie rzeczywistym co Hadoop jest do przetwarzania zbiornika!"
W tym szkoleniu na żywo prowadzonym przez instruktora uczestnicy dowiedzą się, jak zainstalować i skonfigurować Apache Storm, a następnie opracować i rozwijać aplikację Apache Storm do przetwarzania dużych danych w czasie rzeczywistym.
Niektóre z tematów zawartych w tym szkoleniu obejmują:
Apache Storm w kontekście Hadoop
Praca z nieograniczonymi danymi
Ciągłe obliczenia
Analiza w czasie rzeczywistym
Dystrybucja przetwarzania RPC i ETL
Zapytaj o kurs już teraz!
publiczność
Twórcy oprogramowania i ETL
Profesjonaliści Mainframe
Naukowcy danych
Analitycy Big Data
[ 0 ] Profesjonaliści
Format kursu
Częściowe wykłady, częściowe dyskusje, ćwiczenia i ciężkie praktyki
Apache Apex jest platformą YARNnative, która jednoczy przetwarzanie strumieniowe i wsadowe Przetwarza on dużą pamięć danych w sposób skalowalny, wydajny, odporny na błędy, stanowy, bezpieczny, rozproszony i łatwy w obsłudze Ten instruktażowy trening na żywo wprowadza zunifikowaną architekturę przetwarzania Apache Apex i prowadzi uczestników przez stworzenie rozproszonej aplikacji wykorzystującej Apex na Hadoop Pod koniec tego szkolenia uczestnicy będą mogli: Rozumieć pojęcia potoku przetwarzania danych, takie jak konektory dla źródeł i pochłaniaczy, powszechne transformacje danych itp Buduj, skaluj i optymalizuj aplikację Apex Przetwarzaj w czasie rzeczywistym strumienie danych niezawodnie iz minimalnym opóźnieniem Użyj Apex Core i biblioteki Apex Malhar, aby umożliwić szybkie tworzenie aplikacji Użyj API Apex do napisania i ponownego użycia istniejącego kodu Java Zintegruj Apex z innymi aplikacjami jako mechanizmem przetwarzania Dostrój, przetestuj i skaluj aplikacje Apex Publiczność Deweloperzy Architekci korporacyjni Format kursu Wykład częściowy, dyskusja częściowa, ćwiczenia i ciężka praktyka handson .
Apache Beam jest otwartym, zunifikowanym modelem programowania do definiowania i wykonywania równoległych potoków przetwarzania danych Jego moc polega na możliwości uruchamiania zarówno potoków wsadowych, jak i strumieniowych, a wykonywanie jest wykonywane przez jeden z obsługiwanych procesorów rozproszonych Beam: Apache Apex, Apache Flink, Apache Spark i Google Cloud Dataflow Apache Beam jest przydatny do zadań ETL (Extract, Transform and Load), takich jak przenoszenie danych między różnymi nośnikami pamięci i źródłami danych, przekształcanie danych do bardziej pożądanego formatu i ładowanie danych do nowego systemu W tym instruktażowym szkoleniu na żywo (na miejscu lub zdalnie) uczestnicy dowiedzą się, jak zaimplementować pakiety SDK Apache Beam w aplikacji Java lub Python, która definiuje potok przetwarzania danych w celu dekompozycji dużego zestawu danych na mniejsze porcje w celu niezależnego, równoległego przetwarzania Pod koniec tego szkolenia uczestnicy będą mogli: Zainstaluj i skonfiguruj Apache Beam Użyj jednego modelu programistycznego, aby przeprowadzić przetwarzanie wsadowe i strumieniowe z aplikacji Java lub Python Wykonuj potoki w wielu środowiskach Publiczność Deweloperzy Format kursu Wykład częściowy, dyskusja częściowa, ćwiczenia i ciężka praktyka handson Uwaga Ten kurs będzie dostępny w przyszłości w Scali Prosimy o kontakt w celu ustalenia szczegółów .
Apache Ignite jest platformą komputerową w pamięci, która umieszcza się między aplikacją a warstwą danych w celu poprawy prędkości, skaly i dostępności.
W tym szkoleniu prowadzonym przez instruktora, uczestnicy uczą się zasad za trwałym i czystym przechowywaniem w pamięci, gdy przechodzą przez tworzenie projektu wzorcowego w pamięci.
Po zakończeniu szkolenia uczestnicy będą mogli:
Użyj Ignite do wytrzymałości w pamięci, na dysku oraz czystej dystrybucji bazy danych w pamięci.
Osiągnij wytrwałość bez synchronizacji danych z powrotem do bazy relacyjnej.
Użyj Ignite do wykonywania SQL i dystrybuowanych połączeń.
Poprawa wydajności poprzez przenoszenie danych bliżej CPU, wykorzystując pamięć RAM jako magazyn.
Rozprzestrzeniane dane gromadzą się po jednym klastrze w celu osiągnięcia skalowalności horyzontalnej.
Integruj Ignite z procesorami RDBMS, NoSQL, Hadoop i uczenia się maszynowego.
Format kursu
Interaktywne wykłady i dyskusje.
Dużo ćwiczeń i praktyk.
Wdrażanie rąk w środowisku Live-Lab.
Opcje dostosowania kursu
Aby poprosić o dostosowane szkolenie dla tego kursu, prosimy o kontakt, aby zorganizować.
Confluent K SQL to framework do przetwarzania strumieniowego zbudowany na bazie Apache Kafka . Umożliwia przetwarzanie danych w czasie rzeczywistym za pomocą operacji SQL . To prowadzone przez instruktora szkolenie na żywo (na miejscu lub zdalnie) skierowane jest do programistów, którzy chcą zaimplementować przetwarzanie strumienia Apache Kafka bez pisania kodu. Pod koniec tego szkolenia uczestnicy będą mogli:
Zainstaluj i skonfiguruj Confluent K SQL .
Skonfiguruj potok przetwarzania strumienia przy użyciu tylko poleceń SQL (bez kodowania Java lub Python ).
Przeprowadź filtrowanie danych, transformacje, agregacje, łączenia, okienkowanie i sesjonowanie całkowicie w języku SQL .
Projektuj i wdrażaj interaktywne, ciągłe zapytania dotyczące strumieniowania ETL i analiz w czasie rzeczywistym.
Format kursu
Interaktywny wykład i dyskusja.
Wiele ćwiczeń i ćwiczeń.
Praktyczne wdrożenie w środowisku laboratoryjnym na żywo.
Opcje dostosowywania kursu
Aby poprosić o niestandardowe szkolenie na ten kurs, skontaktuj się z nami w celu umówienia.
Streaming to skalowalny, open source system przetwarzania strumieni, który umożliwia użytkownikom przetwarzanie danych w czasie rzeczywistym z wspieranych źródeł. Spark Streaming umożliwia przetwarzanie przepływów danych w sposób tolerujący błędy.
Ten instruktor prowadzony, szkolenie na żywo (online lub on-site) jest skierowany do inżynierów danych, naukowców danych i programistów, którzy chcą używać funkcji Spark Streaming w przetwarzaniu i analizie danych w czasie rzeczywistym.
Po zakończeniu tego szkolenia uczestnicy będą mogli używać Spark Streaming do przetwarzania przepływów danych na żywo do użytku w bazach danych, systemach plików i tabelach na żywo.
Format kursu
Interaktywne wykłady i dyskusje.
Dużo ćwiczeń i praktyk.
Wdrażanie rąk w środowisku Live-Lab.
Opcje dostosowania kursu
Aby poprosić o dostosowane szkolenie dla tego kursu, prosimy o kontakt, aby zorganizować.
Last Updated:
Nadchodzące szkolenia z technologii Stream processing
Zapisz się na nasz newsletter i otrzymuj informacje o aktualnych zniżkach na kursy otwarte. Szanujemy Twoją prywatność, dlatego Twój e-mail będzie wykorzystywany jedynie w celu wysyłki naszego newslettera, nie będzie udostępniony ani sprzedany osobom trzecim. W dowolnej chwili możesz zmienić swoje preferencje co do otrzymywanego newslettera bądź całkowicie się z niego wypisać.