Szkolenia Stream processing

Szkolenia Stream processing

Praktyczne szkolenia na żywo z Stream Processing to kursy, pokazujące poprzez interaktywną dyskusję i ćwiczenia zagadnienia związane ze przetwarzaniem strumieniowym.

Szkolenie Stream Processing jest dostępne jako "szkolenie stacjonarne" lub "szkolenie online na żywo".
Szkolenie stacjonarne może odbywać się lokalnie w siedzibie klienta w Polsce lub w ośrodkach szkoleniowych NobleProg w Polsce. Zdalne szkolenie online odbywa się za pomocą interaktywnego, zdalnego pulpitu DaDesktop .

NobleProg -- Twój lokalny dostawca szkoleń.

Zapytaj konsultanta NobleProg o dedykowane szkolenie dla Twojego zespołu.

Opinie uczestników

★★★★★
★★★★★

Plany szkoleń z technologii Stream processing

Nazwa kursu
Czas trwania
Opis
Nazwa kursu
Czas trwania
Opis
14 godzin
Apache Samza jest asynchronicznym szkieletem obliczeniowym typu open-source, działającym w czasie rzeczywistym, do przetwarzania strumieniowego. Wykorzystuje Apache Kafka do przesyłania wiadomości, a Apache Hadoop YARN do odporności na błędy, izolacji procesora, bezpieczeństwa i zarządzania zasobami. Ten prowadzony przez instruktora trening na żywo wprowadza zasady dotyczące systemów przesyłania wiadomości i przetwarzania rozproszonego strumienia, podczas gdy uczestnicy chodzą poprzez tworzenie przykładowego projektu opartego na Samzie i realizacji zadań. Pod koniec tego szkolenia uczestnicy będą mogli:
  • Użyj Samzy, aby uprościć kod potrzebny do tworzenia i konsumowania wiadomości.
  • Oddziel obsługę wiadomości od aplikacji.
  • Użyj Samza do implementacji obliczeń asynchronicznych w czasie zbliżonym do rzeczywistego.
  • Użyj przetwarzania strumieniowego, aby zapewnić wyższy poziom abstrakcji w systemach przesyłania wiadomości.
Publiczność
  • Deweloperzy
Format kursu
  • Wykład częściowy, dyskusja częściowa, ćwiczenia i ciężka praktyka praktyczna
14 godzin
Tigon jest open source, w czasie rzeczywistym, lowlatency, highthroughput, native YARN, framework przetwarzania strumienia, który znajduje się na szczycie HDFS i HBase dla trwałości Aplikacje Tygon adresują przypadki użycia, takie jak wykrywanie włamań i analiz sieciowych, analiza rynku mediów społecznościowych, analiza lokalizacji i zalecenia w czasie rzeczywistym dla użytkowników Ten instruktażowy trening na żywo wprowadza podejście Tigona do mieszania przetwarzania w czasie rzeczywistym i przetwarzania wsadowego, gdy przechodzi uczestników przez tworzenie przykładowej aplikacji Pod koniec tego szkolenia uczestnicy będą mogli: Twórz wydajne aplikacje do przetwarzania strumieniowego do obsługi dużych ilości danych Przetwarzaj źródła strumieniowe, takie jak Twitter i dzienniki serwera WWW Użyj Tigona do szybkiego łączenia, filtrowania i agregowania strumieni Publiczność Deweloperzy Format kursu Wykład częściowy, dyskusja częściowa, ćwiczenia i ciężka praktyka handson .
7 godzin
Podczas tego prowadzonego przez instruktora szkolenia na żywo uczestnicy poznają podstawowe pojęcia związane z architekturą Stream MapR podczas opracowywania aplikacji do strumieniowania w czasie rzeczywistym. Pod koniec tego szkolenia uczestnicy będą mogli tworzyć aplikacje producentów i konsumentów do przetwarzania danych strumieniowych w czasie rzeczywistym. Publiczność
  • Deweloperzy
  • Administratorzy
Format kursu
  • Wykład częściowy, dyskusja częściowa, ćwiczenia i ciężka praktyka praktyczna
Uwaga
  • Aby poprosić o niestandardowe szkolenie na ten kurs, skontaktuj się z nami w celu umówienia.
7 godzin
Kafka Streams to biblioteka po stronie klienta do budowania aplikacji i mikrousług, których dane są przekazywane do iz systemu przesyłania wiadomości Kafka. Tradycyjnie Apache Kafka polegał na Apache Spark lub Apache Storm do przetwarzania danych między producentami wiadomości a konsumentami. Wywołując interfejs API strumieni Kafka z poziomu aplikacji, dane można przetwarzać bezpośrednio w Kafce, omijając potrzebę wysyłania danych do osobnego klastra w celu przetworzenia. W tym instruktażowym szkoleniu na żywo uczestnicy dowiedzą się, jak zintegrować strumienie Kafka z zestawem przykładowych aplikacji Java , które przekazują dane zi do Apache Kafka celu przetwarzania strumieniowego. Pod koniec tego szkolenia uczestnicy będą mogli:
  • Poznaj funkcje i zalety strumieni Kafka w porównaniu do innych platform przetwarzania strumieniowego
  • Przetwarzaj strumień danych bezpośrednio w klastrze Kafka
  • Napisz aplikację lub mikrousługę Java lub Scala , która integruje się ze strumieniami Kafka i Kafka
  • Napisz zwięzły kod, który przekształca wejściowe tematy Kafka w wyjściowe tematy Kafka
  • Kompiluj, pakuj i wdrażaj aplikację
Publiczność
  • Deweloperzy
Format kursu
  • Część wykładu, część dyskusji, ćwiczenia i ciężka praktyka
Notatki
  • Aby poprosić o niestandardowe szkolenie dla tego kursu, skontaktuj się z nami w celu umówienia się
21 godzin
Stream Processing odnosi się do przetwarzania „danych w ruchu” w czasie rzeczywistym, to znaczy wykonywania obliczeń na danych w trakcie ich otrzymywania. Takie dane są odczytywane jako ciągłe strumienie ze źródeł danych, takich jak zdarzenia z czujników, aktywność użytkownika witryny, transakcje finansowe, karty kredytowe, strumienie kliknięć itp. Struktury Stream Processing są w stanie odczytać duże ilości przychodzących danych i zapewniają cenne informacje niemal natychmiast. Podczas tego instruktażowego szkolenia na żywo (na miejscu lub zdalnie) uczestnicy dowiedzą się, jak skonfigurować i zintegrować różne struktury Stream Processing z istniejącymi systemami przechowywania dużych danych oraz powiązanymi aplikacjami i mikrousługami. Pod koniec tego szkolenia uczestnicy będą mogli:
  • Zainstaluj i skonfiguruj różne platformy Stream Processing , takie jak Spark Streaming i Kafka Streaming.
  • Zrozum i wybierz najbardziej odpowiednie ramy dla zadania.
  • Przetwarzanie danych w sposób ciągły, równoległy i rekordowy.
  • Zintegruj rozwiązania Stream Processing z istniejącymi bazami danych, hurtowniami danych, jeziorami danych itp.
  • Zintegruj najbardziej odpowiednią bibliotekę przetwarzania strumieniowego z aplikacjami korporacyjnymi i mikrousługami.
Publiczność
  • Deweloperzy
  • Architekci oprogramowania
Format kursu
  • Część wykładu, część dyskusji, ćwiczenia i ciężka praktyka
Notatki
  • Aby poprosić o niestandardowe szkolenie dla tego kursu, skontaktuj się z nami w celu umówienia się.
14 godzin
Szkolenie na żywo prowadzone przez instruktora (na miejscu lub zdalnie) jest skierowane do inżynierów, którzy chcą korzystać z Confluent (dystrybucja Kafka) do budowy i zarządzania platformą przetwarzania danych w czasie rzeczywistym dla swoich aplikacji. Pod koniec tego szkolenia uczestnicy będą mogli:
  • Zainstaluj i skonfiguruj Confluent Platform.
  • Użyj narzędzi i usług zarządzania Confluent, aby łatwiej uruchomić Kafkę.
  • Przechowuj i przetwarzaj przychodzące dane strumieniowe.
  • Optymalizuj i zarządzaj klastrami Kafka.
  • Bezpieczne strumienie danych.
Format kursu
  • Interaktywny wykład i dyskusja.
  • Dużo ćwiczeń i ćwiczeń.
  • Praktyczne wdrożenie w środowisku na żywo.
Opcje dostosowywania kursu
  • Kurs opiera się na otwartej wersji Confluent: Confluent Open Source.
  • Aby poprosić o niestandardowe szkolenie dla tego kursu, skontaktuj się z nami w celu umówienia się.
7 godzin
Apache Kafka jest platformą do przetwarzania prądu z otwartym źródłem, która zapewnia szybką, niezawodną i niską platformę do obsługi analiz danych w czasie rzeczywistym. Apache Kafka może być zintegrowany z dostępnymi językami programowania, takimi jak Python. Ten instruktor prowadzony, szkolenie na żywo (online lub on-site) jest skierowany do inżynierów danych, naukowców danych i programistów, którzy chcą używać funkcji Apache Kafka w transmisji danych z Python. Po zakończeniu tego szkolenia uczestnicy będą mogli używać Apache Kafka do monitorowania i zarządzania warunkami w ciągłych strumieniach danych za pomocą Python programowania. Format kursu
    Interaktywne wykłady i dyskusje. Dużo ćwiczeń i praktyk. Wdrażanie rąk w środowisku Live-Lab.
Opcje dostosowania kursu
    Aby poprosić o dostosowane szkolenie dla tego kursu, prosimy o kontakt, aby zorganizować.
28 godzin
This instructor-led, live training in w Polsce introduces the principles and approaches behind distributed stream and batch data processing, and walks participants through the creation of a real-time, data streaming application in Apache Flink.
21 godzin
Apache NiFi (Hortonworks DataFlow) to zintegrowana logistyka danych w czasie rzeczywistym i prosta platforma przetwarzania zdarzeń, która umożliwia przenoszenie, śledzenie i automatyzację danych między systemami. Jest napisany przy użyciu programowania opartego na przepływach i zapewnia interfejs użytkownika oparty na sieci WWW do zarządzania przepływami danych w czasie rzeczywistym. W tym prowadzonym przez instruktora szkoleniu na żywo (na miejscu lub zdalnie) uczestnicy dowiedzą się, jak wdrożyć i zarządzać Apache NiFi w środowisku laboratoryjnym. Pod koniec tego szkolenia uczestnicy będą mogli:
  • Zainstaluj i skonfiguruj Apachi NiFi.
  • Źródło, transformacja i zarządzanie danymi z różnych rozproszonych źródeł danych, w tym baz danych i jezior dużych zbiorów danych.
  • Automatyzuj przepływ danych.
  • Włącz analizę strumieniową.
  • Zastosuj różne podejścia do przyjmowania danych.
  • Przekształć Big Data i spostrzeżenia biznesowe.
Format kursu
  • Interaktywny wykład i dyskusja.
  • Wiele ćwiczeń i ćwiczeń.
  • Praktyczne wdrożenie w środowisku laboratoryjnym na żywo.
Opcje dostosowywania kursu
  • Aby poprosić o niestandardowe szkolenie na ten kurs, skontaktuj się z nami w celu umówienia.
7 godzin
Apache NiFi (Hortonworks DataFlow) to zintegrowana logistyka danych w czasie rzeczywistym i prosta platforma przetwarzania zdarzeń, która umożliwia przenoszenie, śledzenie i automatyzację danych między systemami. Jest napisany przy użyciu programowania opartego na przepływach i zapewnia interfejs użytkownika oparty na sieci WWW do zarządzania przepływami danych w czasie rzeczywistym. W tym prowadzonym przez instruktora szkoleniu na żywo uczestnicy poznają podstawy programowania opartego na przepływach, ponieważ opracowują szereg rozszerzeń demonstracyjnych, komponentów i procesorów wykorzystujących Apache NiFi . Pod koniec tego szkolenia uczestnicy będą mogli:
  • Zrozumienie koncepcji architektury i przepływu danych NiFi.
  • Twórz rozszerzenia za pomocą NiFi i interfejsów API innych firm.
  • Niestandardowe opracowanie własnego procesora Apache Nifi.
  • Odbieraj i przetwarzaj dane w czasie rzeczywistym z różnych i nietypowych formatów plików i źródeł danych.
Format kursu
  • Interaktywny wykład i dyskusja.
  • Wiele ćwiczeń i ćwiczeń.
  • Praktyczne wdrożenie w środowisku laboratoryjnym na żywo.
Opcje dostosowywania kursu
  • Aby poprosić o niestandardowe szkolenie na ten kurs, skontaktuj się z nami w celu umówienia.
28 godzin
Apache Storm jest dystrybuowany, silnik obliczeniowy w czasie rzeczywistym używany do umożliwienia inteligencji biznesowej w czasie rzeczywistym. Umożliwia to aplikacjom wiarygodne przetwarzanie nieograniczonych przepływów danych (np. przetwarzania strumieniowego). "Storm jest do przetwarzania w czasie rzeczywistym co Hadoop jest do przetwarzania zbiornika!" W tym szkoleniu na żywo prowadzonym przez instruktora uczestnicy dowiedzą się, jak zainstalować i skonfigurować Apache Storm, a następnie opracować i rozwijać aplikację Apache Storm do przetwarzania dużych danych w czasie rzeczywistym. Niektóre z tematów zawartych w tym szkoleniu obejmują:
    Apache Storm w kontekście Hadoop Praca z nieograniczonymi danymi Ciągłe obliczenia Analiza w czasie rzeczywistym Dystrybucja przetwarzania RPC i ETL
Zapytaj o kurs już teraz! publiczność
    Twórcy oprogramowania i ETL Profesjonaliści Mainframe Naukowcy danych Analitycy Big Data [ 0 ] Profesjonaliści
Format kursu
    Częściowe wykłady, częściowe dyskusje, ćwiczenia i ciężkie praktyki
21 godzin
Apache Apex jest platformą YARNnative, która jednoczy przetwarzanie strumieniowe i wsadowe Przetwarza on dużą pamięć danych w sposób skalowalny, wydajny, odporny na błędy, stanowy, bezpieczny, rozproszony i łatwy w obsłudze Ten instruktażowy trening na żywo wprowadza zunifikowaną architekturę przetwarzania Apache Apex i prowadzi uczestników przez stworzenie rozproszonej aplikacji wykorzystującej Apex na Hadoop Pod koniec tego szkolenia uczestnicy będą mogli: Rozumieć pojęcia potoku przetwarzania danych, takie jak konektory dla źródeł i pochłaniaczy, powszechne transformacje danych itp Buduj, skaluj i optymalizuj aplikację Apex Przetwarzaj w czasie rzeczywistym strumienie danych niezawodnie iz minimalnym opóźnieniem Użyj Apex Core i biblioteki Apex Malhar, aby umożliwić szybkie tworzenie aplikacji Użyj API Apex do napisania i ponownego użycia istniejącego kodu Java Zintegruj Apex z innymi aplikacjami jako mechanizmem przetwarzania Dostrój, przetestuj i skaluj aplikacje Apex Publiczność Deweloperzy Architekci korporacyjni Format kursu Wykład częściowy, dyskusja częściowa, ćwiczenia i ciężka praktyka handson .
14 godzin
Apache Beam jest otwartym, zunifikowanym modelem programowania do definiowania i wykonywania równoległych potoków przetwarzania danych Jego moc polega na możliwości uruchamiania zarówno potoków wsadowych, jak i strumieniowych, a wykonywanie jest wykonywane przez jeden z obsługiwanych procesorów rozproszonych Beam: Apache Apex, Apache Flink, Apache Spark i Google Cloud Dataflow Apache Beam jest przydatny do zadań ETL (Extract, Transform and Load), takich jak przenoszenie danych między różnymi nośnikami pamięci i źródłami danych, przekształcanie danych do bardziej pożądanego formatu i ładowanie danych do nowego systemu W tym instruktażowym szkoleniu na żywo (na miejscu lub zdalnie) uczestnicy dowiedzą się, jak zaimplementować pakiety SDK Apache Beam w aplikacji Java lub Python, która definiuje potok przetwarzania danych w celu dekompozycji dużego zestawu danych na mniejsze porcje w celu niezależnego, równoległego przetwarzania Pod koniec tego szkolenia uczestnicy będą mogli: Zainstaluj i skonfiguruj Apache Beam Użyj jednego modelu programistycznego, aby przeprowadzić przetwarzanie wsadowe i strumieniowe z aplikacji Java lub Python Wykonuj potoki w wielu środowiskach Publiczność Deweloperzy Format kursu Wykład częściowy, dyskusja częściowa, ćwiczenia i ciężka praktyka handson Uwaga Ten kurs będzie dostępny w przyszłości w Scali Prosimy o kontakt w celu ustalenia szczegółów .
14 godzin
Apache Ignite jest platformą komputerową w pamięci, która umieszcza się między aplikacją a warstwą danych w celu poprawy prędkości, skaly i dostępności. W tym szkoleniu prowadzonym przez instruktora, uczestnicy uczą się zasad za trwałym i czystym przechowywaniem w pamięci, gdy przechodzą przez tworzenie projektu wzorcowego w pamięci. Po zakończeniu szkolenia uczestnicy będą mogli:
    Użyj Ignite do wytrzymałości w pamięci, na dysku oraz czystej dystrybucji bazy danych w pamięci. Osiągnij wytrwałość bez synchronizacji danych z powrotem do bazy relacyjnej. Użyj Ignite do wykonywania SQL i dystrybuowanych połączeń. Poprawa wydajności poprzez przenoszenie danych bliżej CPU, wykorzystując pamięć RAM jako magazyn. Rozprzestrzeniane dane gromadzą się po jednym klastrze w celu osiągnięcia skalowalności horyzontalnej. Integruj Ignite z procesorami RDBMS, NoSQL, Hadoop i uczenia się maszynowego.
Format kursu
    Interaktywne wykłady i dyskusje. Dużo ćwiczeń i praktyk. Wdrażanie rąk w środowisku Live-Lab.
Opcje dostosowania kursu
    Aby poprosić o dostosowane szkolenie dla tego kursu, prosimy o kontakt, aby zorganizować.
7 godzin
Confluent K SQL to framework do przetwarzania strumieniowego zbudowany na bazie Apache Kafka . Umożliwia przetwarzanie danych w czasie rzeczywistym za pomocą operacji SQL . To prowadzone przez instruktora szkolenie na żywo (na miejscu lub zdalnie) skierowane jest do programistów, którzy chcą zaimplementować przetwarzanie strumienia Apache Kafka bez pisania kodu. Pod koniec tego szkolenia uczestnicy będą mogli:
  • Zainstaluj i skonfiguruj Confluent K SQL .
  • Skonfiguruj potok przetwarzania strumienia przy użyciu tylko poleceń SQL (bez kodowania Java lub Python ).
  • Przeprowadź filtrowanie danych, transformacje, agregacje, łączenia, okienkowanie i sesjonowanie całkowicie w języku SQL .
  • Projektuj i wdrażaj interaktywne, ciągłe zapytania dotyczące strumieniowania ETL i analiz w czasie rzeczywistym.
Format kursu
  • Interaktywny wykład i dyskusja.
  • Wiele ćwiczeń i ćwiczeń.
  • Praktyczne wdrożenie w środowisku laboratoryjnym na żywo.
Opcje dostosowywania kursu
  • Aby poprosić o niestandardowe szkolenie na ten kurs, skontaktuj się z nami w celu umówienia.
7 godzin
Streaming to skalowalny, open source system przetwarzania strumieni, który umożliwia użytkownikom przetwarzanie danych w czasie rzeczywistym z wspieranych źródeł. Spark Streaming umożliwia przetwarzanie przepływów danych w sposób tolerujący błędy. Ten instruktor prowadzony, szkolenie na żywo (online lub on-site) jest skierowany do inżynierów danych, naukowców danych i programistów, którzy chcą używać funkcji Spark Streaming w przetwarzaniu i analizie danych w czasie rzeczywistym. Po zakończeniu tego szkolenia uczestnicy będą mogli używać Spark Streaming do przetwarzania przepływów danych na żywo do użytku w bazach danych, systemach plików i tabelach na żywo. Format kursu
    Interaktywne wykłady i dyskusje. Dużo ćwiczeń i praktyk. Wdrażanie rąk w środowisku Live-Lab.
Opcje dostosowania kursu
    Aby poprosić o dostosowane szkolenie dla tego kursu, prosimy o kontakt, aby zorganizować.

Last Updated:

Nadchodzące szkolenia z technologii Stream processing

Szkolenie Stream processing, Stream processing boot camp, Szkolenia Zdalne Stream processing, szkolenie wieczorowe Stream processing, szkolenie weekendowe Stream processing, Kurs Stream processing,Kursy Stream processing, Trener Stream processing, instruktor Stream processing, kurs zdalny Stream processing, edukacja zdalna Stream processing, nauczanie wirtualne Stream processing, lekcje UML, nauka przez internet Stream processing, e-learning Stream processing, kurs online Stream processing, wykładowca Stream processing

Kursy w promocyjnej cenie

Newsletter z promocjami

Zapisz się na nasz newsletter i otrzymuj informacje o aktualnych zniżkach na kursy otwarte.
Szanujemy Twoją prywatność, dlatego Twój e-mail będzie wykorzystywany jedynie w celu wysyłki naszego newslettera, nie będzie udostępniony ani sprzedany osobom trzecim.
W dowolnej chwili możesz zmienić swoje preferencje co do otrzymywanego newslettera bądź całkowicie się z niego wypisać.

Zaufali nam

This site in other countries/regions