Szkolenia Stream processing

Szkolenia Stream processing

Lokalne, prowadzone przez instruktora kursy szkoleniowe na żywo Stream Processing pokazują poprzez interaktywną dyskusję i praktyczne ćwiczenia z podstawami i zaawansowanymi tematami Stream Processing Szkolenie w zakresie przetwarzania strumieniowego jest dostępne jako "szkolenie na miejscu" lub "szkolenie na żywo" Szkolenie na żywo w siedzibie klienta może odbywać się lokalnie w siedzibie klienta w Polsce lub w centrach szkoleniowych korporacji NobleProg w Polsce Zdalne szkolenie na żywo odbywa się za pomocą interaktywnego, zdalnego pulpitu NobleProg Twój lokalny dostawca szkoleń.

Machine Translated

Opinie uczestników

★★★★★
★★★★★

Plany szkoleń z technologii Stream processing

Title
Czas trwania
Opis
Title
Czas trwania
Opis
14 godziny
Opis
Apache Ignite jest platformą komputerową w pamięci, która znajduje się między warstwą aplikacji i danych w celu zwiększenia szybkości, skali i dostępności.

w tym instruktorem, szkolenia na żywo, uczestnicy będą uczyć się zasad za trwałe i czyste przechowywanie w pamięci, ponieważ krok poprzez stworzenie próbki w pamięci projektu komputerowego.

do końca tego szkolenia uczestnicy będą mogli:

- Użyj Ignite dla w pamięci, trwałości na dysku, a także czysto rozproszonej bazy danych w pamięci.
- osiągnąć trwałość bez synchronizowania danych z powrotem do relacyjnej bazy danych.
- Użyj Ignite do wykonywania SQL i rozproszonych sprzężenia.
- zwiększyć wydajność, przenosząc dane bliżej procesora, przy użyciu pamięci RAM jako magazynu.
- Spread zestawów danych w klastrze w celu osiągnięcia skalowalności poziomej.
- zintegrować Ignite z RDBMS, NoSQL, Hadoop i Machine Learning procesorów.

Format kursu

- Interactive wykładu i dyskusji.
- wiele ćwiczeń i praktyk.
- praktyczne wdrożenie w środowisku laboratorium na żywo.

Opcje dostosowywania kursu

- Aby poprosić o szkolenia dostosowane do tego kursu, skontaktuj się z nami, aby zorganizować.
21 godziny
Opis
Apache Apex jest platformą YARNnative, która jednoczy przetwarzanie strumieniowe i wsadowe Przetwarza on dużą pamięć danych w sposób skalowalny, wydajny, odporny na błędy, stanowy, bezpieczny, rozproszony i łatwy w obsłudze Ten instruktażowy trening na żywo wprowadza zunifikowaną architekturę przetwarzania Apache Apex i prowadzi uczestników przez stworzenie rozproszonej aplikacji wykorzystującej Apex na Hadoop Pod koniec tego szkolenia uczestnicy będą mogli: Rozumieć pojęcia potoku przetwarzania danych, takie jak konektory dla źródeł i pochłaniaczy, powszechne transformacje danych itp Buduj, skaluj i optymalizuj aplikację Apex Przetwarzaj w czasie rzeczywistym strumienie danych niezawodnie iz minimalnym opóźnieniem Użyj Apex Core i biblioteki Apex Malhar, aby umożliwić szybkie tworzenie aplikacji Użyj API Apex do napisania i ponownego użycia istniejącego kodu Java Zintegruj Apex z innymi aplikacjami jako mechanizmem przetwarzania Dostrój, przetestuj i skaluj aplikacje Apex Publiczność Deweloperzy Architekci korporacyjni Format kursu Wykład częściowy, dyskusja częściowa, ćwiczenia i ciężka praktyka handson .
14 godziny
Opis
Apache Beam jest otwartym, zunifikowanym modelem programowania do definiowania i wykonywania równoległych potoków przetwarzania danych Jego moc polega na możliwości uruchamiania zarówno potoków wsadowych, jak i strumieniowych, a wykonywanie jest wykonywane przez jeden z obsługiwanych procesorów rozproszonych Beam: Apache Apex, Apache Flink, Apache Spark i Google Cloud Dataflow Apache Beam jest przydatny do zadań ETL (Extract, Transform and Load), takich jak przenoszenie danych między różnymi nośnikami pamięci i źródłami danych, przekształcanie danych do bardziej pożądanego formatu i ładowanie danych do nowego systemu W tym instruktażowym szkoleniu na żywo (na miejscu lub zdalnie) uczestnicy dowiedzą się, jak zaimplementować pakiety SDK Apache Beam w aplikacji Java lub Python, która definiuje potok przetwarzania danych w celu dekompozycji dużego zestawu danych na mniejsze porcje w celu niezależnego, równoległego przetwarzania Pod koniec tego szkolenia uczestnicy będą mogli: Zainstaluj i skonfiguruj Apache Beam Użyj jednego modelu programistycznego, aby przeprowadzić przetwarzanie wsadowe i strumieniowe z aplikacji Java lub Python Wykonuj potoki w wielu środowiskach Publiczność Deweloperzy Format kursu Wykład częściowy, dyskusja częściowa, ćwiczenia i ciężka praktyka handson Uwaga Ten kurs będzie dostępny w przyszłości w Scali Prosimy o kontakt w celu ustalenia szczegółów .
14 godziny
Opis
Szkolenie na żywo prowadzone przez instruktora (na miejscu lub zdalnie) jest skierowane do inżynierów, którzy chcą korzystać z Confluent (dystrybucja Kafka) do budowy i zarządzania platformą przetwarzania danych w czasie rzeczywistym dla swoich aplikacji.

Pod koniec tego szkolenia uczestnicy będą mogli:

- Zainstaluj i skonfiguruj Confluent Platform.
- Użyj narzędzi i usług zarządzania Confluent, aby łatwiej uruchomić Kafkę.
- Przechowuj i przetwarzaj przychodzące dane strumieniowe.
- Optymalizuj i zarządzaj klastrami Kafka.
- Bezpieczne strumienie danych.

Format kursu

- Interaktywny wykład i dyskusja.
- Dużo ćwiczeń i ćwiczeń.
- Praktyczne wdrożenie w środowisku na żywo.

Opcje dostosowywania kursu

- Kurs opiera się na otwartej wersji Confluent: Confluent Open Source.
- Aby poprosić o niestandardowe szkolenie dla tego kursu, skontaktuj się z nami w celu umówienia się.
28 godziny
Opis
Apache Flink to platforma open-source do skalowalnego przetwarzania strumienia i danych wsadowych.

Ten prowadzony przez instruktora trening na żywo wprowadza zasady i podejście do rozproszonego przetwarzania danych strumieniowych i wsadowych, a także wprowadza uczestników w tworzenie aplikacji strumieniowania danych w czasie rzeczywistym w Apache Flink .

Pod koniec tego szkolenia uczestnicy będą mogli:

- Skonfiguruj środowisko do tworzenia aplikacji do analizy danych.
- Pakuj, wykonuj i monitoruj Aplikacje strumieniowego przesyłania danych oparte na flinkach, odporne na błędy.
- Zarządzaj różnorodnymi obciążeniami.
- Wykonuj zaawansowane analizy za pomocą Flink ML.
- Skonfiguruj wielowęzłowy klaster Flink.
- Zmierz i zoptymalizuj wydajność.
- Zintegruj Flink z różnymi systemami Big Data .
- Porównaj możliwości Flink z możliwościami innych struktur przetwarzania dużych danych.

Format kursu

- Interaktywny wykład i dyskusja.
- Wiele ćwiczeń i ćwiczeń.
- Praktyczne wdrożenie w środowisku laboratoryjnym na żywo.

Opcje dostosowywania kursu

- Aby poprosić o indywidualne szkolenie na ten kurs, skontaktuj się z nami, aby umówić się na spotkanie.
21 godziny
Opis
Stream Processing odnosi się do przetwarzania „danych w ruchu” w czasie rzeczywistym, to znaczy wykonywania obliczeń na danych w trakcie ich otrzymywania. Takie dane są odczytywane jako ciągłe strumienie ze źródeł danych, takich jak zdarzenia z czujników, aktywność użytkownika witryny, transakcje finansowe, karty kredytowe, strumienie kliknięć itp. Struktury Stream Processing są w stanie odczytać duże ilości przychodzących danych i zapewniają cenne informacje niemal natychmiast.

Podczas tego instruktażowego szkolenia na żywo (na miejscu lub zdalnie) uczestnicy dowiedzą się, jak skonfigurować i zintegrować różne struktury Stream Processing z istniejącymi systemami przechowywania dużych danych oraz powiązanymi aplikacjami i mikrousługami.

Pod koniec tego szkolenia uczestnicy będą mogli:

- Zainstaluj i skonfiguruj różne platformy Stream Processing , takie jak Spark Streaming i Kafka Streaming.
- Zrozum i wybierz najbardziej odpowiednie ramy dla zadania.
- Przetwarzanie danych w sposób ciągły, równoległy i rekordowy.
- Zintegruj rozwiązania Stream Processing z istniejącymi bazami danych, hurtowniami danych, jeziorami danych itp.
- Zintegruj najbardziej odpowiednią bibliotekę przetwarzania strumieniowego z aplikacjami korporacyjnymi i mikrousługami.

Publiczność

- Deweloperzy
- Architekci oprogramowania

Format kursu

- Część wykładu, część dyskusji, ćwiczenia i ciężka praktyka

Notatki

- Aby poprosić o niestandardowe szkolenie dla tego kursu, skontaktuj się z nami w celu umówienia się.
7 godziny
Opis
Kafka Streams to biblioteka po stronie klienta do budowania aplikacji i mikrousług, których dane są przekazywane do iz systemu przesyłania wiadomości Kafka. Tradycyjnie Apache Kafka polegał na Apache Spark lub Apache Storm do przetwarzania danych między producentami wiadomości a konsumentami. Wywołując interfejs API strumieni Kafka z poziomu aplikacji, dane można przetwarzać bezpośrednio w Kafce, omijając potrzebę wysyłania danych do osobnego klastra w celu przetworzenia.

W tym instruktażowym szkoleniu na żywo uczestnicy dowiedzą się, jak zintegrować strumienie Kafka z zestawem przykładowych aplikacji Java , które przekazują dane zi do Apache Kafka celu przetwarzania strumieniowego.

Pod koniec tego szkolenia uczestnicy będą mogli:

- Poznaj funkcje i zalety strumieni Kafka w porównaniu do innych platform przetwarzania strumieniowego
- Przetwarzaj strumień danych bezpośrednio w klastrze Kafka
- Napisz aplikację lub mikrousługę Java lub Scala , która integruje się ze strumieniami Kafka i Kafka
- Napisz zwięzły kod, który przekształca wejściowe tematy Kafka w wyjściowe tematy Kafka
- Kompiluj, pakuj i wdrażaj aplikację

Publiczność

- Deweloperzy

Format kursu

- Część wykładu, część dyskusji, ćwiczenia i ciężka praktyka

Notatki

- Aby poprosić o niestandardowe szkolenie dla tego kursu, skontaktuj się z nami w celu umówienia się
7 godziny
Opis
Confluent K SQL to framework do przetwarzania strumieniowego zbudowany na bazie Apache Kafka . Umożliwia przetwarzanie danych w czasie rzeczywistym za pomocą operacji SQL .

To prowadzone przez instruktora szkolenie na żywo (na miejscu lub zdalnie) skierowane jest do programistów, którzy chcą zaimplementować przetwarzanie strumienia Apache Kafka bez pisania kodu.

Pod koniec tego szkolenia uczestnicy będą mogli:

- Zainstaluj i skonfiguruj Confluent K SQL .
- Skonfiguruj potok przetwarzania strumienia przy użyciu tylko poleceń SQL (bez kodowania Java lub Python ).
- Przeprowadź filtrowanie danych, transformacje, agregacje, łączenia, okienkowanie i sesjonowanie całkowicie w języku SQL .
- Projektuj i wdrażaj interaktywne, ciągłe zapytania dotyczące strumieniowania ETL i analiz w czasie rzeczywistym.

Format kursu

- Interaktywny wykład i dyskusja.
- Wiele ćwiczeń i ćwiczeń.
- Praktyczne wdrożenie w środowisku laboratoryjnym na żywo.

Opcje dostosowywania kursu

- Aby poprosić o niestandardowe szkolenie na ten kurs, skontaktuj się z nami w celu umówienia.
7 godziny
Opis
Podczas tego prowadzonego przez instruktora szkolenia na żywo uczestnicy poznają podstawowe pojęcia związane z architekturą Stream MapR podczas opracowywania aplikacji do strumieniowania w czasie rzeczywistym.

Pod koniec tego szkolenia uczestnicy będą mogli tworzyć aplikacje producentów i konsumentów do przetwarzania danych strumieniowych w czasie rzeczywistym.

Publiczność

- Deweloperzy
- Administratorzy

Format kursu

- Wykład częściowy, dyskusja częściowa, ćwiczenia i ciężka praktyka praktyczna

Uwaga

- Aby poprosić o niestandardowe szkolenie na ten kurs, skontaktuj się z nami w celu umówienia.
21 godziny
Opis
Apache NiFi (Hortonworks DataFlow) to zintegrowana logistyka danych w czasie rzeczywistym i prosta platforma przetwarzania zdarzeń, która umożliwia przenoszenie, śledzenie i automatyzację danych między systemami. Jest napisany przy użyciu programowania opartego na przepływach i zapewnia interfejs użytkownika oparty na sieci WWW do zarządzania przepływami danych w czasie rzeczywistym.

W tym prowadzonym przez instruktora szkoleniu na żywo (na miejscu lub zdalnie) uczestnicy dowiedzą się, jak wdrożyć i zarządzać Apache NiFi w środowisku laboratoryjnym.

Pod koniec tego szkolenia uczestnicy będą mogli:

- Zainstaluj i skonfiguruj Apachi NiFi.
- Źródło, transformacja i zarządzanie danymi z różnych rozproszonych źródeł danych, w tym baz danych i jezior dużych zbiorów danych.
- Automatyzuj przepływ danych.
- Włącz analizę strumieniową.
- Zastosuj różne podejścia do przyjmowania danych.
- Przekształć Big Data i spostrzeżenia biznesowe.

Format kursu

- Interaktywny wykład i dyskusja.
- Wiele ćwiczeń i ćwiczeń.
- Praktyczne wdrożenie w środowisku laboratoryjnym na żywo.

Opcje dostosowywania kursu

- Aby poprosić o niestandardowe szkolenie na ten kurs, skontaktuj się z nami w celu umówienia.
7 godziny
Opis
Apache NiFi (Hortonworks DataFlow) to zintegrowana logistyka danych w czasie rzeczywistym i prosta platforma przetwarzania zdarzeń, która umożliwia przenoszenie, śledzenie i automatyzację danych między systemami. Jest napisany przy użyciu programowania opartego na przepływach i zapewnia interfejs użytkownika oparty na sieci WWW do zarządzania przepływami danych w czasie rzeczywistym.

W tym prowadzonym przez instruktora szkoleniu na żywo uczestnicy poznają podstawy programowania opartego na przepływach, ponieważ opracowują szereg rozszerzeń demonstracyjnych, komponentów i procesorów wykorzystujących Apache NiFi .

Pod koniec tego szkolenia uczestnicy będą mogli:

- Zrozumienie koncepcji architektury i przepływu danych NiFi.
- Twórz rozszerzenia za pomocą NiFi i interfejsów API innych firm.
- Niestandardowe opracowanie własnego procesora Apache Nifi.
- Odbieraj i przetwarzaj dane w czasie rzeczywistym z różnych i nietypowych formatów plików i źródeł danych.

Format kursu

- Interaktywny wykład i dyskusja.
- Wiele ćwiczeń i ćwiczeń.
- Praktyczne wdrożenie w środowisku laboratoryjnym na żywo.

Opcje dostosowywania kursu

- Aby poprosić o niestandardowe szkolenie na ten kurs, skontaktuj się z nami w celu umówienia.
14 godziny
Opis
Apache Samza jest asynchronicznym szkieletem obliczeniowym typu open-source, działającym w czasie rzeczywistym, do przetwarzania strumieniowego. Wykorzystuje Apache Kafka do przesyłania wiadomości, a Apache Hadoop YARN do odporności na błędy, izolacji procesora, bezpieczeństwa i zarządzania zasobami.

Ten prowadzony przez instruktora trening na żywo wprowadza zasady dotyczące systemów przesyłania wiadomości i przetwarzania rozproszonego strumienia, podczas gdy uczestnicy chodzą poprzez tworzenie przykładowego projektu opartego na Samzie i realizacji zadań.

Pod koniec tego szkolenia uczestnicy będą mogli:

- Użyj Samzy, aby uprościć kod potrzebny do tworzenia i konsumowania wiadomości.
- Oddziel obsługę wiadomości od aplikacji.
- Użyj Samza do implementacji obliczeń asynchronicznych w czasie zbliżonym do rzeczywistego.
- Użyj przetwarzania strumieniowego, aby zapewnić wyższy poziom abstrakcji w systemach przesyłania wiadomości.

Publiczność

- Deweloperzy

Format kursu

- Wykład częściowy, dyskusja częściowa, ćwiczenia i ciężka praktyka praktyczna
28 godziny
Opis
Apache Storm is a distributed, real-time computation engine used for enabling real-time business intelligence. It does so by enabling applications to reliably process unbounded streams of data (a.k.a. stream processing).

"Storm is for real-time processing what Hadoop is for batch processing!"

In this instructor-led live training, participants will learn how to install and configure Apache Storm, then develop and deploy an Apache Storm application for processing big data in real-time.

Some of the topics included in this training include:

- Apache Storm in the context of Hadoop
- Working with unbounded data
- Continuous computation
- Real-time analytics
- Distributed RPC and ETL processing

Request this course now!

Audience

- Software and ETL developers
- Mainframe professionals
- Data scientists
- Big data analysts
- Hadoop professionals

Format of the course

- Part lecture, part discussion, exercises and heavy hands-on practice
14 godziny
Opis
Tigon jest open source, w czasie rzeczywistym, lowlatency, highthroughput, native YARN, framework przetwarzania strumienia, który znajduje się na szczycie HDFS i HBase dla trwałości Aplikacje Tygon adresują przypadki użycia, takie jak wykrywanie włamań i analiz sieciowych, analiza rynku mediów społecznościowych, analiza lokalizacji i zalecenia w czasie rzeczywistym dla użytkowników Ten instruktażowy trening na żywo wprowadza podejście Tigona do mieszania przetwarzania w czasie rzeczywistym i przetwarzania wsadowego, gdy przechodzi uczestników przez tworzenie przykładowej aplikacji Pod koniec tego szkolenia uczestnicy będą mogli: Twórz wydajne aplikacje do przetwarzania strumieniowego do obsługi dużych ilości danych Przetwarzaj źródła strumieniowe, takie jak Twitter i dzienniki serwera WWW Użyj Tigona do szybkiego łączenia, filtrowania i agregowania strumieni Publiczność Deweloperzy Format kursu Wykład częściowy, dyskusja częściowa, ćwiczenia i ciężka praktyka handson .

Nadchodzące szkolenia z technologii Stream processing

Szkolenie Stream processing, Stream processing boot camp, Szkolenia Zdalne Stream processing, szkolenie wieczorowe Stream processing, szkolenie weekendowe Stream processing, Kurs Stream processing,Kursy Stream processing, Trener Stream processing, instruktor Stream processing, kurs zdalny Stream processing, edukacja zdalna Stream processing, nauczanie wirtualne Stream processing, lekcje UML, nauka przez internet Stream processing, e-learning Stream processing, kurs online Stream processing, wykładowca Stream processing

Kursy w promocyjnej cenie

Newsletter z promocjami

Zapisz się na nasz newsletter i otrzymuj informacje o aktualnych zniżkach na kursy otwarte.
Szanujemy Twoją prywatność, dlatego Twój e-mail będzie wykorzystywany jedynie w celu wysyłki naszego newslettera, nie będzie udostępniony ani sprzedany osobom trzecim.
W dowolnej chwili możesz zmienić swoje preferencje co do otrzymywanego newslettera bądź całkowicie się z niego wypisać.

Zaufali nam

is growing fast!

We are looking to expand our presence in Poland!

As a Business Development Manager you will:

  • expand business in Poland
  • recruit local talent (sales, agents, trainers, consultants)
  • recruit local trainers and consultants

We offer:

  • Artificial Intelligence and Big Data systems to support your local operation
  • high-tech automation
  • continuously upgraded course catalogue and content
  • good fun in international team

If you are interested in running a high-tech, high-quality training and consulting business.

Apply now!