Szkolenia Stream processing

Szkolenia Stream processing

Lokalne, prowadzone przez instruktora kursy szkoleniowe na żywo Stream Processing pokazują poprzez interaktywną dyskusję i praktyczne ćwiczenia z podstawami i zaawansowanymi tematami Stream Processing Szkolenie w zakresie przetwarzania strumieniowego jest dostępne jako "szkolenie na miejscu" lub "szkolenie na żywo" Szkolenie na żywo w siedzibie klienta może odbywać się lokalnie w siedzibie klienta w Polsce lub w centrach szkoleniowych korporacji NobleProg w Polsce Zdalne szkolenie na żywo odbywa się za pomocą interaktywnego, zdalnego pulpitu NobleProg Twój lokalny dostawca szkoleń.

Machine Translated

Opinie uczestników

★★★★★
★★★★★

Plany szkoleń z technologii Stream processing

Title
Czas trwania
Opis
Title
Czas trwania
Opis
14 godziny
Opis
Apache Ignite jest platformą komputerową w pamięci, która znajduje się między warstwą aplikacji i danych w celu zwiększenia szybkości, skali i dostępności.

w tym instruktorem, szkolenia na żywo, uczestnicy będą uczyć się zasad za trwałe i czyste przechowywanie w pamięci, ponieważ krok poprzez stworzenie próbki w pamięci projektu komputerowego.

do końca tego szkolenia uczestnicy będą mogli:

- Użyj Ignite dla w pamięci, trwałości na dysku, a także czysto rozproszonej bazy danych w pamięci.
- osiągnąć trwałość bez synchronizowania danych z powrotem do relacyjnej bazy danych.
- Użyj Ignite do wykonywania SQL i rozproszonych sprzężenia.
- zwiększyć wydajność, przenosząc dane bliżej procesora, przy użyciu pamięci RAM jako magazynu.
- Spread zestawów danych w klastrze w celu osiągnięcia skalowalności poziomej.
- zintegrować Ignite z RDBMS, NoSQL, Hadoop i Machine Learning procesorów.

Format kursu

- Interactive wykładu i dyskusji.
- wiele ćwiczeń i praktyk.
- praktyczne wdrożenie w środowisku laboratorium na żywo.

Opcje dostosowywania kursu

- Aby poprosić o szkolenia dostosowane do tego kursu, skontaktuj się z nami, aby zorganizować.
21 godziny
Opis
Apache Apex jest platformą YARNnative, która jednoczy przetwarzanie strumieniowe i wsadowe Przetwarza on dużą pamięć danych w sposób skalowalny, wydajny, odporny na błędy, stanowy, bezpieczny, rozproszony i łatwy w obsłudze Ten instruktażowy trening na żywo wprowadza zunifikowaną architekturę przetwarzania Apache Apex i prowadzi uczestników przez stworzenie rozproszonej aplikacji wykorzystującej Apex na Hadoop Pod koniec tego szkolenia uczestnicy będą mogli: Rozumieć pojęcia potoku przetwarzania danych, takie jak konektory dla źródeł i pochłaniaczy, powszechne transformacje danych itp Buduj, skaluj i optymalizuj aplikację Apex Przetwarzaj w czasie rzeczywistym strumienie danych niezawodnie iz minimalnym opóźnieniem Użyj Apex Core i biblioteki Apex Malhar, aby umożliwić szybkie tworzenie aplikacji Użyj API Apex do napisania i ponownego użycia istniejącego kodu Java Zintegruj Apex z innymi aplikacjami jako mechanizmem przetwarzania Dostrój, przetestuj i skaluj aplikacje Apex Publiczność Deweloperzy Architekci korporacyjni Format kursu Wykład częściowy, dyskusja częściowa, ćwiczenia i ciężka praktyka handson .
14 godziny
Opis
Apache Beam jest otwartym, zunifikowanym modelem programowania do definiowania i wykonywania równoległych potoków przetwarzania danych Jego moc polega na możliwości uruchamiania zarówno potoków wsadowych, jak i strumieniowych, a wykonywanie jest wykonywane przez jeden z obsługiwanych procesorów rozproszonych Beam: Apache Apex, Apache Flink, Apache Spark i Google Cloud Dataflow Apache Beam jest przydatny do zadań ETL (Extract, Transform and Load), takich jak przenoszenie danych między różnymi nośnikami pamięci i źródłami danych, przekształcanie danych do bardziej pożądanego formatu i ładowanie danych do nowego systemu W tym instruktażowym szkoleniu na żywo (na miejscu lub zdalnie) uczestnicy dowiedzą się, jak zaimplementować pakiety SDK Apache Beam w aplikacji Java lub Python, która definiuje potok przetwarzania danych w celu dekompozycji dużego zestawu danych na mniejsze porcje w celu niezależnego, równoległego przetwarzania Pod koniec tego szkolenia uczestnicy będą mogli: Zainstaluj i skonfiguruj Apache Beam Użyj jednego modelu programistycznego, aby przeprowadzić przetwarzanie wsadowe i strumieniowe z aplikacji Java lub Python Wykonuj potoki w wielu środowiskach Publiczność Deweloperzy Format kursu Wykład częściowy, dyskusja częściowa, ćwiczenia i ciężka praktyka handson Uwaga Ten kurs będzie dostępny w przyszłości w Scali Prosimy o kontakt w celu ustalenia szczegółów .
14 godziny
Opis
to prowadzone przez instruktora, na żywo szkolenia (na miejscu lub zdalnie) jest skierowany do inżynierów, którzy chcą korzystać z technologii (dystrybucja Kafki) do budowania i zarządzania w czasie rzeczywistym platformy przetwarzania danych dla swoich aplikacji.

do końca tego szkolenia, uczestnicy będą mogli:

- zainstalować i skonfigurować platformę.
- korzystać z narzędzi do zarządzania & #39; s i usług, aby uruchomić Kafka łatwiej.
- przechowywać i przetwarzać przychodzące dane strumienia.
- zoptymalizować i zarządzania Kafka klastrów.
- bezpieczne strumienie danych.

Format kursu

- interaktywne wykłady i dyskusje.
- wiele ćwiczeń i praktyk.
- praktyczne wdrożenie w środowisku Live-Lab.

Opcje dostosowywania kursu

- ten kurs jest oparty na wersji open source: współbiegle Open Source.
- na zamówienie szkolenia dostosowane do tego kursu, skontaktuj się z nami, aby zorganizować.
28 godziny
Opis
Apache Flink jest frameworka Open Source dla skalowalnego strumienia i przetwarzania danych wsadowych.

to prowadzony przez instruktora, szkolenia na żywo wprowadza zasady i podejścia za rozproszonego strumienia i przetwarzania danych wsadowych, i spacery uczestników poprzez tworzenie w czasie rzeczywistym, transmisji danych aplikacji w Apache Flink.

do końca tego szkolenia uczestnicy będą mogli:

- skonfigurować środowisko do opracowywania aplikacji do analizy danych.
- Package, wykonać i monitorować Flink oparte, odporne na uszkodzenia, danych strumieniowych aplikacji.
- Zarządzanie różnorodnymi obciążeniami.
- wykonywanie zaawansowanych analiz za pomocą Flink ML.
- Konfigurowanie wielowęzłowego klastra Flink.
- zmierzyć i zoptymalizować wydajność.
- Zintegruj Flink z różnymi systemami Big Data.
- PORÓWNAJ możliwości Flink z innymi ramami przetwarzania danych Big Data.

Format kursu

- część wykładu, część dyskusji, ćwiczenia i ciężkie praktyczne praktyczne
21 godziny
Opis
Przetwarzanie strumienia oznacza przetwarzanie w czasie rzeczywistym danych w ruchu, czyli wykonywanie obliczeń na danych podczas ich odbierania Takie dane są odczytywane jako nieprzerwane strumienie ze źródeł danych, takich jak zdarzenia z czujników, aktywność użytkowników na stronach internetowych, transakcje finansowe, przeciągnięcia kart kredytowych, strumienie kliknięć itp Struktury przetwarzania strumieniowego są w stanie odczytać duże ilości przychodzących danych i niemal natychmiast uzyskać cenne informacje W tym instruktażowym szkoleniu na żywo (na miejscu lub zdalnie) uczestnicy dowiedzą się, jak skonfigurować i zintegrować różne struktury przetwarzania strumieniowego z istniejącymi dużymi systemami przechowywania danych oraz powiązanymi aplikacjami i mikrousługami Pod koniec tego szkolenia uczestnicy będą mogli: Zainstaluj i skonfiguruj różne frameworki Stream Processing, takie jak Spark Streaming i Kafka Streaming Zrozum i wybierz najbardziej odpowiednie ramy dla pracy Proces przesyłania danych w sposób ciągły, jednocześnie iw trybie rekordowo-rejestrującym Integracja rozwiązań do przetwarzania strumieniowego z istniejącymi bazami danych, hurtowniami danych, jeziorami danych itp Integracja najbardziej odpowiedniej biblioteki przetwarzania strumieniowego z aplikacjami korporacyjnymi i mikroserwisami Publiczność Deweloperzy Architekci oprogramowania Format kursu Wykład częściowy, dyskusja częściowa, ćwiczenia i ciężka praktyka handson Uwagi Aby poprosić o indywidualne szkolenie dla tego kursu, skontaktuj się z nami w celu ustalenia szczegółów .
7 godziny
Opis
Kafka Streams jest biblioteką dla klientów do budowania aplikacji i mikrousług, których dane są przesyłane do iz systemu komunikacyjnego Kafki Tradycyjnie Apache Kafka polegał na Apache Spark lub Apache Storm, aby przetwarzać dane między producentami wiadomości i konsumentami Wywołując API Strefy Kafki z poziomu aplikacji, dane mogą być przetwarzane bezpośrednio w Kafce, omijając potrzebę wysyłania danych do oddzielnego klastra w celu przetworzenia W tym instruktażowym szkoleniu na żywo uczestnicy dowiedzą się, jak zintegrować strumienie Kafka w zestaw przykładowych aplikacji Java, które przekazują dane do iz Apache Kafka w celu przetworzenia strumienia Pod koniec tego szkolenia uczestnicy będą mogli: Zapoznaj się z funkcjami i zaletami Strefy Kafki nad innymi strukturami przetwarzania strumieniowego Przetwarzaj dane strumieniowe bezpośrednio w klastrze Kafki Napisz aplikację Java lub Scala lub mikroserwis, który integruje się ze strumieniami Kafka i Kafka Napisz zwięzły kod, który przekształca wkład Kafki w wyjściowe tematy Kafki Twórz, pakuj i wdrażaj aplikację Publiczność Deweloperzy Format kursu Wykład częściowy, dyskusja częściowa, ćwiczenia i ciężka praktyka handson Uwagi Aby poprosić o indywidualne szkolenie dla tego kursu, skontaktuj się z nami w celu ustalenia szczegółów .
7 godziny
Opis
Podczas tego instruktażowego szkolenia na żywo uczestnicy poznają podstawowe pojęcia związane z MapR Stream Architecture, opracowując aplikację do przesyłania strumieniowego w czasie rzeczywistym Pod koniec tego szkolenia uczestnicy będą mogli budować aplikacje producentów i konsumentów do przetwarzania danych strumieniowych w czasie rzeczywistym Publiczność Deweloperzy Administratorzy Format kursu Wykład częściowy, dyskusja częściowa, ćwiczenia i ciężka praktyka handson Uwaga Aby poprosić o indywidualne szkolenie dla tego kursu, skontaktuj się z nami w celu ustalenia szczegółów .
21 godziny
Opis
Apache NiFi (Hortonworks DataFlow) to zintegrowana w czasie rzeczywistym logistyka danych i prosta platforma przetwarzania zdarzeń, która umożliwia przenoszenie, śledzenie i automatyzację danych między systemami Jest napisany przy użyciu programowania bazującego na przepływach i zapewnia interfejs użytkownika oparty na sieci Web do zarządzania przepływem danych w czasie rzeczywistym Podczas tego instruktażowego szkolenia na żywo uczestnicy dowiedzą się, jak wdrażać i zarządzać Apache NiFi w środowisku laboratoryjnym Pod koniec tego szkolenia uczestnicy będą mogli: Zainstaluj i skonfiguruj Apachi NiFi Źródło, przetwarzaj i zarządzaj danymi z różnych, rozproszonych źródeł danych, w tym z baz danych i dużych jezior danych Automatyzuj przepływ danych Włącz analizę strumieniową Zastosuj różne podejścia do przetwarzania danych Przekształć Big Data i w analizy biznesowe Publiczność Administratorzy systemu Inżynierowie danych Deweloperzy DevOps Format kursu Wykład częściowy, dyskusja częściowa, ćwiczenia i ciężka praktyka handson .
7 godziny
Opis
Apache NiFi (Hortonworks DataFlow) to zintegrowana logistyka danych w czasie rzeczywistym i prosta platforma przetwarzania zdarzeń, która umożliwia przenoszenie, śledzenie i automatyzację danych między systemami. Jest napisane przy użyciu Programowanie oparte na przepływie i udostępnia interfejs użytkownika opartego na sieci Web do zarządzania przepływem danych w czasie rzeczywistym.

w tym instruktorem, szkolenia na żywo, uczestnicy nauczą się podstaw programowania opartego na przepływie, jak rozwijać szereg rozszerzeń demo, komponenty i procesory za pomocą Apache NiFi.

do końca tego szkolenia uczestnicy będą mogli:

- zrozumienie koncepcji architektury i przepływu danych NiFi & #39; s.
- rozwijanie rozszerzeń przy użyciu NiFi i interfejsów API innych firm.
- Custom rozwijać własny procesor Apache Nifi.
- Ingest i przetwarza dane w czasie rzeczywistym z różnych i niezbyt często formatów plików i źródeł danych.

Format kursu

- Interactive wykładu i dyskusji.
- wiele ćwiczeń i praktyk.
- praktyczne wdrożenie w środowisku laboratorium na żywo.

Opcje dostosowywania kursu

- Aby poprosić o szkolenia dostosowane do tego kursu, skontaktuj się z nami, aby zorganizować.
14 godziny
Opis
Apache Samza to open source nearrealtime, asynchroniczne środowisko obliczeniowe do przetwarzania strumienia Wykorzystuje Apache Kafka do przesyłania wiadomości, a Apache Hadoop YARN do testowania odporności na awarie, izolacji procesorów, bezpieczeństwa i zarządzania zasobami Ten instruktażowy trening na żywo wprowadza zasady obsługi systemów przesyłania wiadomości i rozproszonego przetwarzania strumieniowego, a uczestnicy przechodzą przez proces tworzenia przykładowego projektu Samzabased i wykonywania zadań Pod koniec tego szkolenia uczestnicy będą mogli: Użyj Samzy, aby uprościć kod potrzebny do tworzenia i korzystania z wiadomości Odłącz obsługę komunikatów od aplikacji Użyj Samzy, aby wykonać obliczenia asynchroniczne nearrealtime Użyj przetwarzania strumienia, aby zapewnić wyższy poziom abstrakcji w porównaniu do systemów przesyłania wiadomości Publiczność Deweloperzy Format kursu Wykład częściowy, dyskusja częściowa, ćwiczenia i ciężka praktyka handson .
28 godziny
Opis
Apache Storm jest rozproszonym, działającym w czasie rzeczywistym silnikiem obliczeniowym służącym do udostępniania analizy biznesowej w czasie rzeczywistym Czyni to, umożliwiając aplikacjom niezawodne przetwarzanie nieograniczonych strumieni danych (również przetwarzanie strumieniowe) "Storm jest przeznaczony do przetwarzania w czasie rzeczywistym, co Hadoop jest do przetwarzania wsadowego!" Podczas tego instruktażowego szkolenia na żywo uczestnicy dowiedzą się, jak zainstalować i skonfigurować Apache Storm, a następnie opracują i wdrożą aplikację Apache Storm do przetwarzania dużych danych w czasie rzeczywistym Niektóre tematy zawarte w tym szkoleniu obejmują: Apache Storm w kontekście Hadoop Praca z nieograniczonymi danymi Ciągłe obliczenia Analitycy w czasie rzeczywistym Rozproszone przetwarzanie RPC i ETL Poproś o ten kurs już teraz! Publiczność Programiści oprogramowania i ETL Specjaliści ds Komputerów mainframe Data naukowcy Analitycy dużych danych Profesjonaliści Hadoop Format kursu Wykład częściowy, dyskusja częściowa, ćwiczenia i ciężka praktyka handson .
14 godziny
Opis
Tigon jest open source, w czasie rzeczywistym, lowlatency, highthroughput, native YARN, framework przetwarzania strumienia, który znajduje się na szczycie HDFS i HBase dla trwałości Aplikacje Tygon adresują przypadki użycia, takie jak wykrywanie włamań i analiz sieciowych, analiza rynku mediów społecznościowych, analiza lokalizacji i zalecenia w czasie rzeczywistym dla użytkowników Ten instruktażowy trening na żywo wprowadza podejście Tigona do mieszania przetwarzania w czasie rzeczywistym i przetwarzania wsadowego, gdy przechodzi uczestników przez tworzenie przykładowej aplikacji Pod koniec tego szkolenia uczestnicy będą mogli: Twórz wydajne aplikacje do przetwarzania strumieniowego do obsługi dużych ilości danych Przetwarzaj źródła strumieniowe, takie jak Twitter i dzienniki serwera WWW Użyj Tigona do szybkiego łączenia, filtrowania i agregowania strumieni Publiczność Deweloperzy Format kursu Wykład częściowy, dyskusja częściowa, ćwiczenia i ciężka praktyka handson .

Nadchodzące szkolenia z technologii Stream processing

Szkolenie Stream processing, Stream processing boot camp, Szkolenia Zdalne Stream processing, szkolenie wieczorowe Stream processing, szkolenie weekendowe Stream processing, Kurs Stream processing,Kursy Stream processing, Trener Stream processing, instruktor Stream processing, kurs zdalny Stream processing, edukacja zdalna Stream processing, nauczanie wirtualne Stream processing, lekcje UML, nauka przez internet Stream processing, e-learning Stream processing, kurs online Stream processing, wykładowca Stream processing

Kursy w promocyjnej cenie

Newsletter z promocjami

Zapisz się na nasz newsletter i otrzymuj informacje o aktualnych zniżkach na kursy otwarte.
Szanujemy Twoją prywatność, dlatego Twój e-mail będzie wykorzystywany jedynie w celu wysyłki naszego newslettera, nie będzie udostępniony ani sprzedany osobom trzecim.
W dowolnej chwili możesz zmienić swoje preferencje co do otrzymywanego newslettera bądź całkowicie się z niego wypisać.

Zaufali nam

is growing fast!

We are looking to expand our presence in Poland!

As a Business Development Manager you will:

  • expand business in Poland
  • recruit local talent (sales, agents, trainers, consultants)
  • recruit local trainers and consultants

We offer:

  • Artificial Intelligence and Big Data systems to support your local operation
  • high-tech automation
  • continuously upgraded course catalogue and content
  • good fun in international team

If you are interested in running a high-tech, high-quality training and consulting business.

Apply now!