Online lub na miejscu, prowadzone przez instruktora na żywo szkolenia Apache Hadoop demonstrują poprzez interaktywne ćwiczenia praktyczne kluczowe komponenty ekosystemu Hadoop oraz jak te technologie mogą być wykorzystane do rozwiązywania problemów na dużą skalę.
Szkolenia Hadoop są dostępne jako "szkolenie na żywo online" lub "szkolenie na żywo na miejscu". Szkolenie na żywo online (znane również jako "zdalne szkolenie na żywo") jest przeprowadzane za pomocą interaktywnego pulpitu zdalnego. Szkolenie na żywo na miejscu może być przeprowadzone lokalnie w siedzibie klienta w Bielsko-Biała lub w korporacyjnych centrach szkoleniowych NobleProg w Bielsko-Biała.
NobleProg -- Twój lokalny dostawca szkoleń
Bielsko-Biała
ZIAD, Armii Krajowej 220, Bielsko Biała, Polska, 43-316
Sale szkoleniowe NobleProg w Bielsku - Białej mieszczą się w budynku ZIAD na parterze (Zakład Informatyki, Automatyki i Doskonalenia Zawodowego (przy ulicy Aleji Armii Krajowej 220 a. Budynki ZIAD zlokalizowane są u podnóża stoku Szyndzielni. Budynek posiada podjazd dla osób niepełnosprawnych. Z dworca PKS należy skierować się na przystanek Warszawska Dworzec, w kierunku na północ (po tej samej stronie co dworzec PKS). Autobus nr 8 w kierunku Szyndzielnia jedzie około 22 minut (9 przystanków). Przystankiem docelowym jest Armii Krajowej ZIAD, który znajduję się 400 metrów od sali szkoleniowej ZIAD. W ten sam sposób można dostać się do ZIAD z dworca PKP Bielsko Biała Główna.
To szkolenie prowadzone przez instruktora na żywo w Bielsko-Biała (online lub na miejscu) jest skierowane do programistów, którzy chcą wykorzystywać i integrować Spark, Hadoop i Python do przetwarzania, analizy i transformacji dużych i złożonych zbiorów danych.
Pod koniec szkolenia uczestnicy będą mogli:
Skonfigurować niezbędne środowisko do rozpoczęcia przetwarzania dużych zbiorów danych za pomocą Spark, Hadoop i Python.
Zrozumieć funkcje, główne komponenty i architekturę Spark i Hadoop.
Nauczyć się, jak integrować Spark, Hadoop i Python do przetwarzania dużych zbiorów danych.
Poznać narzędzia w ekosystemie Spark (Spark MlLib, Spark Streaming, Kafka, Sqoop, Kafka i Flume).
Budować systemy rekomendacji oparte na filtrowaniu współpracującym, podobne do tych używanych przez Netflix, YouTube, Amazon, Spotify i Google.
Wykorzystać Apache Mahout do skalowania algorytmów uczenia maszynowego.
Kurs jest przeznaczony dla specjalistów IT poszukujących rozwiązania do przechowywania i przetwarzania dużych zbiorów danych w środowisku systemów rozproszonych.
Cel:
Pogłębienie wiedzy na temat administracji klastrem Hadoop.
Analiza danych dużych objętości obejmuje proces badania dużych ilości różnorodnych zestawów danych w celu odkrycia korelacji, ukrytych wzorców i innych użytecznych informacji.
Branża zdrowia generuje ogromne ilości złożonych, heterogenicznych danych medycznych i klinicznych. Zastosowanie analizy danych dużych objętości w danych zdrowotnych stwarza ogromny potencjał w uzyskiwaniu informacji mających na celu poprawę jakości opieki zdrowotnej. Jednak ogrom tych zbiorów danych stanowi duże wyzwanie w analizach i praktycznych zastosowaniach w środowisku klinicznym.
Podczas tego szkolenia prowadzonego przez instruktora (zdalnie), uczestnicy nauczą się, jak przeprowadzać analizę danych dużych objętości w dziedzinie zdrowia, przechodząc przez serię praktycznych ćwiczeń w laboratorium.
Pod koniec szkolenia uczestnicy będą mogli:
Zainstalować i skonfigurować narzędzia do analizy danych dużych objętości, takie jak Hadoop MapReduce i Spark
Zrozumieć charakterystykę danych medycznych
Zastosować techniki danych dużych objętości do pracy z danymi medycznymi
Poznać systemy i algorytmy danych dużych objętości w kontekście zastosowań w zdrowiu
Grupa docelowa
Programiści
Analitycy danych
Format kursu
Część wykładowa, część dyskusyjna, ćwiczenia i intensywna praktyka.
Uwaga
Aby zamówić szkolenie dostosowane do potrzeb, prosimy o kontakt w celu uzgodnienia szczegółów.
Apache Hadoop to najpopularniejsze framework do przetwarzania Big Data na klastrach serwerów. W tym trzydniowym (opcjonalnie czterodniowym) kursie uczestnicy dowiedzą się, jakie korzyści biznesowe i przypadki użycia oferuje Hadoop oraz jego ekosystem, jak planować wdrożenie i rozwój klastra, jak instalować, utrzymywać, monitorować, rozwiązywać problemy i optymalizować Hadoop. Będą również ćwiczyć masowe ładowanie danych do klastra, zapoznają się z różnymi dystrybucjami Hadoop oraz będą ćwiczyć instalację i zarządzanie narzędziami ekosystemu Hadoop. Kurs kończy się omówieniem zabezpieczania klastra za pomocą Kerberosa.
“…Materiały były bardzo dobrze przygotowane i szczegółowo omówione. Laboratorium było bardzo pomocne i dobrze zorganizowane”
— Andrew Nguyen, Główny Inżynier Integracji DW, Microsoft Online Advertising
Grupa docelowa
Administratorzy Hadoop
Format
Wykłady i praktyczne laboratoria, w przybliżeniu 60% wykładów, 40% laboratoriów.
Apache Hadoop to najbardziej popularne framework do przetwarzania Big Data na klastrach serwerów. Ten kurs wprowadzi programistę w różne komponenty (HDFS, MapReduce, Pig, Hive i HBase) ekosystemu Hadoop.
Apache Hadoop to jedna z najpopularniejszych platform do przetwarzania Big Data na klastrach serwerów. Ten kurs zagłębia się w zarządzanie danymi w HDFS oraz zaawansowane techniki pracy z Pig, Hive i HBase. Te zaawansowane techniki programowania będą korzystne dla doświadczonych programistów Hadoop.
Grupa docelowa: programiści
Czas trwania: trzy dni
Format: wykłady (50%) i warsztaty praktyczne (50%).
To szkolenie prowadzone przez instruktora na żywo w Bielsko-Biała (online lub na miejscu) jest skierowane do administratorów systemów, którzy chcą nauczyć się, jak konfigurować, wdrażać i zarządzać klastrami Hadoop w swojej organizacji.
Pod koniec szkolenia uczestnicy będą mogli:
Zainstalować i skonfigurować Apache Hadoop.
Zrozumieć cztery główne komponenty ekosystemu Hadoop: HDFS, MapReduce, YARN i Hadoop Common.
Używać Hadoop Distributed File System (HDFS) do skalowania klastra do setek lub tysięcy węzłów.
Skonfigurować HDFS jako silnik magazynowania dla lokalnych wdrożeń Spark.
Skonfigurować Spark do korzystania z alternatywnych rozwiązań magazynowych, takich jak Amazon S3, oraz systemów bazodanowych NoSQL, takich jak Redis, Elasticsearch, Couchbase, Aerospike itp.
Wykonywać zadania administracyjne, takie jak provisionowanie, zarządzanie, monitorowanie i zabezpieczanie klastra Apache Hadoop.
Ten kurs wprowadza HBase – magazyn NoSQL oparty na Hadoop. Kurs jest przeznaczony dla programistów, którzy będą używać HBase do tworzenia aplikacji, oraz administratorów, którzy będą zarządzać klastrami HBase.
Przeprowadzimy programistę przez architekturę HBase, modelowanie danych oraz rozwój aplikacji na HBase. Omówimy również użycie MapReduce z HBase oraz niektóre tematy administracyjne związane z optymalizacją wydajności. Kurs jest bardzo praktyczny, z wieloma ćwiczeniami laboratoryjnymi.
Apache NiFi to platforma do integracji danych i przetwarzania zdarzeń oparta na przepływach, dostępna jako oprogramowanie open-source. Umożliwia automatyczne, w czasie rzeczywistym, routowanie, transformację i mediację danych między różnymi systemami, oferując interfejs webowy oraz szczegółową kontrolę.
To szkolenie prowadzone przez instruktora (na miejscu lub zdalnie) jest skierowane do administratorów i inżynierów na poziomie średniozaawansowanym, którzy chcą wdrażać, zarządzać, zabezpieczać i optymalizować przepływy danych NiFi w środowiskach produkcyjnych.
Po zakończeniu szkolenia uczestnicy będą mogli:
Instalować, konfigurować i utrzymywać klastry Apache NiFi.
Projektować i zarządzać przepływami danych z różnych źródeł i miejsc docelowych.
Implementować automatyzację przepływów, routowanie i logikę transformacji.
Optymalizować wydajność, monitorować operacje i rozwiązywać problemy.
Format kursu
Interaktywny wykład z omówieniem architektury w oparciu o rzeczywiste przypadki.
Praktyczne laboratoria: budowanie, wdrażanie i zarządzanie przepływami.
Ćwiczenia oparte na scenariuszach w środowisku live-lab.
Opcje dostosowania kursu
Aby zamówić dostosowane szkolenie, prosimy o kontakt w celu uzgodnienia szczegółów.
W tym szkoleniu prowadzonym przez instruktora, uczestnicy nauczą się podstaw programowania opartego na przepływie, tworząc szereg demonstracyjnych rozszerzeń, komponentów i procesorów przy użyciu Apache NiFi.
Po zakończeniu szkolenia uczestnicy będą mogli:
Zrozumieć architekturę NiFi oraz koncepcje przepływu danych.
Tworzyć rozszerzenia przy użyciu NiFi i zewnętrznych API.
Samodzielnie opracować własny procesor Apache NiFi.
Pozyskiwać i przetwarzać dane w czasie rzeczywistym z różnych i nietypowych formatów plików oraz źródeł danych.
Więcej...
Ostatnia aktualizacja:
Opinie uczestników (3)
Ćwiczenia praktyczne. Kurs powinien trwać 5 dni, ale 3 dni pomogły rozstrzygnąć wiele pytań, które miałem związanymi z pracą w NiFi.
James - BHG Financial
Szkolenie - Apache NiFi for Administrators
Przetłumaczone przez sztuczną inteligencję
Instruktor był wyraźny i dobrze wyjaśniał rzeczy. Kurs i ćwiczenia były łatwe do przeprowadzenia.
Peter - Army
Szkolenie - Apache NiFi for Developers
Przetłumaczone przez sztuczną inteligencję
Fakt, że mogliśmy zabrać ze sobą większość informacji/kursu/prezentacji/zadań, które wykonaliśmy, dzięki czemu możemy się nimi przyjrzeć i ewentualnie powtórzyć to, co nie zrozumieliśmy od razu, lub poprawić to, co już zrobiliśmy.
Raul Mihail Rat - Accenture Industrial SS
Szkolenie - Python, Spark, and Hadoop for Big Data