Lokalne, prowadzone przez instruktorów kursy szkoleniowe Apache Hadoop na żywo demonstrują poprzez interaktywne praktyczne ćwiczenia podstawowe elementy ekosystemu Hadoop oraz sposoby wykorzystania tych technologii do rozwiązywania problemów na dużą skalę. Szkolenie Hadoop jest dostępne jako "szkolenie online na żywo" lub "szkolenie na żywo na miejscu". Szkolenie na żywo online (inaczej "zdalne szkolenie na żywo") odbywa się za pomocą interaktywnego, zdalnego pulpitu . Szkolenie na żywo na miejscu może odbywać się lokalnie w siedzibie klienta w Koszalin lub w korporacyjnych centrach szkoleniowych NobleProg w Koszalin. NobleProg — Twój lokalny dostawca szkoleń
Koszalin
Gwardia, Sportowa 34, Koszalin, Polska, 75-503
Sala szkoleniowa jest wyposażona w nowoczesne udogodnienia. Znajduje się 3 kilometry od centrum miasta. Obiekt posiada przestronny parking dla uczestników szkoleń, co zapewnia wygodny dostęp dla wszystkich kursantów.
To prowadzone przez instruktora szkolenie na żywo w Koszalin (na miejscu lub zdalnie) jest przeznaczone dla programistów, którzy chcą używać i integrować Spark, Hadoop i Python do przetwarzania, analizowania i przekształcania dużych i złożonych zestawów danych.
Pod koniec tego szkolenia uczestnicy będą mogli
Skonfigurować środowisko niezbędne do rozpoczęcia przetwarzania dużych zbiorów danych za pomocą Spark, Hadoop i Python.
Zrozumieć funkcje, podstawowe komponenty i architekturę Spark i Hadoop.
Dowiedz się, jak zintegrować Spark, Hadoop i Python w celu przetwarzania dużych zbiorów danych.
Poznanie narzędzi w ekosystemie Spark (Spark MlLib, Spark Streaming, Kafka, Sqoop, Kafka i Flume).
Tworzenie systemów rekomendacji opartych na filtrowaniu kolaboracyjnym podobnych do Netflix, YouTube, Amazon, Spotify i Google.
Wykorzystanie Apache Mahout do skalowania algorytmów uczenia maszynowego.
Kurs przeznaczony jest dla specjalistów IT szukających rozwiązania do przechowywania i przetwarzania dużych zestawów danych w środowisku systemów rozproszonych.
Big data analytics obejmuje proces analizowania dużych ilości zróżnicowanych zestawów danych w celu odkrycia korelacji, ukrytych wzorców i innych użytecznych wniosków.
Branża zdrowotna posiada masywne ilości skomplikowanych, heterogenicznych danych medycznych i klinicznych. Zastosowanie analizy big data na danych zdrowotnych daje ogromny potencjał do wyciągania wniosków mających na celu poprawę dostarczania opieki zdrowotnej. Jednakże ogrom tych zestawów danych stwarza duże wyzwania w analizie i praktycznym zastosowaniu w środowisku klinicznym.
W tym prowadzonym przez instruktora, żywym szkoleniu (zdalne), uczestnicy nauczą się wykonywania analizy big data w dziedzinie zdrowia, przechodząc przez serię ćwiczeń w żywych laboratoriach.
Po zakończeniu tego szkolenia uczestnicy będą w stanie:
Zainstalować i skonfigurować narzędzia do analizy big data, takie jak Hadoop MapReduce i Spark
Zrozumieć cechy danych medycznych
Zastosować techniki big data do pracy z danymi medycznymi
Badac systemy i algorytmy big data w kontekście aplikacji zdrowotnych
Grupa docelowa
Programiści
Naukowcy danych
Format kursu
Część wykładu, część dyskusji, ćwiczenia i intensywna praktyka ręczna.
Uwaga
Aby zapytać o spersonalizowane szkolenie dla tego kursu, prosimy o kontakt z nami w celu uzgodnienia.
Kurs jest dedykowany specjalistom IT poszukującym rozwiązania do przechowywania i przetwarzania dużych zbiorów danych w środowisku systemu rozproszonego
Cel kursu:
Nabycie wiedzy dotyczącej zarządzania Hadoop klasterem
Apache Hadoop jest najpopularniejszym frameworkiem do przetwarzania danych na klastrach serwerów. W tym trzydniowym (opcjonalnie czterodniowym) kursie uczestnicy dowiedzą się o korzyściach biznesowych oraz przypadkach użycia Hadoop i jego ekosystemu, jak planować wdrażanie i skalowanie klastrów, jak instalować, utrzymywać, monitorować, diagnozować i optymalizować Hadoop. Będą również ćwiczyć wczytywanie dużych ilości danych do klastru, zapoznać się z różnymi dystrybucjami Hadoop oraz ćwiczyć instalację i zarządzanie narzędziami ekosystemu Hadoop. Kurs kończy się dyskusją o zabezpieczaniu klastru za pomocą Kerberosa.
„…Materiały były bardzo dobrze przygotowane i bardzo szczegółowo omówione. Laboratorium było bardzo pomocne i dobrze zorganizowane” — Andrew Nguyen, Główny Inżynier Integracji Bazy Danych, Microsoft Online Advertising
Grupa docelowa
Administratorzy Hadoop
Format
Wykłady i laboratoria praktyczne, przybliżony podział 60% wykładów, 40% laboratoriów.
Apache Hadoop jest najpopularniejszym frameworkiem do przetwarzania danych na klastrze serwerów. Ten kurs wprowadzi programistę w różne komponenty (HDFS, MapReduce, Pig, Hive i HBase) ekosystemu Hadoop.
Apache Hadoop jest jednym z najpopularniejszych frameworków do przetwarzania danych na klasterach serwerów. Ten kurs zagłębia się w zarządzanie danymi w HDFS, zaawansowane techniki Pig, Hive oraz HBase. Te zaawansowane techniki programowania będą korzystne dla doświadczonych developerów Hadoop.
Grupa docelowa: developerzy
Czas trwania: trzy dni
Format: wykłady (50%) oraz praktyczne warsztaty (50%).
Ta szkolenie prowadzone przez instruktora w Koszalin (online lub stacjonarnie) jest skierowane do administratorów systemów, którzy chcą nauczyć się wdrażania, konfigurowania i zarządzania klastrami Hadoop w swojej organizacji.
Na końcu tego szkolenia uczestnicy będą w stanie:
Zainstalować i skonfigurować Apache Hadoop.
Poznać cztery główne komponenty ekosystemu Hadoop: HDFS, MapReduce, YARN oraz Hadoop Common.
Używać Hadoop Distributed File System (HDFS) do skalowania klastra do setek lub tysięcy węzłów.
Skonfigurować HDFS jako silnik przechowywania dla lokalnych wdrożeń Spark.
Skonfigurować Spark do uzyskiwania dostępu do alternatywnych rozwiązań przechowywania, takich jak Amazon S3 i bazy danych NoSQL, np. Redis, Elasticsearch, Couchbase, Aerospike itp.
Wykonywać zadania administracyjne, takie jak alokacja zasobów, zarządzanie, monitorowanie i bezpieczne administrowanie klastem Apache Hadoop.
Ten kurs wprowadza HBase – sklep NoSQL na podstawie Hadoop. Kurs jest przeznaczony dla programistów, którzy będą używać HBase do tworzenia aplikacji, oraz administratorów, którzy będą zarządzać klasterami HBase.
Przeprowadzimy programistów przez architekturę HBase, modelowanie danych oraz tworzenie aplikacji w HBase. Omówimy również używanie MapReduce z HBase oraz niektóre tematy administracyjne, związane z optymalizacją wydajności. Kurs jest bardzo praktyczny, z dużą liczbą ćwiczeń laboratoryjnych.
Apache NiFi to platforma open-source do integracji danych i przetwarzania zdarzeń oparta na przepływie. Wspomaga automatyczną, czasową synchronizację danych, ich transformację oraz mediację systemów między różnymi systemami, oferując interfejs webowy i szczegółowe sterowanie.
Ten prowadzony przez instruktora, na żywo, szkolenie (na miejscu lub zdalnie) jest skierowane do pośrednio zaawansowanych administratorów i inżynierów, którzy chcą wdrożyć, zarządzać, zabezpieczać i optymalizować przepływy danych NiFi w środowiskach produkcyjnych.
Na koniec tego szkolenia uczestnicy będą mogli:
Zainstalować, skonfigurować i utrzymywać klastry Apache NiFi.
Projektować i zarządzać przepływami danych z różnych źródeł i ujśc.
Zaimplementować automatyzację, routowanie i logikę transformacji przepływu.
Optymalizować wydajność, monitorować operacje i rozwiązywać problemy.
Format Szkolenia
Interaktywna prezentacja z dyskusją na temat rzeczywistych architektur.
Laboratoria praktyczne: tworzenie, wdrażanie i zarządzanie przepływami.
Zadania scenariuszowe w środowisku live-lab.
Opcje Dostosowywania Szkolenia
Aby zapytać o dostosowane szkolenie dla tego kursu, prosimy o kontakt z nami w celu uzgodnienia szczegółów.
W tym prowadzonym przez instruktora szkoleniu na żywo w Koszalin uczestnicy poznają podstawy programowania opartego na przepływie, opracowując szereg rozszerzeń demonstracyjnych, komponentów i procesorów przy użyciu Apache NiFi.
Pod koniec tego szkolenia uczestnicy będą mogli:
Zrozumieć architekturę NiFi i koncepcje przepływu danych.
Rozwijać rozszerzenia przy użyciu NiFi i interfejsów API innych firm.
Rozwijać własny procesor Apache Nifi.
Pozyskiwać i przetwarzać dane w czasie rzeczywistym z różnych i nietypowych formatów plików i źródeł danych.
Więcej...
Ostatnia aktualizacja:
Opinie uczestników (7)
Przykłady w czasie rzeczywistym
Ahmet Bolat - Accenture Industrial SS
Szkolenie - Python, Spark, and Hadoop for Big Data
Przetłumaczone przez sztuczną inteligencję
Projekt do samodzielnego przygotowania, interesujący przykład DevOps-owej pacy z Ambari, wsparcie trenera (logowanie na maszynę wirtualną, dobra i bezpośrednia komunikacja)
Bartlomiej Krasinski - Rossmann SDP
Szkolenie - HBase for Developers
To have it from the beginning.
Peter Scales - CACI Ltd
Szkolenie - Apache NiFi for Developers
Przetłumaczone przez sztuczną inteligencję
Praktyczne sprawy zostały dobrze wykonane, a także teoria została dobrze przedstawiona przez Ajaya.
Dominik Mazur - Capgemini Polska Sp. z o.o.
Szkolenie - Hadoop Administration on MapR
Przetłumaczone przez sztuczną inteligencję
Koleżeńska komunikacja z osobami biorących udział w szkoleniu.
Andrzej Szewczuk - Izba Administracji Skarbowej w Lublinie
Szkolenie - Apache NiFi for Administrators
Książka wirtualna, która bardzo mi się podobała
Nauczyciel był bardzo wyznawczy co do tematu oraz innych tematów, był bardzo miły i przyjazny
Podobało mi się miejsce w Dubaju.
Safar Alqahtani - Elm Information Security
Szkolenie - Big Data Analytics in Health
Przetłumaczone przez sztuczną inteligencję
Najbardziej podobały mi się przykłady z życia rzeczywistego podawane przez trenera.
Simon Hahn
Szkolenie - Administrator Training for Apache Hadoop