Big Data Hadoop Administration Training - Plan Szkolenia
Szkolenie pozwoli w pełni zapoznać się i zrozumieć wszystkie niezbędne kroki do obsługi i utrzymywania klastra Hadoop. Dostarcza wiedzę począwszy od zagadnień związanych ze specyfikacją sprzętu, instalacją i konfiguracją systemu, aż do zagadnien związanych z równoważeniem obciążenia, strojeniem, diagnozowaniem i rozwiązywaniu problemów przy wdrożeniu.Kurs dedykowany administratorom, którzy będą tworzyć lub/i utrzymywać klaster Hadoop.
Materiały szkoleniowe
- Materiały szkoleniowe Student Guide
- Materiały szkoleniowe Lab Guide
Plan Szkolenia
Wprowadzenie do rozwiązań Cloud Computing i Big Data
Ewolucja Apache Hadoop: HDFS, MapReduce, YARN
Instalacja i konfiguracja Hadoop w trybie pseudo-rozproszonym
Uruchamianie zadań MapReduce na klastrze Hadoop
Planowanie, instalacja i konfiguracja klastra Hadoop
Ekosystem Hadoop: Pig, Hive, Sqoop, HBase
- Big Data przyszłość: Impala, Cassandra
Wymagania
Kurs przeznaczony dla osób z doświadczeniem i umiejętnościami związanymi z podstawową administracją systemami z rodziny Unix/Linux.
Szkolenia otwarte są realizowane w przypadku uzbierania się grupy szkoleniowej liczącej co najmniej 5 osób na dany termin.
Big Data Hadoop Administration Training - Plan Szkolenia - Booking
Big Data Hadoop Administration Training - Plan Szkolenia - Enquiry
Big Data Hadoop Administration Training - Zapytanie o Konsultacje
Zapytanie o Konsultacje
Opinie uczestników (5)
Przygotowanie i organizacja trenera oraz jakość materiałów dostępnych na GitHub.
Mateusz Rek - MicroStrategy Poland Sp. z o.o.
Szkolenie - Impala for Business Intelligence
Przetłumaczone przez sztuczną inteligencję
Projekt do samodzielnego przygotowania, interesujący przykład DevOps-owej pacy z Ambari, wsparcie trenera (logowanie na maszynę wirtualną, dobra i bezpośrednia komunikacja)
Bartlomiej Krasinski - Rossmann SDP
Szkolenie - HBase for Developers
To have it from the beginning.
Peter Scales - CACI Ltd
Szkolenie - Apache NiFi for Developers
Przetłumaczone przez sztuczną inteligencję
Praktyczne sprawy zostały dobrze wykonane, a także teoria została dobrze przedstawiona przez Ajaya.
Dominik Mazur - Capgemini Polska Sp. z o.o.
Szkolenie - Hadoop Administration on MapR
Przetłumaczone przez sztuczną inteligencję
Koleżeńska komunikacja z osobami biorących udział w szkoleniu.
Andrzej Szewczuk - Izba Administracji Skarbowej w Lublinie
Szkolenie - Apache NiFi for Administrators
Propozycje terminów
Szkolenia Powiązane
Administrator Training for Apache Hadoop
35 godzinOdbiorcy:
Kurs przeznaczony jest dla specjalistów IT poszukujących rozwiązania do przechowywania i przetwarzania dużych zbiorów danych w środowisku systemów rozproszonych
Goal:
Głęboka wiedza na temat Hadoop administracji klastrami.
Big Data Hadoop Analyst Training
28 godzinBig Data Hadoop to otwarta, rozproszona i skalowalna platforma, stworzona do przechowywania, przetwarzania i analizy dużych zbiorów danych. Hadoop umożliwia przechowywanie dużych ilości danych na klastrze komputerów, dzięki czemu można obsługiwać petabajty danych. Framework Hadoop zawiera system plików Hadoop Distributed File System (HDFS) oraz framework do przetwarzania rozproszonego MapReduce. Pozwala to na równoległe przetwarzanie danych na wielu maszynach w klastrze. Platforma Hadoop jest łatwa w skalowaniu. Można ją rozbudować poprzez dodanie nowych węzłów do klastra, co zwiększa przepustowość i przetwarzanie danych. Składa się z różnych modułów, takich jak HDFS, MapReduce, YARN (Yet Another Resource Negotiator) oraz dodatkowych narzędzi i bibliotek, które mogą być używane w zależności od potrzeb projektu. Hadoop umożliwia pracę z różnorodnymi typami danych, w tym strukturyzowanymi, półstrukturyzowanymi i nieustrukturyzowanymi. Jest używany do analizy dużych zbiorów danych, tworzenia raportów, analizy trendów, przewidywania oraz uczenia maszynowego. Hadoop posiada bogaty ekosystem narzędzi i frameworków, takich jak Apache Hive, Apache Pig, Apache Spark, Apache HBase, które wspierają różne aspekty przetwarzania i analizy danych. Zapewnia mechanizmy bezpieczeństwa, kontroli dostępu i zarządzania użytkownikami, aby chronić dane przechowywane i przetwarzane w klastrze Hadoop. Big Data Hadoop jest popularnym narzędziem do przetwarzania i analizy dużych zbiorów danych, stosowanym w różnych branżach, w tym w analizie rynkowej, medycynie, finansach, przemyśle i wielu innych, gdzie konieczne jest zarządzanie i analiza dużej ilości danych.
Big Data Analytics in Health
21 godzinAnalityka Big Data obejmuje proces badania dużych ilości różnorodnych zestawów danych w celu odkrycia korelacji, ukrytych wzorców i innych przydatnych informacji.
Branża medyczna dysponuje ogromnymi ilościami złożonych, heterogenicznych danych medycznych i klinicznych. Zastosowanie analizy dużych zbiorów danych na danych dotyczących zdrowia stanowi ogromny potencjał w uzyskiwaniu wglądu w celu poprawy świadczenia opieki zdrowotnej. Jednak ogrom tych zbiorów danych stanowi ogromne wyzwanie w analizach i praktycznych zastosowaniach w środowisku klinicznym.
W tym prowadzonym przez instruktora szkoleniu na żywo (zdalnie) uczestnicy dowiedzą się, jak przeprowadzić analizę dużych zbiorów danych w zakresie zdrowia, przechodząc przez serię praktycznych ćwiczeń laboratoryjnych na żywo.
Po zakończeniu tego szkolenia uczestnicy będą w stanie
- Instalowanie i konfigurowanie narzędzi do analizy dużych zbiorów danych, takich jak Hadoop MapReduce i Spark.
- Zrozumienie charakterystyki danych medycznych
- Stosowanie technik big data do przetwarzania danych medycznych
- Badanie systemów i algorytmów big data w kontekście aplikacji zdrowotnych
Uczestnicy
- Programiści
- Naukowcy ds. danych
Format kursu
- Część wykładu, część dyskusji, ćwiczenia i ciężka praktyka praktyczna.
Uwaga
- Aby zamówić niestandardowe szkolenie dla tego kursu, skontaktuj się z nami.
Hadoop For Administrators
21 godzinApache Hadoop to najpopularniejszy framework do przetwarzania Big Data na klastrach serwerów. Podczas tego trzydniowego (opcjonalnie czterodniowego) kursu uczestnicy dowiedzą się o korzyściach biznesowych i przypadkach użycia Hadoop i jego ekosystemu, jak zaplanować wdrożenie i rozwój klastra, jak zainstalować, utrzymywać, monitorować, rozwiązywać problemy i optymalizować Hadoop. Uczestnicy przećwiczą również masowe ładowanie danych w klastrze, zapoznają się z różnymi dystrybucjami Hadoop oraz przećwiczą instalację i zarządzanie narzędziami ekosystemu Hadoop. Kurs kończy się dyskusją na temat zabezpieczania klastra za pomocą Kerberos.
"... Materiały były bardzo dobrze przygotowane i dokładnie omówione. Laboratorium było bardzo pomocne i dobrze zorganizowane"
- Andrew Nguyen, główny inżynier integracji DW, Microsoft Online Advertising
Uczestnicy
Hadoop Administratorzy
Format
Wykłady i praktyczne laboratoria, przybliżona równowaga 60% wykładów, 40% laboratoriów.
Hadoop for Developers (4 days)
28 godzinApache Hadoop jest najpopularniejszym frameworkiem do przetwarzania Big Data na klastrach serwerów. Ten kurs wprowadzi programistę w różne komponenty (HDFS, MapReduce, Pig, Hive i HBase) Hadoop ekosystemu.
Advanced Hadoop for Developers
21 godzinApache Hadoop jest jednym z najpopularniejszych frameworków do przetwarzania Big Data na klastrach serwerów. Ten kurs zagłębia się w zarządzanie danymi w HDFS, zaawansowane Pig, Hive i HBase. Te zaawansowane techniki programowania będą korzystne dla doświadczonych Hadoop programistów.
Odbiorcy: programiści
Czas trwania: trzy dni
Format: wykłady (50%) i praktyczne laboratoria (50%).
Hadoop Administration on MapR
28 godzinPubliczność:
Kurs ten ma na celu demistyfikację technologii big data/hadoop i pokazanie, że nie jest ona trudna do zrozumienia.
Hadoop and Spark for Administrators
35 godzinTo prowadzone przez instruktora szkolenie na żywo w Polsce (online lub na miejscu) jest przeznaczone dla administratorów systemów, którzy chcą dowiedzieć się, jak konfigurować, wdrażać i zarządzać klastrami Hadoop w swojej organizacji.
Po zakończeniu tego szkolenia uczestnicy będą w stanie
- Instalacja i konfiguracja Apache Hadoop.
- Zrozumienie czterech głównych komponentów ekosystemu Hadoop: HDFS, MapReduce, YARN i Hadoop Common.
- Używanie rozproszonego systemu plików Hadoop (HDFS) do skalowania klastra do setek lub tysięcy węzłów.
- Konfigurowanie HDFS do działania jako silnik pamięci masowej dla lokalnych wdrożeń Spark.
- Konfiguracja Spark, aby uzyskać dostęp do alternatywnych rozwiązań pamięci masowej, takich jak Amazon S3 i systemów baz danych NoSQL, takich jak Redis, Elasticsearch, Couchbase, Aerospike itp.
- Wykonywanie zadań administracyjnych, takich jak udostępnianie, zarządzanie, monitorowanie i zabezpieczanie klastra Apache Hadoop.
HBase for Developers
21 godzinTen kurs wprowadza HBase – magazyn NoSQL na szczycie Hadoop. Kurs jest przeznaczony dla programistów, którzy będą używać HBase do tworzenia aplikacji i administratorów, którzy będą zarządzać klastrami HBase.
Przeprowadzimy programistę przez architekturę HBase, modelowanie danych i tworzenie aplikacji na HBase. Omówimy również korzystanie z MapReduce z HBase oraz niektóre tematy administracyjne związane z optymalizacją wydajności. Kurs jest bardzo praktyczny i zawiera wiele ćwiczeń laboratoryjnych.
Czas trwania : 3 dni
Odbiorcy : Programiści & Administratorzy
Hortonworks Data Platform (HDP) for Administrators
21 godzinTo prowadzone przez instruktora szkolenie na żywo w Polsce (na miejscu lub zdalnie) wprowadza Hortonworks Data Platform (HDP) i przeprowadza uczestników przez wdrożenie rozwiązania Spark + Hadoop.
Pod koniec tego szkolenia uczestnicy będą mogli:
- Używać Hortonworks do niezawodnego uruchamiania Hadoop na dużą skalę.
- Ujednolicić możliwości Hadoop w zakresie bezpieczeństwa, zarządzania i operacji ze zwinnymi analitycznymi przepływami pracy Spark.
- Wykorzystanie Hortonworks do badania, walidacji, certyfikacji i wsparcia każdego z komponentów projektu Spark.
- Przetwarzanie różnych typów danych, w tym ustrukturyzowanych, nieustrukturyzowanych, w ruchu i w spoczynku.
Data Analysis with Hive/HiveQL
7 godzinTen kurs obejmuje sposób korzystania z języka Hive SQL (AKA: Hive HQL, SQL on Hive, HiveQL) dla osób, które wyodrębniają dane z Hive
Impala for Business Intelligence
21 godzinCloudera Impala to silnik zapytań typu open source do masowego przetwarzania równoległego (MPP) SQL dla klastrów Apache Hadoop.
Cloudera Impala umożliwia użytkownikom wysyłanie zapytań o niskim opóźnieniu SQL do danych przechowywanych w Hadoop Distributed File System i Apache Hbase bez konieczności przenoszenia lub przekształcania danych.
Odbiorcy
Ten kurs jest skierowany do analityków i badaczy danych przeprowadzających analizy danych przechowywanych w Hadoop za pośrednictwem narzędzi Business Intelligence lub SQL.
Po ukończeniu tego kursu uczestnicy będą w stanie
- Wyodrębniać znaczące informacje z klastrów Hadoop za pomocą Impala.
- Pisać specjalne programy ułatwiające Business Intelligence w Impala SQL dialekcie.
- Rozwiązywać problemy Impala.
Apache NiFi for Administrators
21 godzinW tym prowadzonym przez instruktora szkoleniu na żywo w Polsce (na miejscu lub zdalnie) uczestnicy dowiedzą się, jak wdrożyć i zarządzać Apache NiFi w środowisku laboratoryjnym na żywo.
Pod koniec tego szkolenia uczestnicy będą mogli:
- Zainstalować i skonfigurować Apachi NiFi.
- Pozyskiwać, przekształcać i zarządzać danymi z różnych, rozproszonych źródeł danych, w tym baz danych i dużych jezior danych.
- Automatyzować przepływy danych.
- Włączać analitykę strumieniową.
- Stosowanie różnych podejść do pozyskiwania danych.
- Przekształcanie danych Big Data w informacje biznesowe.
Apache NiFi for Developers
7 godzinW tym prowadzonym przez instruktora szkoleniu na żywo w Polsce uczestnicy poznają podstawy programowania opartego na przepływie, opracowując szereg rozszerzeń demonstracyjnych, komponentów i procesorów przy użyciu Apache NiFi.
Pod koniec tego szkolenia uczestnicy będą mogli:
- Zrozumieć architekturę NiFi i koncepcje przepływu danych.
- Rozwijać rozszerzenia przy użyciu NiFi i interfejsów API innych firm.
- Rozwijać własny procesor Apache Nifi.
- Pozyskiwać i przetwarzać dane w czasie rzeczywistym z różnych i nietypowych formatów plików i źródeł danych.