Apache Hadoop jest rozwiązaniem typu open-source implementującym dwa główne rozwiązania typu BigData firmy Google: GFS (Google File System) i model programistyczny MapReduce. Jest on kompletnym systemem służącym do przechowywania i przetwarzania dużych zbiorów danych. Hadoop wykorzystywany jest przez większość światowych liderów w dziedzinie usług opartych na chmurze obliczeniowej, takich jak Yachoo, Facebook czy LinkedIn.
Szkolenia z tematu Apache Hadoop mogą być realizowane w siedzibie klienta - lokalizacja w Polsce lub centrach szkoleniowych w lokalizacji w Polsce
Szkolenie zdalne realizowane są przy użyciu interaktywnego, zdalnego pulpitu.
Opinie uczestników
★★★★★
★★★★★
Projekt do samodzielnego przygotowania, interesujący przykład DevOps-owej pacy z Ambari, wsparcie trenera (logowanie na maszynę wirtualną, dobra i bezpośrednia komunikacja)
Bartłomiej Krasiński - Rossmann SDP
Szkolenie: HBase for Developers
Część praktyczna. Zadania były dobrze dobrane do omawianych zagadnień.
Rossmann SDP
Szkolenie: HBase for Developers
Część praktyczna.
Arkadiusz Iwaszko
Szkolenie: Big Data Hadoop Analyst Training
Ciekawe ćwiczenia.
ACXIOM GLOBAL SERVICE CENTER POLSKA SP. Z O.O.
Szkolenie: Apache Hadoop: Manipulation and Transformation of Data Performance
Dużo ćwiczeń praktycznych
ACXIOM GLOBAL SERVICE CENTER POLSKA SP. Z O.O.
Szkolenie: Apache Hadoop: Manipulation and Transformation of Data Performance
Dobra i szybka pomoc w ćwiczeniach. Punktualne przerwy.
ACXIOM GLOBAL SERVICE CENTER POLSKA SP. Z O.O.
Szkolenie: Apache Hadoop: Manipulation and Transformation of Data Performance
Ćwiczenia związane ze Sparkiem
Mateusz Lipowicz - ACXIOM GLOBAL SERVICE CENTER POLSKA SP. Z O.O.
Szkolenie: Apache Hadoop: Manipulation and Transformation of Data Performance
Nacisk położony na część teoretyczną i podejście trenera
ACXIOM GLOBAL SERVICE CENTER POLSKA SP. Z O.O.
Szkolenie: Apache Hadoop: Manipulation and Transformation of Data Performance
Było sporo ćwiczeń co było super!
ACXIOM GLOBAL SERVICE CENTER POLSKA SP. Z O.O.
Szkolenie: Apache Hadoop: Manipulation and Transformation of Data Performance
Ciekawy sposob przedstawienia zagadnien zwiazanych z BigData i sparkiem.
ACXIOM GLOBAL SERVICE CENTER POLSKA SP. Z O.O.
Szkolenie: Apache Hadoop: Manipulation and Transformation of Data Performance
Napewno spodobał mi się sam temat szkolenia i napewno będę poszerzał dalej wiedzę w tym temacie.
ACXIOM GLOBAL SERVICE CENTER POLSKA SP. Z O.O.
Szkolenie: Apache Hadoop: Manipulation and Transformation of Data Performance
Ćwiczenia praktyczne
Marcin Wądołkowski - ACXIOM GLOBAL SERVICE CENTER POLSKA SP. Z O.O.
Szkolenie: Apache Hadoop: Manipulation and Transformation of Data Performance
Wspieranie pojedynczych uczestnikow pomimo duzej liczby bioracych udzial w szkoleniu
ACXIOM GLOBAL SERVICE CENTER POLSKA SP. Z O.O.
Szkolenie: Apache Hadoop: Manipulation and Transformation of Data Performance
trener każdemu pomagał indywidualnie
ACXIOM GLOBAL SERVICE CENTER POLSKA SP. Z O.O.
Szkolenie: Apache Hadoop: Manipulation and Transformation of Data Performance
Python to skalowalny, elastyczny i szeroko stosowany język programowania do nauki o danych i uczenia maszynowego. Spark to silnik przetwarzania danych wykorzystywany do wyszukiwania, analizowania i przekształcania dużych zbiorów danych, a Hadoop to biblioteka oprogramowania do przechowywania i przetwarzania danych na dużą skalę.
Szkolenie na żywo prowadzone przez instruktora (na miejscu lub zdalnie) jest przeznaczone dla programistów, którzy chcą używać i integrować Spark, Hadoop i Python do przetwarzania, analizowania i przekształcania dużych i złożonych zestawów danych.
Po zakończeniu tego szkolenia uczestnicy będą w stanie
Skonfigurowanie środowiska niezbędnego do rozpoczęcia przetwarzania dużych zbiorów danych za pomocą Spark, Hadoop i Python.
Zrozumienie funkcji, podstawowych komponentów i architektury Spark i Hadoop.
Dowiedz się, jak zintegrować Spark, Hadoop i Python w celu przetwarzania dużych zbiorów danych.
Poznanie narzędzi w ekosystemie Spark (Spark MlLib, Spark Streaming, Kafka, Sqoop, Kafka i Flume).
Zbuduj systemy rekomendacji oparte na filtrowaniu kolaboracyjnym podobne do Netflix, YouTube, Amazon, Spotify i Google.
Wykorzystanie Apache Mahout do skalowania algorytmów uczenia maszynowego.
Format kursu
Interaktywny wykład i dyskusja.
Dużo ćwiczeń i praktyki.
Praktyczne wdrożenie w środowisku live-lab.
Opcje dostosowywania kursu
Aby zamówić niestandardowe szkolenie dla tego kursu, skontaktuj się z nami.
Datameer to platforma analityczno-biznesowa oparta na Hadoop. Umożliwia użytkownikom końcowym dostęp, eksplorację i korelację dużych, ustrukturyzowanych, częściowo ustrukturyzowanych i nieustrukturyzowanych danych w łatwy w użyciu sposób.
W tym prowadzonym przez instruktora szkoleniu na żywo uczestnicy dowiedzą się, jak korzystać z Datameer, aby pokonać stromą krzywą uczenia się Hadoop, przechodząc przez konfigurację i analizę szeregu dużych źródeł danych.
Po zakończeniu tego szkolenia uczestnicy będą w stanie
Tworzenie, zarządzanie i interaktywna eksploracja korporacyjnego jeziora danych
[Hurtownie danych analityki biznesowej, transakcyjne bazy danych i inne magazyny analityczne.
Korzystanie z interfejsu użytkownika arkusza kalkulacyjnego do projektowania kompleksowych potoków przetwarzania danych
[Wstępnie wbudowane funkcje do eksploracji złożonych relacji danych
Korzystanie z kreatorów "przeciągnij i upuść" do wizualizacji danych i tworzenia pulpitów nawigacyjnych
korzystanie z tabel, wykresów, grafów i map do analizowania wyników zapytań
Publiczność
Analitycy danych
Format kursu
Część wykładu, część dyskusji, ćwiczenia i ciężka praktyka praktyczna
The course is dedicated to IT specialists that are looking for a solution to store and process large data sets in distributed system environment
Course goal:
Getting knowledge regarding Hadoop cluster administration
Głównym celem szkolenia jest zdobycie wiedzy z administracji systemem Apache Hadoop w środowiskach MapReduce oraz YARN na poziomie zaawansowanym. Tematyka szkolenia dotyczy w głównej mierze architektury systemu Hadoop, a w szczególności systemu plików HDFS oraz modeli programistycznych MapReduce i YARN oraz zagadnień związanych z planowaniem, instalacją, konfiguracją, administracją, zarządzaniem i monitorowaniem klastra systemu Hadoop. Pozostałe zagadnienia związane z tematyką BigData takie jak HBase, Cassandra, Impala, Pig, Hiver oraz Sqoop są również omówione, choć pobieżnie. Kurs przeznaczony jest w głównej mierze do specjalistów z branży IT, którzy chcą przygotować się i zdać egzamin CCAH (Cloudera Certified administrator for Apache Hadoop).
Apache Hadoop is the most popular framework for processing Big Data on clusters of servers. This course will introduce a developer to various components (HDFS, MapReduce, Pig, Hive and HBase) Hadoop ecosystem.
Apache Hadoop to jeden z najpopularniejszych frameworków do przetwarzania Big Data na klastrach serwerów. Ten kurs zagłębia się w zarządzanie danymi w HDFS, zaawansowane Pig, Hive i HBase. Te zaawansowane techniki programowania będą korzystne dla doświadczonych programistów Hadoop.
Odbiorcy: deweloperzy
Czas trwania: trzy dni
Format: wykłady (50%) i praktyczne laboratoria (50%).
This course introduces HBase – a NoSQL store on top of Hadoop. The course is intended for developers who will be using HBase to develop applications, and administrators who will manage HBase clusters.
We will walk a developer through HBase architecture and data modelling and application development on HBase. It will also discuss using MapReduce with HBase, and some administration topics, related to performance optimization. The course is very hands-on with lots of lab exercises.
Duration : 3 days
Audience : Developers & Administrators
Apache Hadoop to najpopularniejszy framework do przetwarzania Big Data na klastrach serwerów. Podczas tego trzydniowego (opcjonalnie czterodniowego) kursu uczestnicy dowiedzą się o korzyściach biznesowych i przypadkach użycia Hadoop i jego ekosystemu, jak zaplanować wdrożenie i rozwój klastra, jak zainstalować, utrzymywać, monitorować, rozwiązywać problemy i optymalizować Hadoop. Uczestnicy przećwiczą również masowe ładowanie danych klastra, zapoznają się z różnymi dystrybucjami Hadoop oraz przećwiczą instalację i zarządzanie narzędziami ekosystemu Hadoop. Kurs kończy się dyskusją na temat zabezpieczania klastra za pomocą Kerberos.
“… Materiały były bardzo dobrze przygotowane i dokładnie omówione. Laboratorium było bardzo pomocne i dobrze zorganizowane”
— Andrew Nguyen, główny inżynier integracji DW, Microsoft Reklama online
Publiczność
Hadoop Administratorzy
Format
Wykłady i praktyczne laboratoria, około 60% wykładów, 40% laboratoriów.
Apache Hadoop is the most popular framework for processing Big Data. Hadoop provides rich and deep analytics capability, and it is making in-roads in to tradional BI analytics world. This course will introduce an analyst to the core components of Hadoop eco system and its analytics
Audience
Business Analysts
Duration
three days
Format
Lectures and hands on labs.
Big Data Analyst Training to praktyczny kurs, który polecany jest każdemu, kto chce w przyszłości zostać ekspertem Data Scientist. Kurs skupia sie na aspektach potrzebnych do pracy nowoczesnego analityka w technologii Big Data. W trakcie kursu prezentowane są narzędzia pozwalające na uzyskanie dostępu, zmianę, transformację i analizę skomplikowanych struktur danych umieszczonych w klastrze Hadoop. W trakcie kursu będą poruszane tematy w ramach technologii Hadoop Ecosystem (Pig, Hive, Impala, ELK i inne).
Funkcjonaloność narzędzi Pig, Hive, Impala, ELK, pozwalające na zbieranie danych, zapisywanie wyników i analitykę.
Jak Pig, Hive i Impala mogą podnieść wydajność typowych i codziennych zadań analitycznych.
Wykonywanie w czasie rzeczywistym interaktywnych analiz ogromnych zbiorów danych aby uzyskać cenne i wartościowe elementy dla biznesu oraz jak interpretować wnioski.
Wykonywanie złożonych zapytań na bardzo dużych wolumenach danych.
Ten kurs jest przeznaczony dla programistów, architektów, analityków danych lub dowolnego profilu, który wymaga dostępu do danych intensywnie lub regularnie.
Głównym celem kursu jest manipulacja i transformacja danych.
Wśród narzędzi w ekosystemie Hadoop ten kurs obejmuje wykorzystanie Pig i Hive, z których oba są intensywnie wykorzystywane do transformacji danych i manipulacji nimi.
Szkolenie to dotyczy również wskaźników wydajności i optymalizacji wydajności.
Kurs jest całkowicie praktyczny i jest przerywany prezentacjami aspektów teoretycznych.
In this instructor-led training in w Polsce, participants will learn the core components of the Hadoop ecosystem and how these technologies can be used to solve large-scale problems. By learning these foundations, participants will improve their ability to communicate with the developers and implementers of these systems as well as the data scientists and analysts that many IT projects involve.
Audience
Project Managers wishing to implement Hadoop into their existing development or IT infrastructure
Project Managers needing to communicate with cross-functional teams that include big data engineers, data scientists and business analysts
Apache Samza to open-source'owy, asynchroniczny framework obliczeniowy do przetwarzania strumieniowego w czasie zbliżonym do rzeczywistego. Wykorzystuje Apache Kafka do przesyłania wiadomości oraz Apache Hadoop YARN do tolerancji błędów, izolacji procesorów, bezpieczeństwa i zarządzania zasobami.
To prowadzone przez instruktora szkolenie na żywo wprowadza zasady stojące za systemami przesyłania wiadomości i rozproszonym przetwarzaniem strumieniowym, jednocześnie przeprowadzając uczestników przez tworzenie przykładowego projektu opartego na Samza i wykonywanie zadań.
Po zakończeniu tego szkolenia uczestnicy będą w stanie
Wykorzystanie Samza do uproszczenia kodu potrzebnego do tworzenia i konsumowania komunikatów.
Oddzielenie obsługi komunikatów od aplikacji.
Wykorzystanie Samza do implementacji asynchronicznych obliczeń w czasie zbliżonym do rzeczywistego.
Wykorzystanie przetwarzania strumieniowego w celu zapewnienia wyższego poziomu abstrakcji w stosunku do systemów przesyłania komunikatów.
Publiczność
Deweloperzy
Format kursu
Część wykładu, część dyskusji, ćwiczenia i ciężka praktyka praktyczna
Alluxio to wirtualny rozproszony system pamięci masowej o otwartym kodzie źródłowym, który ujednolica różne systemy pamięci masowej i umożliwia aplikacjom interakcję z danymi z prędkością pamięci. Korzystają z niego takie firmy jak Intel, Baidu i Alibaba.
W tym prowadzonym przez instruktora szkoleniu na żywo uczestnicy dowiedzą się, jak używać Alluxio do łączenia różnych struktur obliczeniowych z systemami pamięci masowej i efektywnego zarządzania danymi w skali wielu petabajtów, przechodząc przez proces tworzenia aplikacji za pomocą Alluxio.
Po zakończeniu tego szkolenia uczestnicy będą w stanie
Tworzenie aplikacji z Alluxio
Łączenie systemów i aplikacji Big Data przy zachowaniu jednej przestrzeni nazw
Skuteczne wydobywanie wartości z dużych zbiorów danych w dowolnym formacie pamięci masowej
Poprawa wydajności obciążeń
Wdrażanie i zarządzanie Alluxio w trybie autonomicznym lub klastrowym
Publiczność
Naukowiec ds. danych
Programista
Administrator systemu
Format kursu
Część wykładu, część dyskusji, ćwiczenia i ciężka praktyka praktyczna
Tigon to natywna platforma przetwarzania strumieniowego YARN o otwartym kodzie źródłowym, działająca w czasie rzeczywistym, charakteryzująca się niskimi opóźnieniami i wysoką przepustowością. Aplikacje Tigon dotyczą takich przypadków użycia, jak wykrywanie i analiza włamań do sieci, analiza rynku mediów społecznościowych, analiza lokalizacji i rekomendacje dla użytkowników w czasie rzeczywistym.
To prowadzone przez instruktora szkolenie na żywo wprowadza podejście Tigon do łączenia przetwarzania w czasie rzeczywistym i wsadowego, przeprowadzając uczestników przez proces tworzenia przykładowej aplikacji.
Po zakończeniu tego szkolenia uczestnicy będą w stanie
Tworzenie wydajnych aplikacji przetwarzania strumieniowego do obsługi dużych ilości danych
Przetwarzanie źródeł strumieniowych, takich jak Twitter i dzienniki serwerów internetowych
Wykorzystaj Tigon do szybkiego łączenia, filtrowania i agregowania strumieni
Publiczność
Deweloperzy
Format kursu
Część wykładu, część dyskusji, ćwiczenia i ciężka praktyka praktyczna
Apache NiFi (Hortonworks DataFlow) to zintegrowana logistyka danych w czasie rzeczywistym i prosta platforma przetwarzania zdarzeń, która umożliwia przenoszenie, śledzenie i automatyzację danych między systemami. Jest napisana przy użyciu programowania opartego na przepływach i zapewnia internetowy interfejs użytkownika do zarządzania przepływami danych w czasie rzeczywistym.
W tym prowadzonym przez instruktora szkoleniu na żywo (na miejscu lub zdalnie) uczestnicy dowiedzą się, jak wdrożyć i zarządzać Apache NiFi w środowisku laboratoryjnym na żywo.
Po zakończeniu tego szkolenia uczestnicy będą w stanie
Instalacja i konfiguracja Apachi NiFi.
Pozyskuj, przekształcaj i zarządzaj danymi z różnych, rozproszonych źródeł danych, w tym baz danych i dużych jezior danych.
Automatyzacja przepływu danych.
Włączanie analityki strumieniowej.
Stosować różne podejścia do pozyskiwania danych.
Przekształcanie danych Big Data w informacje biznesowe.
Format kursu
Interaktywny wykład i dyskusja.
Dużo ćwiczeń i praktyki.
Praktyczne wdrożenie w środowisku live-lab.
Opcje dostosowywania kursu
Aby zamówić niestandardowe szkolenie dla tego kursu, skontaktuj się z nami.
Apache NiFi (Hortonworks DataFlow) to zintegrowana logistyka danych w czasie rzeczywistym i prosta platforma przetwarzania zdarzeń, która umożliwia przenoszenie, śledzenie i automatyzację danych między systemami. Jest napisana przy użyciu programowania opartego na przepływach i zapewnia internetowy interfejs użytkownika do zarządzania przepływami danych w czasie rzeczywistym.
W tym prowadzonym przez instruktora szkoleniu na żywo uczestnicy poznają podstawy programowania opartego na przepływie, opracowując szereg rozszerzeń demonstracyjnych, komponentów i procesorów przy użyciu Apache NiFi.
Po zakończeniu tego szkolenia uczestnicy będą w stanie
Zrozumieć architekturę NiFi i koncepcje przepływu danych.
Rozwijanie rozszerzeń przy użyciu NiFi i interfejsów API innych firm.
Rozwijać własny procesor Apache Nifi.
Pozyskiwanie i przetwarzanie danych w czasie rzeczywistym z różnych i nietypowych formatów plików i źródeł danych.
Format kursu
Interaktywny wykład i dyskusja.
Dużo ćwiczeń i praktyki.
Praktyczne wdrożenie w środowisku live-lab.
Opcje dostosowywania kursu
Aby zamówić niestandardowe szkolenie dla tego kursu, skontaktuj się z nami.
Hadoop to popularny framework do przetwarzania Big Data. Python to język programowania wysokiego poziomu słynący z przejrzystej składni i czytelności kodu.
W tym prowadzonym przez instruktora szkoleniu na żywo uczestnicy dowiedzą się, jak pracować z Hadoop, MapReduce, Pig i Spark przy użyciu Python, przechodząc przez wiele przykładów i przypadków użycia.
Po zakończeniu tego szkolenia uczestnicy będą w stanie
Zrozumienie podstawowych pojęć związanych z Hadoop, MapReduce, Pig i Spark
Używanie Python z rozproszonym systemem plików Hadoop (HDFS), MapReduce, Pig i Spark
Używanie Snakebite do programowego dostępu do HDFS w ramach Python.
Używanie mrjob do pisania zadań MapReduce w Python.
Pisanie programów Spark za pomocą Python
Rozszerzanie funkcjonalności pig przy użyciu Python UDF
Zarządzanie zadaniami MapReduce i skryptami Pig przy użyciu Luigi
Publiczność
Programiści
Specjaliści IT
Format kursu
Część wykładu, część dyskusji, ćwiczenia i ciężka praktyka praktyczna
Sqoop to narzędzie typu open source do przesyłania danych między Hadoop a relacyjnymi bazami danych lub komputerami mainframe. Można go używać do importowania danych z systemu zarządzania relacyjnymi bazami danych (RDBMS), takiego jak MySQL lub Oracle, lub komputera mainframe do rozproszonego systemu plików Hadoop (HDFS). Następnie dane mogą zostać przekształcone w Hadoop MapReduce, a następnie ponownie wyeksportowane do RDBMS.
W tym prowadzonym przez instruktora szkoleniu na żywo uczestnicy dowiedzą się, jak używać Sqoop do importowania danych z tradycyjnej relacyjnej bazy danych do pamięci masowej Hadoop, takiej jak HDFS lub Hive i odwrotnie.
Po zakończeniu tego szkolenia uczestnicy będą w stanie
Instalacja i konfiguracja Sqoop
Importowanie danych z MySQL do HDFS i Hive
Importowanie danych z HDFS i Hive do MySQL
Publiczność
Administratorzy systemów
Inżynierowie danych
Format kursu
Część wykładu, część dyskusji, ćwiczenia i ciężka praktyka praktyczna
Uwaga
Aby zamówić niestandardowe szkolenie dla tego kursu, skontaktuj się z nami.
Analityka Big Data obejmuje proces badania dużych ilości różnorodnych zestawów danych w celu odkrycia korelacji, ukrytych wzorców i innych przydatnych informacji.
Branża medyczna dysponuje ogromnymi ilościami złożonych, heterogenicznych danych medycznych i klinicznych. Zastosowanie analizy dużych zbiorów danych na danych dotyczących zdrowia stanowi ogromny potencjał w uzyskiwaniu wglądu w celu poprawy świadczenia opieki zdrowotnej. Jednak ogrom tych zbiorów danych stanowi ogromne wyzwanie w analizach i praktycznych zastosowaniach w środowisku klinicznym.
W tym prowadzonym przez instruktora szkoleniu na żywo (zdalnie) uczestnicy dowiedzą się, jak przeprowadzić analizę dużych zbiorów danych w zakresie zdrowia, przechodząc przez serię praktycznych ćwiczeń laboratoryjnych na żywo.
Po zakończeniu tego szkolenia uczestnicy będą w stanie
Instalowanie i konfigurowanie narzędzi do analizy dużych zbiorów danych, takich jak Hadoop MapReduce i Spark.
Zrozumienie charakterystyki danych medycznych
Stosowanie technik big data do przetwarzania danych medycznych
Badanie systemów i algorytmów big data w kontekście aplikacji zdrowotnych
Publiczność
Programiści
Naukowcy ds. danych
Format kursu
Część wykładu, część dyskusji, ćwiczenia i ciężka praktyka praktyczna.
Uwaga
Aby zamówić niestandardowe szkolenie dla tego kursu, skontaktuj się z nami.
Apache Hadoop jest popularnym frameworkiem do przetwarzania dużych zbiorów danych na wielu komputerach.
Szkolenie na żywo prowadzone przez instruktora (na miejscu lub zdalnie) jest przeznaczone dla administratorów systemów, którzy chcą dowiedzieć się, jak skonfigurować, wdrożyć i zarządzać klastrami Hadoop w swojej organizacji.
Po zakończeniu tego szkolenia uczestnicy będą w stanie
Instalowanie i konfigurowanie Apache Hadoop.
Zrozumienie czterech głównych komponentów ekosystemu Hadoop: HDFS, MapReduce, YARN i Hadoop Common.
Wykorzystanie rozproszonego systemu plików Hadoop (HDFS) do skalowania klastra do setek lub tysięcy węzłów;
Konfigurowanie HDFS do działania jako silnik pamięci masowej dla lokalnych wdrożeń Spark.
Konfiguracja Spark w celu uzyskania dostępu do alternatywnych rozwiązań pamięci masowej, takich jak Amazon S3 i systemy baz danych NoSQL, takie jak Redis, Elasticsearch, Couchbase, Aerospike itp.
Wykonywanie zadań administracyjnych, takich jak udostępnianie, zarządzanie, monitorowanie i zabezpieczanie klastra Apache Hadoop.
Format kursu
Interaktywny wykład i dyskusja.
Dużo ćwiczeń i praktyki.
Praktyczne wdrożenie w środowisku live-lab.
Opcje dostosowywania kursu
Aby zamówić niestandardowe szkolenie dla tego kursu, skontaktuj się z nami.
Cloudera Impala to silnik zapytań typu open source do masowego przetwarzania równoległego (MPP) SQL dla klastrów Apache Hadoop.
Impala umożliwia użytkownikom wysyłanie zapytań o niskim opóźnieniu SQL do danych przechowywanych w rozproszonym systemie plików Hadoop i Apache Hbase bez konieczności przenoszenia lub przekształcania danych.
Publiczność
Ten kurs jest skierowany do analityków i badaczy danych przeprowadzających analizy danych przechowywanych w Hadoop za pośrednictwem narzędzi Business Intelligence lub SQL.
Po tym kursie uczestnicy będą w stanie
Wydobywanie istotnych informacji z klastrów Hadoop za pomocą Impala.
Pisanie konkretnych programów w celu ułatwienia analizy biznesowej w Impala SQL Dialect.
Rozwiązywanie problemów z Impalą.
Apache Ambari to platforma zarządzania typu open-source do udostępniania, zarządzania, monitorowania i zabezpieczania klastrów Apache Hadoop.
W tym instruktażowym szkoleniu na żywo uczestnicy poznają narzędzia i praktyki zarządzania dostarczane przez Ambari w celu skutecznego zarządzania klastrami Hadoop.
Po zakończeniu tego szkolenia uczestnicy będą w stanie
Konfiguracja klastra Big Data na żywo przy użyciu Ambari
Zastosowanie zaawansowanych funkcji i funkcjonalności Ambari w różnych przypadkach użycia
Płynne dodawanie i usuwanie węzłów w razie potrzeby
Poprawa wydajności klastra Hadoop poprzez dostrajanie i modyfikowanie
Publiczność
DevOps
Administratorzy systemów
DBA
Hadoop Specjaliści ds. testowania
Format kursu
Część wykładu, część dyskusji, ćwiczenia i ciężka praktyka praktyczna
Hortonworks Data Platform (HDP) to platforma wsparcia Apache Hadoop o otwartym kodzie źródłowym, która zapewnia stabilną podstawę do opracowywania rozwiązań Big Data w ekosystemie Apache Hadoop.
To prowadzone przez instruktora szkolenie na żywo (na miejscu lub zdalnie) wprowadza Hortonworks Data Platform (HDP) i przeprowadza uczestników przez wdrożenie rozwiązania Spark + Hadoop.
Po zakończeniu tego szkolenia uczestnicy będą w stanie
Wykorzystaj Hortonworks do niezawodnego uruchamiania Hadoop na dużą skalę.
Ujednolicenie zabezpieczeń, zarządzania i możliwości operacyjnych Hadoop ze zwinnymi analitycznymi przepływami pracy Spark.
Wykorzystaj Hortonworks do badania, walidacji, certyfikacji i wsparcia każdego z komponentów projektu Spark.
Przetwarzanie różnych typów danych, w tym ustrukturyzowanych, nieustrukturyzowanych, w ruchu i w spoczynku.
Format kursu
Interaktywny wykład i dyskusja.
Dużo ćwiczeń i praktyki.
Praktyczne wdrożenie w środowisku live-lab.
Opcje dostosowywania kursu
Aby zamówić niestandardowe szkolenie dla tego kursu, skontaktuj się z nami.
Zapisz się na nasz newsletter i otrzymuj informacje o aktualnych zniżkach na kursy otwarte. Szanujemy Twoją prywatność, dlatego Twój e-mail będzie wykorzystywany jedynie w celu wysyłki naszego newslettera, nie będzie udostępniony ani sprzedany osobom trzecim. W dowolnej chwili możesz zmienić swoje preferencje co do otrzymywanego newslettera bądź całkowicie się z niego wypisać.