Szkolenia Hadoop

Szkolenia Hadoop

Apache Hadoop jest rozwiązaniem typu open-source implementującym dwa główne rozwiązania typu BigData firmy Google: GFS (Google File System) i model programistyczny MapReduce. Jest on kompletnym systemem służącym do przechowywania i przetwarzania dużych zbiorów danych. Hadoop wykorzystywany jest przez większość światowych liderów w dziedzinie usług opartych na chmurze obliczeniowej, takich jak Yachoo, Facebook czy LinkedIn.

Szkolenia z tematu Apache Hadoop mogą być realizowane w siedzibie klienta - lokalizacja w Polsce lub centrach szkoleniowych w lokalizacji w Polsce Szkolenie zdalne realizowane są przy użyciu interaktywnego, zdalnego pulpitu.

Opinie uczestników

★★★★★
★★★★★

Plany szkoleń z technologii Apache Hadoop

Title
Czas trwania
Opis
Title
Czas trwania
Opis
7 godziny
Opis
Alexio to wirtualny, rozproszony system pamięci masowej, który ujednolica różne systemy pamięci masowej i umożliwia aplikacjom interakcję z danymi z prędkością pamięci Jest używany przez firmy takie jak Intel, Baidu i Alibaba W ramach tego instruktażowego szkolenia na żywo uczestnicy dowiedzą się, w jaki sposób korzystać z Alexio, aby połączyć różne systemy obliczeniowe z systemami pamięci masowej i wydajnie zarządzać danymi w skali wielościennej, przechodząc przez proces tworzenia aplikacji za pomocą Alluxio Pod koniec tego szkolenia uczestnicy będą mogli: Opracuj aplikację z Alluxio Połącz duże systemy danych i aplikacje, zachowując jedną przestrzeń nazw Wydajny ekstrakt z dużych zbiorów danych w dowolnym formacie Popraw wydajność obciążenia Wdrażaj i zarządzaj Alluxio jako niezależną lub klastrową Publiczność Dane naukowiec Deweloper Administrator systemu Format kursu Wykład częściowy, dyskusja częściowa, ćwiczenia i ciężka praktyka handson .
28 godziny
Opis
Publiczność:

Ten kurs ma na celu demistyfikację technologii big data / hadoop i pokazanie, że nie jest to trudne do zrozumienia.
14 godziny
Opis
Sqoop to oprogramowanie open source do przesyłania danych między Hadoop a relacyjnymi bazami danych lub komputerami typu mainframe Może być używany do importowania danych z systemu zarządzania relacyjnymi bazami danych (RDBMS), takich jak MySQL lub Oracle lub mainframe do Hadoop Distributed File System (HDFS) Następnie dane mogą zostać przekształcone w Hadoop MapReduce, a następnie ponownie wyekportowane z powrotem do RDBMS W tym instruktażowym szkoleniu na żywo uczestnicy dowiedzą się, jak używać Sqoop do importowania danych z tradycyjnej relacyjnej bazy danych do pamięci Hadoop, takich jak HDFS lub Hive i odwrotnie Pod koniec tego szkolenia uczestnicy będą mogli: Zainstaluj i skonfiguruj Sqoop Importuj dane z MySQL do HDFS i Hive Importuj dane z HDFS i Hive do MySQL Publiczność Administratorzy systemu Inżynierowie danych Format kursu Wykład częściowy, dyskusja częściowa, ćwiczenia i ciężka praktyka handson Uwaga Aby poprosić o indywidualne szkolenie dla tego kursu, skontaktuj się z nami w celu ustalenia szczegółów .
14 godziny
Opis
Apache Samza to open source nearrealtime, asynchroniczne środowisko obliczeniowe do przetwarzania strumienia Wykorzystuje Apache Kafka do przesyłania wiadomości, a Apache Hadoop YARN do testowania odporności na awarie, izolacji procesorów, bezpieczeństwa i zarządzania zasobami Ten instruktażowy trening na żywo wprowadza zasady obsługi systemów przesyłania wiadomości i rozproszonego przetwarzania strumieniowego, a uczestnicy przechodzą przez proces tworzenia przykładowego projektu Samzabased i wykonywania zadań Pod koniec tego szkolenia uczestnicy będą mogli: Użyj Samzy, aby uprościć kod potrzebny do tworzenia i korzystania z wiadomości Odłącz obsługę komunikatów od aplikacji Użyj Samzy, aby wykonać obliczenia asynchroniczne nearrealtime Użyj przetwarzania strumienia, aby zapewnić wyższy poziom abstrakcji w porównaniu do systemów przesyłania wiadomości Publiczność Deweloperzy Format kursu Wykład częściowy, dyskusja częściowa, ćwiczenia i ciężka praktyka handson .
7 godziny
Opis
Apache NiFi (Hortonworks DataFlow) to zintegrowana logistyka danych w czasie rzeczywistym i prosta platforma przetwarzania zdarzeń, która umożliwia przenoszenie, śledzenie i automatyzację danych między systemami. Jest napisane przy użyciu Programowanie oparte na przepływie i udostępnia interfejs użytkownika opartego na sieci Web do zarządzania przepływem danych w czasie rzeczywistym.

w tym instruktorem, szkolenia na żywo, uczestnicy nauczą się podstaw programowania opartego na przepływie, jak rozwijać szereg rozszerzeń demo, komponenty i procesory za pomocą Apache NiFi.

do końca tego szkolenia uczestnicy będą mogli:

- zrozumienie koncepcji architektury i przepływu danych NiFi & #39; s.
- rozwijanie rozszerzeń przy użyciu NiFi i interfejsów API innych firm.
- Custom rozwijać własny procesor Apache Nifi.
- Ingest i przetwarza dane w czasie rzeczywistym z różnych i niezbyt często formatów plików i źródeł danych.

Format kursu

- Interactive wykładu i dyskusji.
- wiele ćwiczeń i praktyk.
- praktyczne wdrożenie w środowisku laboratorium na żywo.

Opcje dostosowywania kursu

- Aby poprosić o szkolenia dostosowane do tego kursu, skontaktuj się z nami, aby zorganizować.
21 godziny
Opis
Apache NiFi (Hortonworks DataFlow) to zintegrowana w czasie rzeczywistym logistyka danych i prosta platforma przetwarzania zdarzeń, która umożliwia przenoszenie, śledzenie i automatyzację danych między systemami Jest napisany przy użyciu programowania bazującego na przepływach i zapewnia interfejs użytkownika oparty na sieci Web do zarządzania przepływem danych w czasie rzeczywistym Podczas tego instruktażowego szkolenia na żywo uczestnicy dowiedzą się, jak wdrażać i zarządzać Apache NiFi w środowisku laboratoryjnym Pod koniec tego szkolenia uczestnicy będą mogli: Zainstaluj i skonfiguruj Apachi NiFi Źródło, przetwarzaj i zarządzaj danymi z różnych, rozproszonych źródeł danych, w tym z baz danych i dużych jezior danych Automatyzuj przepływ danych Włącz analizę strumieniową Zastosuj różne podejścia do przetwarzania danych Przekształć Big Data i w analizy biznesowe Publiczność Administratorzy systemu Inżynierowie danych Deweloperzy DevOps Format kursu Wykład częściowy, dyskusja częściowa, ćwiczenia i ciężka praktyka handson .
14 godziny
Opis
Audience

- deweloperzy

Format kursu

- wykłady, praktyczne praktyki, małe testy po drodze, aby ocenić zrozumienie
21 godziny
Opis
Cloudera Impala to mechanizm zapytań SQL masowego przetwarzania równoległego (MPP) dla klastrów Apache Hadoop Impala umożliwia użytkownikom wysyłanie zapytań SQL o niskiej dokładności do danych przechowywanych w Hadoop Distributed File System i Apache Hbase bez konieczności przenoszenia lub przekształcania danych Publiczność Kurs przeznaczony jest dla analityków i specjalistów ds Danych przeprowadzających analizę danych przechowywanych w Hadoop za pomocą narzędzi Business Intelligence lub SQL Po tym kursie delegaci będą mogli Wyciągnij znaczące informacje z klastrów Hadoop z Impala Napisz konkretne programy, aby ułatwić Business Intelligence w Dialekcie SQL Impala Rozwiązywanie problemów z Impala .
7 godziny
Opis
Ten kurs opisuje, jak używać języka Hive SQL (AKA: Hive HQL, SQL na Hive, HiveQL) dla ludzi, którzy wyodrębniają dane z Hive .
21 godziny
Opis
Hortonworks Data Platform to otwarta platforma wsparcia Apache Hadoop, która zapewnia stabilne podstawy do opracowywania rozwiązań big data w ekosystemie Apache Hadoop Ten instruktażowy trening na żywo wprowadza Hortonworks i prowadzi uczestników przez wdrożenie rozwiązania Spark + Hadoop Pod koniec tego szkolenia uczestnicy będą mogli: Użyj Hortonworks, aby niezawodnie uruchomić Hadoop na dużą skalę Ujednolić zabezpieczenia, zarządzanie i operacje operacyjne Hadoop dzięki zwinnym analitycznym obiegom pracy Spark Używaj Hortonworks do sprawdzania, sprawdzania poprawności, certyfikowania i obsługi każdego komponentu w projekcie Spark Przetwarzaj różne typy danych, w tym strukturyzowane, nieustrukturyzowane, inmotion i atrest Publiczność Administratorzy Hadoop Format kursu Wykład częściowy, dyskusja częściowa, ćwiczenia i ciężka praktyka handson .
21 godziny
Opis
Ten kurs wprowadza HBase - sklep NoSQL na szczycie Hadoop Kurs przeznaczony jest dla programistów, którzy będą używać HBase do tworzenia aplikacji oraz administratorów, którzy będą zarządzać klastrami HBase Będziemy chodzić dewelopera przez architekturę HBase oraz modelowanie danych i tworzenie aplikacji na HBase Omówi także wykorzystanie MapReduce z HBase oraz kilka zagadnień administracyjnych związanych z optymalizacją wydajności Kurs jest bardzo poręczny z wieloma ćwiczeniami laboratoryjnymi Czas trwania : 3 dni Odbiorcy : programiści i administratorzy .
28 godziny
Opis
Hadoop to popularny system przetwarzania dużych zbiorów danych Python to język programowania wysokiego poziomu znany ze swojej czytelnej składni i czytelności kodu W tym instruktażowym szkoleniu na żywo uczestnicy dowiedzą się, jak pracować z Hadoop, MapReduce, Pig i Spark przy użyciu Pythona, ponieważ przechodzą przez wiele przykładów i przypadków użycia Pod koniec tego szkolenia uczestnicy będą mogli: Poznaj podstawowe pojęcia związane z Hadoop, MapReduce, Pig i Spark Używaj Pythona z Hadoop Distributed File System (HDFS), MapReduce, Pig i Spark Użyj Snakebite, aby programowo uzyskać dostęp do HDFS w Pythonie Użyj mrjob do napisania zadań MapReduce w Pythonie Napisz programy Spark z Pythonem Rozszerz funkcjonalność świni używając UDF typu Python Zarządzaj zadaniami MapReduce i skryptami Pig za pomocą Luigi Publiczność Deweloperzy Specjaliści IT Format kursu Wykład częściowy, dyskusja częściowa, ćwiczenia i ciężka praktyka handson .
14 godziny
Opis
Coraz więcej projektów informatycznych i oprogramowania migruje z lokalnego przetwarzania i zarządzania danymi do rozproszonego przetwarzania i przechowywania dużych ilości danych Menedżerowie projektów dostrzegają potrzebę poszerzenia swojej wiedzy i umiejętności, aby zrozumieć koncepcje i praktyki związane z projektami i możliwościami Big Data Ten kurs wprowadza Project Managerów do najpopularniejszego frameworku Big Data: Hadoop W ramach tego instruktażowego szkolenia uczestnicy poznają podstawowe elementy ekosystemu Hadoop oraz sposoby wykorzystania tych technologii do rozwiązywania problemów o dużej skali Ucząc się tych podstaw, uczestnicy poprawią również swoją zdolność komunikowania się z twórcami i wdrażającymi te systemy, a także z naukowcami i analitykami danych, których dotyczy wiele projektów informatycznych Publiczność Kierownicy projektów, którzy chcą wdrożyć Hadoop do istniejącej infrastruktury programistycznej lub informatycznej Kierownicy projektów, którzy muszą komunikować się z zespołami złożonymi z wielu funkcjonalności, w tym inżynierami big data, naukowcami danych i analitykami biznesowymi Format kursu Wykład częściowy, dyskusja częściowa, ćwiczenia i ciężka praktyka handson .
21 godziny
Opis
Apache Ambari to platforma do zarządzania otwartym dostępem do zasobów, zarządzania, monitorowania i zabezpieczania klastrów Apache Hadoop W tym instruktażu uczestnicy szkolenia na żywo poznają narzędzia i praktyki zarządzania oferowane przez Ambari do skutecznego zarządzania klastrami Hadoop Pod koniec tego szkolenia uczestnicy będą mogli: Skonfiguruj aktywne klastry Big Data przy użyciu Ambari Zastosuj zaawansowane funkcje i funkcje Ambari do różnych zastosowań Bezproblemowo dodawaj i usuwaj węzły w razie potrzeby Popraw wydajność klastra Hadoop poprzez dostrajanie i podkręcanie Publiczność DevOps Administratorzy systemu DBA Specjaliści do testowania Hadoop Format kursu Wykład częściowy, dyskusja częściowa, ćwiczenia i ciężka praktyka handson .
21 godziny
Opis
Hadoop jest najpopularniejszym frameworkiem Big Data .
21 godziny
Opis
Apache Hadoop to jedna z najpopularniejszych platform do przetwarzania Big Data na klastrach serwerów Ten kurs obejmuje zarządzanie danymi w HDFS, Advanced Pig, Hive i HBase Te zaawansowane techniki programowania będą korzystne dla doświadczonych programistów Hadoop Odbiorcy : programiści Czas trwania: trzy dni Format: wykłady (50%) i ćwiczenia laboratoryjne (50%) .
28 godziny
Opis
Apache Hadoop to najpopularniejsza platforma do przetwarzania Big Data na klastrach serwerów Ten kurs wprowadzi programistę do różnych komponentów (HDFS, MapReduce, Pig, Hive i HBase) ekosystemu Hadoop .
21 godziny
Opis
Apache Hadoop to najpopularniejszy framework do przetwarzania Big Data Hadoop zapewnia bogate i głębokie możliwości analityczne, a także wkracza w tradycyjny świat analityki BI Ten kurs wprowadzi analityka do podstawowych komponentów systemu eko Hadoop i jego analiz Publiczność Analitycy biznesowi Trwanie trzy dni Format Wykłady i ćwiczenia laboratoryjne .
21 godziny
Opis
Apache Hadoop to najpopularniejsza platforma do przetwarzania Big Data na klastrach serwerów W ciągu trzech (opcjonalnie czterech) dni uczestnicy poznają korzyści biznesowe i przypadki użycia dla Hadoop i jego ekosystemu, jak planować wdrażanie i rozwój klastrów, jak instalować, utrzymywać, monitorować, rozwiązywać problemy i optymalizować Hadoop Będą również ćwiczyć ładowanie danych masowych klastra, zapoznać się z różnymi dystrybucjami Hadoop oraz ćwiczyć instalowanie i zarządzanie narzędziami ekosystemowymi Hadoop Kurs kończy się omówieniem zabezpieczenia klastra za pomocą protokołu Kerberos " Materiały były bardzo dobrze przygotowane i pokryte starannie Laboratorium było bardzo pomocne i dobrze zorganizowane " - Andrew Nguyen, główny inżynier ds Integracji DW, reklama internetowa firmy Microsoft Publiczność Administratorzy Hadoop Format Wykłady i ćwiczenia laboratoryjne, przybliżona równowaga 60% wykładów, 40% ćwiczeń laboratoryjnych .
21 godziny
Opis
Szkolenie pozwoli w pełni zapoznać się i zrozumieć wszystkie niezbędne kroki do obsługi i utrzymywania klastra Hadoop. Dostarcza wiedzę począwszy od zagadnień związanych ze specyfikacją sprzętu, instalacją i konfiguracją systemu, aż do zagadnien związanych z równoważeniem obciążenia, strojeniem, diagnozowaniem i rozwiązywaniu problemów przy wdrożeniu.

Kurs dedykowany administratorom, którzy będą tworzyć lub/i utrzymywać klaster Hadoop.

Materiały szkoleniowe

- Materiały szkoleniowe Student Guide
- Materiały szkoleniowe Lab Guide
14 godziny
Opis
Datameer to platforma analizy biznesowej i analitycznej zbudowana na platformie Hadoop Umożliwia on użytkownikom dostępu, odkrywania i korelowania dużych, uporządkowanych, semistrukturalnych i niestrukturalnych danych w łatwy sposób W tym instruktażowym szkoleniu na żywo uczestnicy dowiedzą się, jak używać Datameer do pokonywania stromych krzywych uczenia się Hadoop, kiedy przechodzą przez proces konfiguracji i analizy szeregu dużych źródeł danych Pod koniec tego szkolenia uczestnicy będą mogli: Twórz, kurators i interaktywnie eksploruj jezioro danych przedsiębiorstwa Dostęp do hurtowni danych biznesowych, transakcyjnych baz danych i innych magazynów analitycznych Użyj interfejsu użytkownika arkusza kalkulacyjnego do zaprojektowania końcowych potoków przetwarzania danych Uzyskaj dostęp do gotowych funkcji, aby poznać złożone relacje danych Użyj kreatorów draganddrop do wizualizacji danych i tworzenia pulpitów Użyj tabel, wykresów i map do analizy wyników zapytania Publiczność Analitycy danych Format kursu Wykład częściowy, dyskusja częściowa, ćwiczenia i ciężka praktyka handson .
21 godziny
Opis
Analiza dużych danych obejmuje proces sprawdzania dużych ilości różnych zestawów danych w celu wykrycia korelacji, ukrytych wzorców i innych przydatnych wglądów Przemysł medyczny ma ogromne ilości złożonych heterogenicznych danych medycznych i klinicznych Zastosowanie analityki dużych zbiorów danych dotyczących zdrowia daje ogromny potencjał w zakresie wglądu w poprawę jakości opieki zdrowotnej Jednak ogrom tych zestawów danych stanowi wielkie wyzwanie w analizach i praktycznych zastosowaniach w środowisku klinicznym W tym instruktażowym szkoleniu na żywo (zdalnie) uczestnicy dowiedzą się, jak przeprowadzać analizy dużych zbiorów danych w stanie zdrowia, gdy będą przechodzić przez serię ćwiczonych ćwiczeń na żywo Pod koniec tego szkolenia uczestnicy będą mogli: Zainstaluj i skonfiguruj narzędzia do analizy danych dużych, takie jak Hadoop MapReduce i Spark Zapoznaj się z charakterystyką danych medycznych Zastosuj techniki big data do przetwarzania danych medycznych Przestudiuj duże systemy danych i algorytmy w kontekście aplikacji związanych ze zdrowiem Publiczność Deweloperzy Data Scientists Format kursu Wykład częściowy, dyskusja częściowa, ćwiczenia i ciężka praktyka handson Uwaga Aby poprosić o indywidualne szkolenie dla tego kursu, skontaktuj się z nami w celu ustalenia szczegółów .
28 godziny
Opis
Big Data Analyst Training to praktyczny kurs, który polecany jest każdemu, kto chce w przyszłości zostać ekspertem Data Scientist. Kurs skupia sie na aspektach potrzebnych do pracy nowoczesnego analityka w technologii Big Data. W trakcie kursu prezentowane są narzędzia pozwalające na uzyskanie dostępu, zmianę, transformację i analizę skomplikowanych struktur danych umieszczonych w klastrze Hadoop. W trakcie kursu będą poruszane tematy w ramach technologii Hadoop Ecosystem (Pig, Hive, Impala, ELK i inne).

- Funkcjonaloność narzędzi Pig, Hive, Impala, ELK, pozwalające na zbieranie danych, zapisywanie wyników i analitykę.
- Jak Pig, Hive i Impala mogą podnieść wydajność typowych i codziennych zadań analitycznych.
- Wykonywanie w czasie rzeczywistym interaktywnych analiz ogromnych zbiorów danych aby uzyskać cenne i wartościowe elementy dla biznesu oraz jak interpretować wnioski.
- Wykonywanie złożonych zapytań na bardzo dużych wolumenach danych.
21 godziny
Opis
Ten kurs jest przeznaczony dla programistów, architektów, naukowców zajmujących się danymi lub dowolnego profilu, który wymaga dostępu do danych albo intensywnie, albo regularnie Głównym celem kursu jest manipulacja danymi i transformacja Wśród narzędzi w ekosystemie Hadoop ten kurs obejmuje użycie Pig i Hive, z których oba są szeroko wykorzystywane do transformacji danych i manipulacji Szkolenie obejmuje również dane dotyczące wydajności i optymalizację wydajności Kurs jest całością rąk i jest przerywany przez prezentacje aspektów teoretycznych .
35 godziny
Opis
Głównym celem szkolenia jest zdobycie wiedzy z administracji systemem Apache Hadoop w środowiskach MapReduce oraz YARN na poziomie zaawansowanym. Tematyka szkolenia dotyczy w głównej mierze architektury systemu Hadoop, a w szczególności systemu plików HDFS oraz modeli programistycznych MapReduce i YARN oraz zagadnień związanych z planowaniem, instalacją, konfiguracją, administracją, zarządzaniem i monitorowaniem klastra systemu Hadoop. Pozostałe zagadnienia związane z tematyką BigData takie jak HBase, Cassandra, Impala, Pig, Hiver oraz Sqoop są również omówione, choć pobieżnie. Kurs przeznaczony jest w głównej mierze do specjalistów z branży IT, którzy chcą przygotować się i zdać egzamin CCAH (Cloudera Certified administrator for Apache Hadoop).
14 godziny
Opis
Tigon jest open source, w czasie rzeczywistym, lowlatency, highthroughput, native YARN, framework przetwarzania strumienia, który znajduje się na szczycie HDFS i HBase dla trwałości Aplikacje Tygon adresują przypadki użycia, takie jak wykrywanie włamań i analiz sieciowych, analiza rynku mediów społecznościowych, analiza lokalizacji i zalecenia w czasie rzeczywistym dla użytkowników Ten instruktażowy trening na żywo wprowadza podejście Tigona do mieszania przetwarzania w czasie rzeczywistym i przetwarzania wsadowego, gdy przechodzi uczestników przez tworzenie przykładowej aplikacji Pod koniec tego szkolenia uczestnicy będą mogli: Twórz wydajne aplikacje do przetwarzania strumieniowego do obsługi dużych ilości danych Przetwarzaj źródła strumieniowe, takie jak Twitter i dzienniki serwera WWW Użyj Tigona do szybkiego łączenia, filtrowania i agregowania strumieni Publiczność Deweloperzy Format kursu Wykład częściowy, dyskusja częściowa, ćwiczenia i ciężka praktyka handson .
Szkolenie Hadoop, Apache Hadoop boot camp, Szkolenia Zdalne Hadoop, szkolenie wieczorowe Hadoop, szkolenie weekendowe Apache Hadoop, Kurs Hadoop,Kursy Apache Hadoop, Trener Apache Hadoop, instruktor Apache Hadoop, kurs zdalny Apache Hadoop, edukacja zdalna Apache Hadoop, nauczanie wirtualne Apache Hadoop, lekcje UML, nauka przez internet Hadoop, e-learning Hadoop, kurs online Apache Hadoop, wykładowca Hadoop

Kursy w promocyjnej cenie

Newsletter z promocjami

Zapisz się na nasz newsletter i otrzymuj informacje o aktualnych zniżkach na kursy otwarte.
Szanujemy Twoją prywatność, dlatego Twój e-mail będzie wykorzystywany jedynie w celu wysyłki naszego newslettera, nie będzie udostępniony ani sprzedany osobom trzecim.
W dowolnej chwili możesz zmienić swoje preferencje co do otrzymywanego newslettera bądź całkowicie się z niego wypisać.

Zaufali nam

is growing fast!

We are looking to expand our presence in Poland!

As a Business Development Manager you will:

  • expand business in Poland
  • recruit local talent (sales, agents, trainers, consultants)
  • recruit local trainers and consultants

We offer:

  • Artificial Intelligence and Big Data systems to support your local operation
  • high-tech automation
  • continuously upgraded course catalogue and content
  • good fun in international team

If you are interested in running a high-tech, high-quality training and consulting business.

Apply now!