Szkolenia Hadoop

Szkolenia Hadoop

Apache Hadoop jest rozwiązaniem typu open-source implementującym dwa główne rozwiązania typu BigData firmy Google: GFS (Google File System) i model programistyczny MapReduce. Jest on kompletnym systemem służącym do przechowywania i przetwarzania dużych zbiorów danych. Hadoop wykorzystywany jest przez większość światowych liderów w dziedzinie usług opartych na chmurze obliczeniowej, takich jak Yachoo, Facebook czy LinkedIn.

Szkolenia z tematu Apache Hadoop mogą być realizowane w siedzibie klienta - lokalizacja w Polsce lub centrach szkoleniowych w lokalizacji w Polsce Szkolenie zdalne realizowane są przy użyciu interaktywnego, zdalnego pulpitu.

Opinie uczestników

★★★★★
★★★★★

Plany szkoleń z technologii Apache Hadoop

Nazwa kursu
Czas trwania
Opis
Nazwa kursu
Czas trwania
Opis
21 godzin
Python jest skalowalnym, elastycznym i szeroko stosowanym językiem programowania dla nauk danych i uczenia się maszynowego. Spark to silnik przetwarzania danych wykorzystywany w wyszukiwaniu, analizowaniu i przekształcaniu dużych danych, podczas gdy Hadoop to ramy biblioteki oprogramowania do przechowywania i przetwarzania danych na dużą skalę. Ten szkolenie na żywo prowadzone przez instruktora (online lub on-site) jest skierowane do deweloperów, którzy chcą wykorzystać i zintegrować Spark, Hadoop, i Python do przetwarzania, analizowania i przekształcania dużych i złożonych zestawów danych. Po zakończeniu szkolenia uczestnicy będą mogli:
    Stwórz niezbędne środowisko do rozpoczęcia przetwarzania dużych danych za pomocą Spark, Hadoop, i Python. Zrozum cechy, podstawowe składniki i architektura Spark i Hadoop. Dowiedz się, jak zintegrować Spark, Hadoop, i Python do przetwarzania dużych danych. Odkryj narzędzia w ekosystemie Spark (Spark MlLib, Spark Streaming, Kafka, Sqoop, Kafka i Flume). Zbuduj współpracujące systemy polecania filtracji podobne do Netflix, YouTube, Amazon, Spotify i Google. Użyj Apache Mahout do skali algorytmów uczenia się maszynowego.
Format kursu
    Interaktywne wykłady i dyskusje. Dużo ćwiczeń i praktyk. Wdrażanie rąk w środowisku Live-Lab.
Opcje dostosowania kursu
    Aby poprosić o dostosowane szkolenie dla tego kursu, prosimy o kontakt, aby zorganizować.
7 godzin
This course covers how to use Hive SQL language (AKA: Hive HQL, SQL on Hive, HiveQL) for people who extract data from Hive
14 godzin
Datameer to platforma analizy biznesowej i analitycznej zbudowana na platformie Hadoop Umożliwia on użytkownikom dostępu, odkrywania i korelowania dużych, uporządkowanych, semistrukturalnych i niestrukturalnych danych w łatwy sposób W tym instruktażowym szkoleniu na żywo uczestnicy dowiedzą się, jak używać Datameer do pokonywania stromych krzywych uczenia się Hadoop, kiedy przechodzą przez proces konfiguracji i analizy szeregu dużych źródeł danych Pod koniec tego szkolenia uczestnicy będą mogli: Twórz, kurators i interaktywnie eksploruj jezioro danych przedsiębiorstwa Dostęp do hurtowni danych biznesowych, transakcyjnych baz danych i innych magazynów analitycznych Użyj interfejsu użytkownika arkusza kalkulacyjnego do zaprojektowania końcowych potoków przetwarzania danych Uzyskaj dostęp do gotowych funkcji, aby poznać złożone relacje danych Użyj kreatorów draganddrop do wizualizacji danych i tworzenia pulpitów Użyj tabel, wykresów i map do analizy wyników zapytania Publiczność Analitycy danych Format kursu Wykład częściowy, dyskusja częściowa, ćwiczenia i ciężka praktyka handson .
21 godzin
The course is dedicated to IT specialists that are looking for a solution to store and process large data sets in distributed system environment Course goal: Getting knowledge regarding Hadoop cluster administration
35 godzin
Głównym celem szkolenia jest zdobycie wiedzy z administracji systemem Apache Hadoop w środowiskach MapReduce oraz YARN na poziomie zaawansowanym. Tematyka szkolenia dotyczy w głównej mierze architektury systemu Hadoop, a w szczególności systemu plików HDFS oraz modeli programistycznych MapReduce i YARN oraz zagadnień związanych z planowaniem, instalacją, konfiguracją, administracją, zarządzaniem i monitorowaniem klastra systemu Hadoop. Pozostałe zagadnienia związane z tematyką BigData takie jak HBase, Cassandra, Impala, Pig, Hiver oraz Sqoop są również omówione, choć pobieżnie. Kurs przeznaczony jest w głównej mierze do specjalistów z branży IT, którzy chcą przygotować się i zdać egzamin CCAH (Cloudera Certified administrator for Apache Hadoop).
28 godzin
Audience: This course is intended to demystify big data/hadoop technology and to show it is not difficult to understand.
28 godzin
Apache Hadoop is the most popular framework for processing Big Data on clusters of servers. This course will introduce a developer to various components (HDFS, MapReduce, Pig, Hive and HBase) Hadoop ecosystem.  
21 godzin
Apache Hadoop to jedna z najpopularniejszych platform do przetwarzania Big Data na klastrach serwerów. Kurs obejmuje zarządzanie danymi w HDFS, zaawansowane Pig, Hive i HBase. Te zaawansowane techniki programowania będą korzystne dla doświadczonych programistów Hadoop . Odbiorcy : programiści Czas trwania: trzy dni Format: wykłady (50%) i ćwiczenia praktyczne (50%).
21 godzin
This course introduces HBase – a NoSQL store on top of Hadoop.  The course is intended for developers who will be using HBase to develop applications,  and administrators who will manage HBase clusters. We will walk a developer through HBase architecture and data modelling and application development on HBase. It will also discuss using MapReduce with HBase, and some administration topics, related to performance optimization. The course  is very  hands-on with lots of lab exercises.
Duration : 3 days Audience : Developers  & Administrators
21 godzin
Apache Hadoop to najpopularniejszy framework do przetwarzania Big Data na klastrach serwerów. W ciągu trzech (opcjonalnie czterech) dni uczestnicy dowiedzą się o korzyściach biznesowych i przypadkach użycia Hadoop i jego ekosystemu, jak zaplanować wdrożenie i rozwój klastra, jak zainstalować, utrzymywać, monitorować, rozwiązywać problemy i optymalizować Hadoop . Będą również ćwiczyć ładowanie danych zbiorczych klastra, zapoznać się z różnymi dystrybucjami Hadoop i przećwiczyć instalowanie i zarządzanie narzędziami ekosystemu Hadoop . Kurs kończy się dyskusją na temat zabezpieczenia klastra za pomocą Kerberos. „… Materiały były bardzo dobrze przygotowane i dokładnie pokryte. Laboratorium było bardzo pomocne i dobrze zorganizowane ”
- Andrew Nguyen, główny inżynier ds. Integracji, Microsoft Online Advertising Publiczność Administratorzy Hadoop Format Wykłady i ćwiczenia praktyczne, przybliżona równowaga 60% wykładów, 40% laboratoriów.
21 godzin
Apache Hadoop is the most popular framework for processing Big Data. Hadoop provides rich and deep analytics capability, and it is making in-roads in to tradional BI analytics world. This course will introduce an analyst to the core components of Hadoop eco system and its analytics Audience Business Analysts Duration three days Format Lectures and hands on labs.
28 godzin
Big Data Analyst Training to praktyczny kurs, który polecany jest każdemu, kto chce w przyszłości zostać ekspertem Data Scientist. Kurs skupia sie na aspektach potrzebnych do pracy nowoczesnego analityka w technologii Big Data. W trakcie kursu prezentowane są narzędzia pozwalające na uzyskanie dostępu, zmianę, transformację i analizę skomplikowanych struktur danych umieszczonych w klastrze Hadoop. W trakcie kursu będą poruszane tematy w ramach technologii Hadoop Ecosystem (Pig, Hive, Impala, ELK i inne).
  • Funkcjonaloność narzędzi Pig, Hive, Impala, ELK, pozwalające na zbieranie danych, zapisywanie wyników i analitykę.
  • Jak Pig, Hive i Impala mogą podnieść wydajność typowych i codziennych zadań analitycznych.
  • Wykonywanie w czasie rzeczywistym interaktywnych analiz ogromnych zbiorów danych aby uzyskać cenne i wartościowe elementy dla biznesu oraz jak interpretować wnioski.
  • Wykonywanie złożonych zapytań na bardzo dużych wolumenach danych.
21 godzin
Hadoop to najpopularniejsza struktura przetwarzania Big Data .
14 godzin
Audience
  • Developers
Format of the Course
  • Lectures, hands-on practice, small tests along the way to gauge understanding
21 godzin

Ten kurs jest przeznaczony dla programistów, architektów, naukowców zajmujących się danymi lub dowolnego profilu, który wymaga dostępu do danych intensywnie lub regularnie. Głównym celem kursu jest manipulacja i transformacja danych. Wśród narzędzi w ekosystemie Hadoop ten kurs obejmuje użycie Pig i Hive które są mocno wykorzystywane do transformacji danych i manipulacji. Szkolenie to dotyczy również wskaźników wydajności i optymalizacji wydajności. Kurs jest całkowicie praktyczny i przerywany prezentacjami aspektów teoretycznych.
14 godzin
In this instructor-led training in w Polsce, participants will learn the core components of the Hadoop ecosystem and how these technologies can be used to solve large-scale problems. By learning these foundations, participants will  improve their ability to communicate with the developers and implementers of these systems as well as the data scientists and analysts that many IT projects involve. Audience
  • Project Managers wishing to implement Hadoop into their existing development or IT infrastructure
  • Project Managers needing to communicate with cross-functional teams that include big data engineers, data scientists and business analysts
14 godzin
Apache Samza jest asynchronicznym szkieletem obliczeniowym typu open-source, działającym w czasie rzeczywistym, do przetwarzania strumieniowego. Wykorzystuje Apache Kafka do przesyłania wiadomości, a Apache Hadoop YARN do odporności na błędy, izolacji procesora, bezpieczeństwa i zarządzania zasobami. Ten prowadzony przez instruktora trening na żywo wprowadza zasady dotyczące systemów przesyłania wiadomości i przetwarzania rozproszonego strumienia, podczas gdy uczestnicy chodzą poprzez tworzenie przykładowego projektu opartego na Samzie i realizacji zadań. Pod koniec tego szkolenia uczestnicy będą mogli:
  • Użyj Samzy, aby uprościć kod potrzebny do tworzenia i konsumowania wiadomości.
  • Oddziel obsługę wiadomości od aplikacji.
  • Użyj Samza do implementacji obliczeń asynchronicznych w czasie zbliżonym do rzeczywistego.
  • Użyj przetwarzania strumieniowego, aby zapewnić wyższy poziom abstrakcji w systemach przesyłania wiadomości.
Publiczność
  • Deweloperzy
Format kursu
  • Wykład częściowy, dyskusja częściowa, ćwiczenia i ciężka praktyka praktyczna
7 godzin
Alluxio to open-source wirtualny dystrybuowany system pamięci, który łączy różne systemy pamięci i umożliwia aplikacje do interakcji z danymi w prędkości pamięci. Jest używany przez firmy takie jak Intel, Baidu i Alibaba. W tym szkoleniu prowadzonym przez instruktora, uczestnicy uczą się, jak używać Alluxio do łączenia różnych ram obliczeniowych z systemami przechowywania i skutecznie zarządzać wielopetabytowymi danymi, gdy przechodzą przez tworzenie aplikacji z Alluxio. Po zakończeniu szkolenia uczestnicy będą mogli:
    Rozwijanie aplikacji z Alluxio Połączenie dużych systemów danych i aplikacji przy jednoczesnym utrzymaniu nazwiska Efektywnie wydobywa wartość z dużych danych w dowolnym formacie przechowywania Poprawa wydajności pracy Rozmieszczenie i zarządzanie Alluxio samodzielnie lub grupowane
publiczność
    Naukowcy danych Rozwój Administrator systemu
Format kursu
    Częściowe wykłady, częściowe dyskusje, ćwiczenia i ciężkie praktyki
14 godzin
Tigon jest open source, w czasie rzeczywistym, lowlatency, highthroughput, native YARN, framework przetwarzania strumienia, który znajduje się na szczycie HDFS i HBase dla trwałości Aplikacje Tygon adresują przypadki użycia, takie jak wykrywanie włamań i analiz sieciowych, analiza rynku mediów społecznościowych, analiza lokalizacji i zalecenia w czasie rzeczywistym dla użytkowników Ten instruktażowy trening na żywo wprowadza podejście Tigona do mieszania przetwarzania w czasie rzeczywistym i przetwarzania wsadowego, gdy przechodzi uczestników przez tworzenie przykładowej aplikacji Pod koniec tego szkolenia uczestnicy będą mogli: Twórz wydajne aplikacje do przetwarzania strumieniowego do obsługi dużych ilości danych Przetwarzaj źródła strumieniowe, takie jak Twitter i dzienniki serwera WWW Użyj Tigona do szybkiego łączenia, filtrowania i agregowania strumieni Publiczność Deweloperzy Format kursu Wykład częściowy, dyskusja częściowa, ćwiczenia i ciężka praktyka handson .
21 godzin
Apache NiFi (Hortonworks DataFlow) to zintegrowana logistyka danych w czasie rzeczywistym i prosta platforma przetwarzania zdarzeń, która umożliwia przenoszenie, śledzenie i automatyzację danych między systemami. Jest napisany przy użyciu programowania opartego na przepływach i zapewnia interfejs użytkownika oparty na sieci WWW do zarządzania przepływami danych w czasie rzeczywistym. W tym prowadzonym przez instruktora szkoleniu na żywo (na miejscu lub zdalnie) uczestnicy dowiedzą się, jak wdrożyć i zarządzać Apache NiFi w środowisku laboratoryjnym. Pod koniec tego szkolenia uczestnicy będą mogli:
  • Zainstaluj i skonfiguruj Apachi NiFi.
  • Źródło, transformacja i zarządzanie danymi z różnych rozproszonych źródeł danych, w tym baz danych i jezior dużych zbiorów danych.
  • Automatyzuj przepływ danych.
  • Włącz analizę strumieniową.
  • Zastosuj różne podejścia do przyjmowania danych.
  • Przekształć Big Data i spostrzeżenia biznesowe.
Format kursu
  • Interaktywny wykład i dyskusja.
  • Wiele ćwiczeń i ćwiczeń.
  • Praktyczne wdrożenie w środowisku laboratoryjnym na żywo.
Opcje dostosowywania kursu
  • Aby poprosić o niestandardowe szkolenie na ten kurs, skontaktuj się z nami w celu umówienia.
7 godzin
Apache NiFi (Hortonworks DataFlow) to zintegrowana logistyka danych w czasie rzeczywistym i prosta platforma przetwarzania zdarzeń, która umożliwia przenoszenie, śledzenie i automatyzację danych między systemami. Jest napisany przy użyciu programowania opartego na przepływach i zapewnia interfejs użytkownika oparty na sieci WWW do zarządzania przepływami danych w czasie rzeczywistym. W tym prowadzonym przez instruktora szkoleniu na żywo uczestnicy poznają podstawy programowania opartego na przepływach, ponieważ opracowują szereg rozszerzeń demonstracyjnych, komponentów i procesorów wykorzystujących Apache NiFi . Pod koniec tego szkolenia uczestnicy będą mogli:
  • Zrozumienie koncepcji architektury i przepływu danych NiFi.
  • Twórz rozszerzenia za pomocą NiFi i interfejsów API innych firm.
  • Niestandardowe opracowanie własnego procesora Apache Nifi.
  • Odbieraj i przetwarzaj dane w czasie rzeczywistym z różnych i nietypowych formatów plików i źródeł danych.
Format kursu
  • Interaktywny wykład i dyskusja.
  • Wiele ćwiczeń i ćwiczeń.
  • Praktyczne wdrożenie w środowisku laboratoryjnym na żywo.
Opcje dostosowywania kursu
  • Aby poprosić o niestandardowe szkolenie na ten kurs, skontaktuj się z nami w celu umówienia.
28 godzin
Hadoop jest popularnym Big Data ramy przetwarzania. Python jest językiem programowania na wysokim poziomie znany ze swojej wyraźnej syntazy i czytelności kodów. W tym szkoleniu prowadzonym przez instruktora, uczestnicy dowiedzą się, jak pracować z Hadoop, MapReduce, Pig i Spark przy użyciu Python, gdy przechodzą przez kilka przykładów i używają przypadków. Po zakończeniu szkolenia uczestnicy będą mogli:
    Zrozum podstawowe pojęcia za Hadoop, MapReduce, Pig i Spark Użyj Python z Hadoop Dystrybuowany system plików (HDFS), MapReduce, Pig i Spark Użyj Snakebite, aby programowo uzyskać dostęp do HDFS w ramach Python Użyj mrjob do pisania prac MapReduce w Python Napisz programy Spark z Python Rozszerz funkcjonalność świń za pomocą Python UDF Zarządzanie MapReduce prace i pisma świń za pomocą Luigi
publiczność
    Twórcy IT profesjonalistów
Format kursu
    Częściowe wykłady, częściowe dyskusje, ćwiczenia i ciężkie praktyki
14 godzin
Sqoop to otwarte oprogramowanie do przesyłania danych między Hadoop a relacyjnymi bazami danych lub komputerami mainframe. Może być wykorzystywany do importowania danych z systemu zarządzania relacyjnymi bazami danych (RDBMS), takiego jak My SQL lub Oracle lub komputer mainframe, do Hadoop Distributed File System (HDFS). Następnie dane można przekształcić w Hadoop MapReduce, a następnie ponownie wyeksportować z powrotem do RDBMS. W tym prowadzonym przez instruktora szkoleniu na żywo uczestnicy dowiedzą się, jak używać Sqoop do importowania danych z tradycyjnej relacyjnej bazy danych do pamięci Hadoop takiej jak HDFS lub Hive i odwrotnie. Pod koniec tego szkolenia uczestnicy będą mogli:
  • Zainstaluj i skonfiguruj Sqoop
  • Importuj dane z My SQL do HDFS i Hive
  • Importuj dane z HDFS i Hive do My SQL
Publiczność
  • Administratorzy systemu
  • Inżynierowie danych
Format kursu
  • Wykład częściowy, dyskusja częściowa, ćwiczenia i ciężka praktyka praktyczna
Uwaga
  • Aby poprosić o niestandardowe szkolenie na ten kurs, skontaktuj się z nami w celu umówienia.
21 godzin
Analiza dużych danych polega na badaniu dużych ilości różnych zestawów danych w celu wykrycia korelacji, ukrytych wzorców i innych przydatnych informacji. Branża medyczna ma ogromne ilości złożonych heterogenicznych danych medycznych i klinicznych. Zastosowanie analityki dużych zbiorów danych dotyczących zdrowia ma ogromny potencjał w uzyskiwaniu wglądu w poprawę świadczenia opieki zdrowotnej. Ogrom tych zbiorów danych stanowi jednak ogromne wyzwanie w analizach i praktycznych zastosowaniach w środowisku klinicznym. W tym prowadzonym przez instruktora szkoleniu na żywo (zdalnie) uczestnicy dowiedzą się, jak wykonywać analitykę dużych danych w zakresie zdrowia, przechodząc przez serię praktycznych ćwiczeń laboratoryjnych na żywo. Pod koniec tego szkolenia uczestnicy będą mogli:
  • Zainstaluj i skonfiguruj narzędzia do analizy dużych danych, takie jak Hadoop MapReduce i Spark
  • Zrozum charakterystykę danych medycznych
  • Zastosuj techniki big data do radzenia sobie z danymi medycznymi
  • Badanie systemów i algorytmów dużych zbiorów danych w kontekście aplikacji zdrowotnych
Publiczność
  • Deweloperzy
  • Naukowcy danych
Format kursu
  • Wykład częściowy, dyskusja częściowa, ćwiczenia i ciężka praktyka praktyczna.
Uwaga
  • Aby poprosić o niestandardowe szkolenie na ten kurs, skontaktuj się z nami w celu umówienia.
35 godzin
Apache Hadoop to popularny system przetwarzania danych do przetwarzania dużych zestawów danych na wielu komputerach. Ten szkolenie na żywo prowadzone przez instruktora (online lub on-site) jest skierowane do administratorów systemów, którzy chcą dowiedzieć się, jak ustawić, uruchomić i zarządzać grupami Hadoop w swojej organizacji. Po zakończeniu szkolenia uczestnicy będą mogli:
    Instalacja i konfiguracja Apache Hadoop. Zrozum cztery główne elementy w ekosystemie Hadoop: HDFS, MapReduce, YARN i Hadoop Common. Użyj Hadoop Distributed File System (HDFS) do skalowania klastru do setek lub tysięcy węzłów. •   Zainstaluj HDFS, aby działać jako silnik magazynowy dla wstępnych deploymentów Spark. Zainstaluj Spark, aby uzyskać dostęp do alternatywnych rozwiązań magazynowych, takich jak Amazon S3 i NoSQL systemy baz danych, takie jak Redis, Elasticsearch, Couchbase, Aerospike, itp. Wykonaj zadania administracyjne, takie jak dostarczanie, zarządzanie, monitorowanie i zabezpieczenie klastru Apache Hadoop.
Format kursu
    Interaktywne wykłady i dyskusje. Dużo ćwiczeń i praktyk. Wdrażanie rąk w środowisku Live-Lab.
Opcje dostosowania kursu
    Aby poprosić o dostosowane szkolenie dla tego kursu, prosimy o kontakt, aby zorganizować.
21 godzin
Cloudera Impala jest otwartym źródłem masywnie równoległego przetwarzania (MPP) SQL wyszukiwarki dla klastrów Apache Hadoop. Impala umożliwia użytkownikom wydanie zapytania o dane o niskiej częstotliwości SQL do danych przechowywanych w Hadoop Dystrybuowanym Systemie Archiwum i Apache Hbase bez konieczności przepływu danych lub transformacji. publiczność Kurs ten jest skierowany do analityków i naukowców danych, którzy przeprowadzają analizę danych przechowywanych w Hadoop za pośrednictwem Business Intelligence lub SQL narzędzi. Po zakończeniu tego kursu przedstawiciele będą mogli
    Wyciągnij znaczące informacje z Hadoop grup z Impala. Wpisz konkretne programy, aby ułatwić Business Intelligence w Impala SQL Dialect. Rozwiązanie problemów Impala.
21 godzin
Apache Ambari to otwarta platforma do zarządzania, zarządzania, monitorowania i zabezpieczania klastrów Apache Hadoop . W tym prowadzonym przez instruktora szkoleniu uczestnicy zapoznają się z narzędziami zarządzania i praktykami dostarczonymi przez Ambari, aby skutecznie zarządzać klastrami Hadoop . Pod koniec tego szkolenia uczestnicy będą mogli:
  • Skonfiguruj na żywo klaster Big Data przy użyciu Ambari
  • Zastosuj zaawansowane funkcje i funkcje Ambari w różnych przypadkach użycia
  • Bezproblemowo dodawaj i usuwaj węzły według potrzeb
  • Popraw wydajność klastra Hadoop dzięki tuningowi i ulepszaniu
Publiczność
  • DevOps
  • Administratorzy systemu
  • DBA
  • Specjaliści od testów Hadoop
Format kursu
  • Wykład częściowy, dyskusja częściowa, ćwiczenia i ciężka praktyka praktyczna
21 godzin
Hortonworks Data Platform (HDP) to platforma obsługi Apache Hadoop typu open source, która zapewnia stabilne podstawy do opracowywania rozwiązań Big Data w ekosystemie Apache Hadoop . Szkolenie na żywo prowadzone przez instruktora (na miejscu lub zdalnie) przedstawia Hortonworks Data Platform (HDP) i prowadzi uczestników przez wdrożenie rozwiązania Spark + Hadoop . Pod koniec tego szkolenia uczestnicy będą mogli:
  • Użyj Hortonworks, aby niezawodnie uruchamiać Hadoop na dużą skalę.
  • Ujednolic funkcje bezpieczeństwa, zarządzania i operacji w Hadoop dzięki zwinnym analitycznym przepływom pracy Spark.
  • Użyj Hortonworks do zbadania, sprawdzenia, certyfikacji i wsparcia każdego z komponentów w projekcie Spark.
  • Przetwarzaj różne rodzaje danych, w tym dane ustrukturyzowane, nieustrukturyzowane, w ruchu i spoczynku.
Format kursu
  • Interaktywny wykład i dyskusja.
  • Dużo ćwiczeń i ćwiczeń.
  • Praktyczne wdrożenie w środowisku na żywo.
Opcje dostosowywania kursu
  • Aby poprosić o niestandardowe szkolenie dla tego kursu, skontaktuj się z nami w celu umówienia się.

Last Updated:

Nadchodzące szkolenia z technologii Hadoop

Szkolenie Hadoop, Apache Hadoop boot camp, Szkolenia Zdalne Hadoop, szkolenie wieczorowe Hadoop, szkolenie weekendowe Apache Hadoop, Kurs Hadoop,Kursy Apache Hadoop, Trener Apache Hadoop, instruktor Apache Hadoop, kurs zdalny Apache Hadoop, edukacja zdalna Apache Hadoop, nauczanie wirtualne Apache Hadoop, lekcje UML, nauka przez internet Hadoop, e-learning Hadoop, kurs online Apache Hadoop, wykładowca Hadoop

Kursy w promocyjnej cenie

Newsletter z promocjami

Zapisz się na nasz newsletter i otrzymuj informacje o aktualnych zniżkach na kursy otwarte.
Szanujemy Twoją prywatność, dlatego Twój e-mail będzie wykorzystywany jedynie w celu wysyłki naszego newslettera, nie będzie udostępniony ani sprzedany osobom trzecim.
W dowolnej chwili możesz zmienić swoje preferencje co do otrzymywanego newslettera bądź całkowicie się z niego wypisać.

Zaufali nam

This site in other countries/regions