Szkolenia Hadoop

Szkolenia Hadoop

Apache Hadoop jest rozwiązaniem typu open-source implementującym dwa główne rozwiązania typu BigData firmy Google: GFS (Google File System) i model programistyczny MapReduce. Jest on kompletnym systemem służącym do przechowywania i przetwarzania dużych zbiorów danych. Hadoop wykorzystywany jest przez większość światowych liderów w dziedzinie usług opartych na chmurze obliczeniowej, takich jak Yachoo, Facebook czy LinkedIn.

Szkolenia z tematu Apache Hadoop mogą być realizowane w siedzibie klienta - lokalizacja w Polsce lub centrach szkoleniowych w lokalizacji w Polsce Szkolenie zdalne realizowane są przy użyciu interaktywnego, zdalnego pulpitu.

Opinie uczestników

★★★★★
★★★★★

Plany szkoleń z technologii Apache Hadoop

Nazwa kursu
Czas trwania
Opis
Nazwa kursu
Czas trwania
Opis
21 godzin
Python to skalowalny, elastyczny i szeroko stosowany język programowania do nauki o danych i uczenia maszynowego. Spark to silnik przetwarzania danych wykorzystywany do wyszukiwania, analizowania i przekształcania dużych zbiorów danych, a Hadoop to biblioteka oprogramowania do przechowywania i przetwarzania danych na dużą skalę. Szkolenie na żywo prowadzone przez instruktora (na miejscu lub zdalnie) jest przeznaczone dla programistów, którzy chcą używać i integrować Spark, Hadoop i Python do przetwarzania, analizowania i przekształcania dużych i złożonych zestawów danych. Po zakończeniu tego szkolenia uczestnicy będą w stanie
    Skonfigurowanie środowiska niezbędnego do rozpoczęcia przetwarzania dużych zbiorów danych za pomocą Spark, Hadoop i Python. Zrozumienie funkcji, podstawowych komponentów i architektury Spark i Hadoop. Dowiedz się, jak zintegrować Spark, Hadoop i Python w celu przetwarzania dużych zbiorów danych. Poznanie narzędzi w ekosystemie Spark (Spark MlLib, Spark Streaming, Kafka, Sqoop, Kafka i Flume). Zbuduj systemy rekomendacji oparte na filtrowaniu kolaboracyjnym podobne do Netflix, YouTube, Amazon, Spotify i Google. Wykorzystanie Apache Mahout do skalowania algorytmów uczenia maszynowego.
Format kursu
    Interaktywny wykład i dyskusja. Dużo ćwiczeń i praktyki. Praktyczne wdrożenie w środowisku live-lab.
Opcje dostosowywania kursu
    Aby zamówić niestandardowe szkolenie dla tego kursu, skontaktuj się z nami.
7 godzin
This course covers how to use Hive SQL language (AKA: Hive HQL, SQL on Hive, HiveQL) for people who extract data from Hive
14 godzin
Datameer to platforma analityczno-biznesowa oparta na Hadoop. Umożliwia użytkownikom końcowym dostęp, eksplorację i korelację dużych, ustrukturyzowanych, częściowo ustrukturyzowanych i nieustrukturyzowanych danych w łatwy w użyciu sposób. W tym prowadzonym przez instruktora szkoleniu na żywo uczestnicy dowiedzą się, jak korzystać z Datameer, aby pokonać stromą krzywą uczenia się Hadoop, przechodząc przez konfigurację i analizę szeregu dużych źródeł danych. Po zakończeniu tego szkolenia uczestnicy będą w stanie
    Tworzenie, zarządzanie i interaktywna eksploracja korporacyjnego jeziora danych [Hurtownie danych analityki biznesowej, transakcyjne bazy danych i inne magazyny analityczne. Korzystanie z interfejsu użytkownika arkusza kalkulacyjnego do projektowania kompleksowych potoków przetwarzania danych [Wstępnie wbudowane funkcje do eksploracji złożonych relacji danych Korzystanie z kreatorów "przeciągnij i upuść" do wizualizacji danych i tworzenia pulpitów nawigacyjnych korzystanie z tabel, wykresów, grafów i map do analizowania wyników zapytań
Publiczność
    Analitycy danych
Format kursu
    Część wykładu, część dyskusji, ćwiczenia i ciężka praktyka praktyczna
21 godzin
The course is dedicated to IT specialists that are looking for a solution to store and process large data sets in distributed system environment Course goal: Getting knowledge regarding Hadoop cluster administration
35 godzin
Głównym celem szkolenia jest zdobycie wiedzy z administracji systemem Apache Hadoop w środowiskach MapReduce oraz YARN na poziomie zaawansowanym. Tematyka szkolenia dotyczy w głównej mierze architektury systemu Hadoop, a w szczególności systemu plików HDFS oraz modeli programistycznych MapReduce i YARN oraz zagadnień związanych z planowaniem, instalacją, konfiguracją, administracją, zarządzaniem i monitorowaniem klastra systemu Hadoop. Pozostałe zagadnienia związane z tematyką BigData takie jak HBase, Cassandra, Impala, Pig, Hiver oraz Sqoop są również omówione, choć pobieżnie. Kurs przeznaczony jest w głównej mierze do specjalistów z branży IT, którzy chcą przygotować się i zdać egzamin CCAH (Cloudera Certified administrator for Apache Hadoop).
28 godzin
Audience: This course is intended to demystify big data/hadoop technology and to show it is not difficult to understand.
28 godzin
Apache Hadoop is the most popular framework for processing Big Data on clusters of servers. This course will introduce a developer to various components (HDFS, MapReduce, Pig, Hive and HBase) Hadoop ecosystem.  
21 godzin
Apache Hadoop to jeden z najpopularniejszych frameworków do przetwarzania Big Data na klastrach serwerów. Ten kurs zagłębia się w zarządzanie danymi w HDFS, zaawansowane Pig, Hive i HBase.  Te zaawansowane techniki programowania będą korzystne dla doświadczonych programistów Hadoop. Odbiorcy: deweloperzy Czas trwania: trzy dni Format: wykłady (50%) i praktyczne laboratoria (50%).  
21 godzin
This course introduces HBase – a NoSQL store on top of Hadoop.  The course is intended for developers who will be using HBase to develop applications,  and administrators who will manage HBase clusters. We will walk a developer through HBase architecture and data modelling and application development on HBase. It will also discuss using MapReduce with HBase, and some administration topics, related to performance optimization. The course  is very  hands-on with lots of lab exercises.
Duration : 3 days Audience : Developers  & Administrators
21 godzin
Apache Hadoop to najpopularniejszy framework do przetwarzania Big Data na klastrach serwerów. Podczas tego trzydniowego (opcjonalnie czterodniowego) kursu uczestnicy dowiedzą się o korzyściach biznesowych i przypadkach użycia Hadoop i jego ekosystemu, jak zaplanować wdrożenie i rozwój klastra, jak zainstalować, utrzymywać, monitorować, rozwiązywać problemy i optymalizować Hadoop. Uczestnicy przećwiczą również masowe ładowanie danych klastra, zapoznają się z różnymi dystrybucjami Hadoop oraz przećwiczą instalację i zarządzanie narzędziami ekosystemu Hadoop. Kurs kończy się dyskusją na temat zabezpieczania klastra za pomocą Kerberos. “… Materiały były bardzo dobrze przygotowane i dokładnie omówione. Laboratorium było bardzo pomocne i dobrze zorganizowane” — Andrew Nguyen, główny inżynier integracji DW, Microsoft Reklama online Publiczność Hadoop Administratorzy Format Wykłady i praktyczne laboratoria, około 60% wykładów, 40% laboratoriów.
21 godzin
Apache Hadoop is the most popular framework for processing Big Data. Hadoop provides rich and deep analytics capability, and it is making in-roads in to tradional BI analytics world. This course will introduce an analyst to the core components of Hadoop eco system and its analytics Audience Business Analysts Duration three days Format Lectures and hands on labs.
28 godzin
Big Data Analyst Training to praktyczny kurs, który polecany jest każdemu, kto chce w przyszłości zostać ekspertem Data Scientist. Kurs skupia sie na aspektach potrzebnych do pracy nowoczesnego analityka w technologii Big Data. W trakcie kursu prezentowane są narzędzia pozwalające na uzyskanie dostępu, zmianę, transformację i analizę skomplikowanych struktur danych umieszczonych w klastrze Hadoop. W trakcie kursu będą poruszane tematy w ramach technologii Hadoop Ecosystem (Pig, Hive, Impala, ELK i inne).
  • Funkcjonaloność narzędzi Pig, Hive, Impala, ELK, pozwalające na zbieranie danych, zapisywanie wyników i analitykę.
  • Jak Pig, Hive i Impala mogą podnieść wydajność typowych i codziennych zadań analitycznych.
  • Wykonywanie w czasie rzeczywistym interaktywnych analiz ogromnych zbiorów danych aby uzyskać cenne i wartościowe elementy dla biznesu oraz jak interpretować wnioski.
  • Wykonywanie złożonych zapytań na bardzo dużych wolumenach danych.
21 godzin
Hadoop jest najpopularniejszym Big Data frameworkiem przetwarzania danych.
14 godzin
Audience
  • Developers
Format of the Course
  • Lectures, hands-on practice, small tests along the way to gauge understanding
21 godzin
Ten kurs jest przeznaczony dla programistów, architektów, analityków danych lub dowolnego profilu, który wymaga dostępu do danych intensywnie lub regularnie. Głównym celem kursu jest manipulacja i transformacja danych. Wśród narzędzi w ekosystemie Hadoop ten kurs obejmuje wykorzystanie Pig i Hive, z których oba są intensywnie wykorzystywane do transformacji danych i manipulacji nimi. Szkolenie to dotyczy również wskaźników wydajności i optymalizacji wydajności. Kurs jest całkowicie praktyczny i jest przerywany prezentacjami aspektów teoretycznych.
14 godzin
In this instructor-led training in w Polsce, participants will learn the core components of the Hadoop ecosystem and how these technologies can be used to solve large-scale problems. By learning these foundations, participants will  improve their ability to communicate with the developers and implementers of these systems as well as the data scientists and analysts that many IT projects involve. Audience
  • Project Managers wishing to implement Hadoop into their existing development or IT infrastructure
  • Project Managers needing to communicate with cross-functional teams that include big data engineers, data scientists and business analysts
14 godzin
Apache Samza to open-source'owy, asynchroniczny framework obliczeniowy do przetwarzania strumieniowego w czasie zbliżonym do rzeczywistego.  Wykorzystuje Apache Kafka do przesyłania wiadomości oraz Apache Hadoop YARN do tolerancji błędów, izolacji procesorów, bezpieczeństwa i zarządzania zasobami. To prowadzone przez instruktora szkolenie na żywo wprowadza zasady stojące za systemami przesyłania wiadomości i rozproszonym przetwarzaniem strumieniowym, jednocześnie przeprowadzając uczestników przez tworzenie przykładowego projektu opartego na Samza i wykonywanie zadań. Po zakończeniu tego szkolenia uczestnicy będą w stanie
    Wykorzystanie Samza do uproszczenia kodu potrzebnego do tworzenia i konsumowania komunikatów. Oddzielenie obsługi komunikatów od aplikacji. Wykorzystanie Samza do implementacji asynchronicznych obliczeń w czasie zbliżonym do rzeczywistego. Wykorzystanie przetwarzania strumieniowego w celu zapewnienia wyższego poziomu abstrakcji w stosunku do systemów przesyłania komunikatów.
Publiczność
    Deweloperzy
Format kursu
    Część wykładu, część dyskusji, ćwiczenia i ciężka praktyka praktyczna
7 godzin
Alluxio to wirtualny rozproszony system pamięci masowej o otwartym kodzie źródłowym, który ujednolica różne systemy pamięci masowej i umożliwia aplikacjom interakcję z danymi z prędkością pamięci. Korzystają z niego takie firmy jak Intel, Baidu i Alibaba. W tym prowadzonym przez instruktora szkoleniu na żywo uczestnicy dowiedzą się, jak używać Alluxio do łączenia różnych struktur obliczeniowych z systemami pamięci masowej i efektywnego zarządzania danymi w skali wielu petabajtów, przechodząc przez proces tworzenia aplikacji za pomocą Alluxio. Po zakończeniu tego szkolenia uczestnicy będą w stanie
    Tworzenie aplikacji z Alluxio Łączenie systemów i aplikacji Big Data przy zachowaniu jednej przestrzeni nazw Skuteczne wydobywanie wartości z dużych zbiorów danych w dowolnym formacie pamięci masowej Poprawa wydajności obciążeń Wdrażanie i zarządzanie Alluxio w trybie autonomicznym lub klastrowym
Publiczność
    Naukowiec ds. danych Programista Administrator systemu
Format kursu
    Część wykładu, część dyskusji, ćwiczenia i ciężka praktyka praktyczna
14 godzin
Tigon to natywna platforma przetwarzania strumieniowego YARN o otwartym kodzie źródłowym, działająca w czasie rzeczywistym, charakteryzująca się niskimi opóźnieniami i wysoką przepustowością. Aplikacje Tigon dotyczą takich przypadków użycia, jak wykrywanie i analiza włamań do sieci, analiza rynku mediów społecznościowych, analiza lokalizacji i rekomendacje dla użytkowników w czasie rzeczywistym. To prowadzone przez instruktora szkolenie na żywo wprowadza podejście Tigon do łączenia przetwarzania w czasie rzeczywistym i wsadowego, przeprowadzając uczestników przez proces tworzenia przykładowej aplikacji. Po zakończeniu tego szkolenia uczestnicy będą w stanie
    Tworzenie wydajnych aplikacji przetwarzania strumieniowego do obsługi dużych ilości danych Przetwarzanie źródeł strumieniowych, takich jak Twitter i dzienniki serwerów internetowych Wykorzystaj Tigon do szybkiego łączenia, filtrowania i agregowania strumieni
Publiczność
    Deweloperzy
Format kursu
    Część wykładu, część dyskusji, ćwiczenia i ciężka praktyka praktyczna
21 godzin
Apache NiFi (Hortonworks DataFlow) to zintegrowana logistyka danych w czasie rzeczywistym i prosta platforma przetwarzania zdarzeń, która umożliwia przenoszenie, śledzenie i automatyzację danych między systemami. Jest napisana przy użyciu programowania opartego na przepływach i zapewnia internetowy interfejs użytkownika do zarządzania przepływami danych w czasie rzeczywistym. W tym prowadzonym przez instruktora szkoleniu na żywo (na miejscu lub zdalnie) uczestnicy dowiedzą się, jak wdrożyć i zarządzać Apache NiFi w środowisku laboratoryjnym na żywo. Po zakończeniu tego szkolenia uczestnicy będą w stanie
    Instalacja i konfiguracja Apachi NiFi. Pozyskuj, przekształcaj i zarządzaj danymi z różnych, rozproszonych źródeł danych, w tym baz danych i dużych jezior danych. Automatyzacja przepływu danych. Włączanie analityki strumieniowej. Stosować różne podejścia do pozyskiwania danych. Przekształcanie danych Big Data w informacje biznesowe.
Format kursu
    Interaktywny wykład i dyskusja. Dużo ćwiczeń i praktyki. Praktyczne wdrożenie w środowisku live-lab.
Opcje dostosowywania kursu
    Aby zamówić niestandardowe szkolenie dla tego kursu, skontaktuj się z nami.
7 godzin
Apache NiFi (Hortonworks DataFlow) to zintegrowana logistyka danych w czasie rzeczywistym i prosta platforma przetwarzania zdarzeń, która umożliwia przenoszenie, śledzenie i automatyzację danych między systemami. Jest napisana przy użyciu programowania opartego na przepływach i zapewnia internetowy interfejs użytkownika do zarządzania przepływami danych w czasie rzeczywistym. W tym prowadzonym przez instruktora szkoleniu na żywo uczestnicy poznają podstawy programowania opartego na przepływie, opracowując szereg rozszerzeń demonstracyjnych, komponentów i procesorów przy użyciu Apache NiFi. Po zakończeniu tego szkolenia uczestnicy będą w stanie
    Zrozumieć architekturę NiFi i koncepcje przepływu danych. Rozwijanie rozszerzeń przy użyciu NiFi i interfejsów API innych firm. Rozwijać własny procesor Apache Nifi. Pozyskiwanie i przetwarzanie danych w czasie rzeczywistym z różnych i nietypowych formatów plików i źródeł danych.
Format kursu
    Interaktywny wykład i dyskusja. Dużo ćwiczeń i praktyki. Praktyczne wdrożenie w środowisku live-lab.
Opcje dostosowywania kursu
    Aby zamówić niestandardowe szkolenie dla tego kursu, skontaktuj się z nami.
28 godzin
Hadoop to popularny framework do przetwarzania Big Data. Python to język programowania wysokiego poziomu słynący z przejrzystej składni i czytelności kodu. W tym prowadzonym przez instruktora szkoleniu na żywo uczestnicy dowiedzą się, jak pracować z Hadoop, MapReduce, Pig i Spark przy użyciu Python, przechodząc przez wiele przykładów i przypadków użycia. Po zakończeniu tego szkolenia uczestnicy będą w stanie
    Zrozumienie podstawowych pojęć związanych z Hadoop, MapReduce, Pig i Spark Używanie Python z rozproszonym systemem plików Hadoop (HDFS), MapReduce, Pig i Spark Używanie Snakebite do programowego dostępu do HDFS w ramach Python. Używanie mrjob do pisania zadań MapReduce w Python. Pisanie programów Spark za pomocą Python Rozszerzanie funkcjonalności pig przy użyciu Python UDF Zarządzanie zadaniami MapReduce i skryptami Pig przy użyciu Luigi
Publiczność
    Programiści Specjaliści IT
Format kursu
    Część wykładu, część dyskusji, ćwiczenia i ciężka praktyka praktyczna
14 godzin
Sqoop to narzędzie typu open source do przesyłania danych między Hadoop a relacyjnymi bazami danych lub komputerami mainframe. Można go używać do importowania danych z systemu zarządzania relacyjnymi bazami danych (RDBMS), takiego jak MySQL lub Oracle, lub komputera mainframe do rozproszonego systemu plików Hadoop (HDFS). Następnie dane mogą zostać przekształcone w Hadoop MapReduce, a następnie ponownie wyeksportowane do RDBMS. W tym prowadzonym przez instruktora szkoleniu na żywo uczestnicy dowiedzą się, jak używać Sqoop do importowania danych z tradycyjnej relacyjnej bazy danych do pamięci masowej Hadoop, takiej jak HDFS lub Hive i odwrotnie. Po zakończeniu tego szkolenia uczestnicy będą w stanie
    Instalacja i konfiguracja Sqoop Importowanie danych z MySQL do HDFS i Hive Importowanie danych z HDFS i Hive do MySQL
Publiczność
    Administratorzy systemów Inżynierowie danych
Format kursu
    Część wykładu, część dyskusji, ćwiczenia i ciężka praktyka praktyczna
Uwaga
    Aby zamówić niestandardowe szkolenie dla tego kursu, skontaktuj się z nami.
21 godzin
Analityka Big Data obejmuje proces badania dużych ilości różnorodnych zestawów danych w celu odkrycia korelacji, ukrytych wzorców i innych przydatnych informacji. Branża medyczna dysponuje ogromnymi ilościami złożonych, heterogenicznych danych medycznych i klinicznych. Zastosowanie analizy dużych zbiorów danych na danych dotyczących zdrowia stanowi ogromny potencjał w uzyskiwaniu wglądu w celu poprawy świadczenia opieki zdrowotnej. Jednak ogrom tych zbiorów danych stanowi ogromne wyzwanie w analizach i praktycznych zastosowaniach w środowisku klinicznym. W tym prowadzonym przez instruktora szkoleniu na żywo (zdalnie) uczestnicy dowiedzą się, jak przeprowadzić analizę dużych zbiorów danych w zakresie zdrowia, przechodząc przez serię praktycznych ćwiczeń laboratoryjnych na żywo. Po zakończeniu tego szkolenia uczestnicy będą w stanie
    Instalowanie i konfigurowanie narzędzi do analizy dużych zbiorów danych, takich jak Hadoop MapReduce i Spark. Zrozumienie charakterystyki danych medycznych Stosowanie technik big data do przetwarzania danych medycznych Badanie systemów i algorytmów big data w kontekście aplikacji zdrowotnych
Publiczność
    Programiści Naukowcy ds. danych
Format kursu
    Część wykładu, część dyskusji, ćwiczenia i ciężka praktyka praktyczna.
Uwaga
    Aby zamówić niestandardowe szkolenie dla tego kursu, skontaktuj się z nami.
35 godzin
Apache Hadoop jest popularnym frameworkiem do przetwarzania dużych zbiorów danych na wielu komputerach. Szkolenie na żywo prowadzone przez instruktora (na miejscu lub zdalnie) jest przeznaczone dla administratorów systemów, którzy chcą dowiedzieć się, jak skonfigurować, wdrożyć i zarządzać klastrami Hadoop w swojej organizacji. Po zakończeniu tego szkolenia uczestnicy będą w stanie
    Instalowanie i konfigurowanie Apache Hadoop. Zrozumienie czterech głównych komponentów ekosystemu Hadoop: HDFS, MapReduce, YARN i Hadoop Common. Wykorzystanie rozproszonego systemu plików Hadoop (HDFS) do skalowania klastra do setek lub tysięcy węzłów; Konfigurowanie HDFS do działania jako silnik pamięci masowej dla lokalnych wdrożeń Spark. Konfiguracja Spark w celu uzyskania dostępu do alternatywnych rozwiązań pamięci masowej, takich jak Amazon S3 i systemy baz danych NoSQL, takie jak Redis, Elasticsearch, Couchbase, Aerospike itp. Wykonywanie zadań administracyjnych, takich jak udostępnianie, zarządzanie, monitorowanie i zabezpieczanie klastra Apache Hadoop.
Format kursu
    Interaktywny wykład i dyskusja. Dużo ćwiczeń i praktyki. Praktyczne wdrożenie w środowisku live-lab.
Opcje dostosowywania kursu
    Aby zamówić niestandardowe szkolenie dla tego kursu, skontaktuj się z nami.
21 godzin
Cloudera Impala to silnik zapytań typu open source do masowego przetwarzania równoległego (MPP) SQL dla klastrów Apache Hadoop. Impala umożliwia użytkownikom wysyłanie zapytań o niskim opóźnieniu SQL do danych przechowywanych w rozproszonym systemie plików Hadoop i Apache Hbase bez konieczności przenoszenia lub przekształcania danych. Publiczność Ten kurs jest skierowany do analityków i badaczy danych przeprowadzających analizy danych przechowywanych w Hadoop za pośrednictwem narzędzi Business Intelligence lub SQL. Po tym kursie uczestnicy będą w stanie
    Wydobywanie istotnych informacji z klastrów Hadoop za pomocą Impala. Pisanie konkretnych programów w celu ułatwienia analizy biznesowej w Impala SQL Dialect. Rozwiązywanie problemów z Impalą.
21 godzin
Apache Ambari to platforma zarządzania typu open-source do udostępniania, zarządzania, monitorowania i zabezpieczania klastrów Apache Hadoop. W tym instruktażowym szkoleniu na żywo uczestnicy poznają narzędzia i praktyki zarządzania dostarczane przez Ambari w celu skutecznego zarządzania klastrami Hadoop. Po zakończeniu tego szkolenia uczestnicy będą w stanie
    Konfiguracja klastra Big Data na żywo przy użyciu Ambari Zastosowanie zaawansowanych funkcji i funkcjonalności Ambari w różnych przypadkach użycia Płynne dodawanie i usuwanie węzłów w razie potrzeby Poprawa wydajności klastra Hadoop poprzez dostrajanie i modyfikowanie
Publiczność
    DevOps Administratorzy systemów DBA Hadoop Specjaliści ds. testowania
Format kursu
    Część wykładu, część dyskusji, ćwiczenia i ciężka praktyka praktyczna
21 godzin
Hortonworks Data Platform (HDP) to platforma wsparcia Apache Hadoop o otwartym kodzie źródłowym, która zapewnia stabilną podstawę do opracowywania rozwiązań Big Data w ekosystemie Apache Hadoop. To prowadzone przez instruktora szkolenie na żywo (na miejscu lub zdalnie) wprowadza Hortonworks Data Platform (HDP) i przeprowadza uczestników przez wdrożenie rozwiązania Spark + Hadoop. Po zakończeniu tego szkolenia uczestnicy będą w stanie
    Wykorzystaj Hortonworks do niezawodnego uruchamiania Hadoop na dużą skalę. Ujednolicenie zabezpieczeń, zarządzania i możliwości operacyjnych Hadoop ze zwinnymi analitycznymi przepływami pracy Spark. Wykorzystaj Hortonworks do badania, walidacji, certyfikacji i wsparcia każdego z komponentów projektu Spark. Przetwarzanie różnych typów danych, w tym ustrukturyzowanych, nieustrukturyzowanych, w ruchu i w spoczynku.
Format kursu
    Interaktywny wykład i dyskusja. Dużo ćwiczeń i praktyki. Praktyczne wdrożenie w środowisku live-lab.
Opcje dostosowywania kursu
    Aby zamówić niestandardowe szkolenie dla tego kursu, skontaktuj się z nami.

Last Updated:

Szkolenie Hadoop, Apache Hadoop boot camp, Szkolenia Zdalne Hadoop, szkolenie wieczorowe Hadoop, szkolenie weekendowe Apache Hadoop, Kurs Hadoop,Kursy Apache Hadoop, Trener Apache Hadoop, instruktor Apache Hadoop, kurs zdalny Apache Hadoop, edukacja zdalna Apache Hadoop, nauczanie wirtualne Apache Hadoop, lekcje UML, nauka przez internet Hadoop, e-learning Hadoop, kurs online Apache Hadoop, wykładowca Hadoop

Kursy w promocyjnej cenie

No course discounts for now.

Newsletter z promocjami

Zapisz się na nasz newsletter i otrzymuj informacje o aktualnych zniżkach na kursy otwarte.
Szanujemy Twoją prywatność, dlatego Twój e-mail będzie wykorzystywany jedynie w celu wysyłki naszego newslettera, nie będzie udostępniony ani sprzedany osobom trzecim.
W dowolnej chwili możesz zmienić swoje preferencje co do otrzymywanego newslettera bądź całkowicie się z niego wypisać.

Zaufali nam

This site in other countries/regions