Szkolenia Hadoop

Szkolenia Hadoop

Apache Hadoop jest rozwiązaniem typu open-source implementującym dwa główne rozwiązania typu BigData firmy Google: GFS (Google File System) i model programistyczny MapReduce. Jest on kompletnym systemem służącym do przechowywania i przetwarzania dużych zbiorów danych. Hadoop wykorzystywany jest przez większość światowych liderów w dziedzinie usług opartych na chmurze obliczeniowej, takich jak Yachoo, Facebook czy LinkedIn.

Szkolenia z tematu Apache Hadoop mogą być realizowane w siedzibie klienta - lokalizacja w Polsce lub centrach szkoleniowych w lokalizacji w Polsce Szkolenie zdalne realizowane są przy użyciu interaktywnego, zdalnego pulpitu.

Opinie uczestników

★★★★★
★★★★★

Plany szkoleń z technologii Apache Hadoop

Nazwa kursu
Czas trwania
Opis
Nazwa kursu
Czas trwania
Opis
7 hours
Opis
Alluxio to wirtualny rozproszony system pamięci masowej typu open source, który ujednolica różne systemy pamięci masowej i umożliwia aplikacjom interakcję z danymi z prędkością pamięci. Korzystają z niego takie firmy jak Intel, Baidu i Alibaba.

W tym instruktażowym szkoleniu na żywo uczestnicy dowiedzą się, jak używać Alluxio do łączenia różnych struktur obliczeniowych z systemami pamięci masowej i efektywnego zarządzania danymi w skali wielu petabajtów podczas przechodzenia przez proces tworzenia aplikacji za pomocą Alluxio .

Pod koniec tego szkolenia uczestnicy będą mogli:

- Opracuj aplikację za pomocą Alluxio
- Połącz systemy i aplikacje Big Data, zachowując jedną przestrzeń nazw
- Skutecznie wydobywaj wartość z dużych zbiorów danych w dowolnym formacie przechowywania
- Popraw wydajność obciążenia
- Wdróż i zarządzaj Alluxio samodzielny lub klastrowany

Publiczność

- Naukowiec
- Deweloper
- Administrator systemu

Format kursu

- Część wykładu, część dyskusji, ćwiczenia i ciężka praktyka
28 hours
Opis
Publiczność:

Ten kurs ma na celu demistyfikację technologii big data / hadoop i pokazanie, że nie jest to trudne do zrozumienia.
14 hours
Opis
Sqoop to otwarte oprogramowanie do przesyłania danych między Hadoop a relacyjnymi bazami danych lub komputerami mainframe. Może być wykorzystywany do importowania danych z systemu zarządzania relacyjnymi bazami danych (RDBMS), takiego jak My SQL lub Oracle lub komputer mainframe, do Hadoop Distributed File System (HDFS). Następnie dane można przekształcić w Hadoop MapReduce, a następnie ponownie wyeksportować z powrotem do RDBMS.

W tym prowadzonym przez instruktora szkoleniu na żywo uczestnicy dowiedzą się, jak używać Sqoop do importowania danych z tradycyjnej relacyjnej bazy danych do pamięci Hadoop takiej jak HDFS lub Hive i odwrotnie.

Pod koniec tego szkolenia uczestnicy będą mogli:

- Zainstaluj i skonfiguruj Sqoop
- Importuj dane z My SQL do HDFS i Hive
- Importuj dane z HDFS i Hive do My SQL

Publiczność

- Administratorzy systemu
- Inżynierowie danych

Format kursu

- Wykład częściowy, dyskusja częściowa, ćwiczenia i ciężka praktyka praktyczna

Uwaga

- Aby poprosić o niestandardowe szkolenie na ten kurs, skontaktuj się z nami w celu umówienia.
14 hours
Opis
Apache Samza jest asynchronicznym szkieletem obliczeniowym typu open-source, działającym w czasie rzeczywistym, do przetwarzania strumieniowego. Wykorzystuje Apache Kafka do przesyłania wiadomości, a Apache Hadoop YARN do odporności na błędy, izolacji procesora, bezpieczeństwa i zarządzania zasobami.

Ten prowadzony przez instruktora trening na żywo wprowadza zasady dotyczące systemów przesyłania wiadomości i przetwarzania rozproszonego strumienia, podczas gdy uczestnicy chodzą poprzez tworzenie przykładowego projektu opartego na Samzie i realizacji zadań.

Pod koniec tego szkolenia uczestnicy będą mogli:

- Użyj Samzy, aby uprościć kod potrzebny do tworzenia i konsumowania wiadomości.
- Oddziel obsługę wiadomości od aplikacji.
- Użyj Samza do implementacji obliczeń asynchronicznych w czasie zbliżonym do rzeczywistego.
- Użyj przetwarzania strumieniowego, aby zapewnić wyższy poziom abstrakcji w systemach przesyłania wiadomości.

Publiczność

- Deweloperzy

Format kursu

- Wykład częściowy, dyskusja częściowa, ćwiczenia i ciężka praktyka praktyczna
7 hours
Opis
Apache NiFi (Hortonworks DataFlow) to zintegrowana logistyka danych w czasie rzeczywistym i prosta platforma przetwarzania zdarzeń, która umożliwia przenoszenie, śledzenie i automatyzację danych między systemami. Jest napisany przy użyciu programowania opartego na przepływach i zapewnia interfejs użytkownika oparty na sieci WWW do zarządzania przepływami danych w czasie rzeczywistym.

W tym prowadzonym przez instruktora szkoleniu na żywo uczestnicy poznają podstawy programowania opartego na przepływach, ponieważ opracowują szereg rozszerzeń demonstracyjnych, komponentów i procesorów wykorzystujących Apache NiFi .

Pod koniec tego szkolenia uczestnicy będą mogli:

- Zrozumienie koncepcji architektury i przepływu danych NiFi.
- Twórz rozszerzenia za pomocą NiFi i interfejsów API innych firm.
- Niestandardowe opracowanie własnego procesora Apache Nifi.
- Odbieraj i przetwarzaj dane w czasie rzeczywistym z różnych i nietypowych formatów plików i źródeł danych.

Format kursu

- Interaktywny wykład i dyskusja.
- Wiele ćwiczeń i ćwiczeń.
- Praktyczne wdrożenie w środowisku laboratoryjnym na żywo.

Opcje dostosowywania kursu

- Aby poprosić o niestandardowe szkolenie na ten kurs, skontaktuj się z nami w celu umówienia.
21 hours
Opis
Apache NiFi (Hortonworks DataFlow) to zintegrowana logistyka danych w czasie rzeczywistym i prosta platforma przetwarzania zdarzeń, która umożliwia przenoszenie, śledzenie i automatyzację danych między systemami. Jest napisany przy użyciu programowania opartego na przepływach i zapewnia interfejs użytkownika oparty na sieci WWW do zarządzania przepływami danych w czasie rzeczywistym.

W tym prowadzonym przez instruktora szkoleniu na żywo (na miejscu lub zdalnie) uczestnicy dowiedzą się, jak wdrożyć i zarządzać Apache NiFi w środowisku laboratoryjnym.

Pod koniec tego szkolenia uczestnicy będą mogli:

- Zainstaluj i skonfiguruj Apachi NiFi.
- Źródło, transformacja i zarządzanie danymi z różnych rozproszonych źródeł danych, w tym baz danych i jezior dużych zbiorów danych.
- Automatyzuj przepływ danych.
- Włącz analizę strumieniową.
- Zastosuj różne podejścia do przyjmowania danych.
- Przekształć Big Data i spostrzeżenia biznesowe.

Format kursu

- Interaktywny wykład i dyskusja.
- Wiele ćwiczeń i ćwiczeń.
- Praktyczne wdrożenie w środowisku laboratoryjnym na żywo.

Opcje dostosowywania kursu

- Aby poprosić o niestandardowe szkolenie na ten kurs, skontaktuj się z nami w celu umówienia.
14 hours
Opis
Audience

- deweloperzy

Format kursu

- wykłady, praktyczne praktyki, małe testy po drodze, aby ocenić zrozumienie
21 hours
Opis
Cloudera Impala to mechanizm zapytań SQL masowo równoległego przetwarzania danych (MPP) dla klastrów Apache Hadoop .

Impala umożliwia użytkownikom wysyłanie zapytań SQL niskim opóźnieniu do danych przechowywanych w Hadoop Distributed File System i Apache Hbase bez konieczności przenoszenia danych lub transformacji.

Publiczność

Kurs jest skierowany do analityków i naukowców zajmujących się danymi, którzy wykonują analizy danych przechowywanych w Hadoop za pomocą narzędzi Business Intelligence lub SQL .

Po tym kursie delegaci będą mogli

- Uzyskaj istotne informacje z klastrów Hadoop pomocą Impala .
- Napisz konkretne programy, aby ułatwić Business Intelligence w Impala SQL Dialect.
- Rozwiązywanie problemów z Impala .
7 hours
Opis
Kurs obejmuje korzystanie z języka Hive SQL (AKA: Hive HQL, SQL on Hive , Hive QL) dla osób wydobywających dane z Hive
21 hours
Opis
Hortonworks Data Platform (HDP) to platforma obsługi Apache Hadoop typu open source, która zapewnia stabilne podstawy do opracowywania rozwiązań Big Data w ekosystemie Apache Hadoop .

Szkolenie na żywo prowadzone przez instruktora (na miejscu lub zdalnie) przedstawia Hortonworks Data Platform (HDP) i prowadzi uczestników przez wdrożenie rozwiązania Spark + Hadoop .

Pod koniec tego szkolenia uczestnicy będą mogli:

- Użyj Hortonworks, aby niezawodnie uruchamiać Hadoop na dużą skalę.
- Ujednolic funkcje bezpieczeństwa, zarządzania i operacji w Hadoop dzięki zwinnym analitycznym przepływom pracy Spark.
- Użyj Hortonworks do zbadania, sprawdzenia, certyfikacji i wsparcia każdego z komponentów w projekcie Spark.
- Przetwarzaj różne rodzaje danych, w tym dane ustrukturyzowane, nieustrukturyzowane, w ruchu i spoczynku.

Format kursu

- Interaktywny wykład i dyskusja.
- Dużo ćwiczeń i ćwiczeń.
- Praktyczne wdrożenie w środowisku na żywo.

Opcje dostosowywania kursu

- Aby poprosić o niestandardowe szkolenie dla tego kursu, skontaktuj się z nami w celu umówienia się.
21 hours
Opis
Ten kurs wprowadza HBase - brak magazynu SQL na górze Hadoop . Kurs jest przeznaczony dla programistów, którzy będą używać HBase do tworzenia aplikacji i administratorów, którzy będą zarządzać klastrami HBase.

Przeprowadzimy programistę poprzez architekturę i modelowanie danych HBase oraz tworzenie aplikacji na HBase. Omówi także użycie MapReduce z HBase oraz niektóre tematy administracyjne związane z optymalizacją wydajności. Kurs jest bardzo praktyczny i zawiera wiele ćwiczeń laboratoryjnych.

Czas trwania : 3 dni

Odbiorcy : programiści i administratorzy
28 hours
Opis
Hadoop to popularna platforma przetwarzania Big Data . Python jest językiem programowania wysokiego poziomu znanym z jasnej składni i czytelności kodu.

W tym instruktażowym szkoleniu na żywo uczestnicy dowiedzą się, jak pracować z Hadoop , MapReduce, Pig i Spark za pomocą Python , przechodząc przez wiele przykładów i przypadków użycia.

Pod koniec tego szkolenia uczestnicy będą mogli:

- Zapoznaj się z podstawowymi koncepcjami Hadoop , MapReduce, Pig i Spark
- Używaj Python z rozproszonym Hadoop plików Hadoop (HDFS), MapReduce, Pig i Spark
- Użyj Snakebite, aby programowo uzyskać dostęp do HDFS w Python
- Użyj mrjob do napisania zadań MapReduce w Python
- Pisz programy Spark w Python
- Rozszerz funkcjonalność świni za pomocą Python UDF
- Zarządzaj zadaniami MapReduce i skryptami Pig za pomocą Luigi

Publiczność

- Deweloperzy
- Specjaliści IT

Format kursu

- Część wykładu, część dyskusji, ćwiczenia i ciężka praktyka
14 hours
Opis
W miarę migracji coraz większej liczby programów i projektów informatycznych z lokalnego przetwarzania i zarządzania danymi do przetwarzania rozproszonego i przechowywania dużych zbiorów danych, Project Managerowie dostrzegają potrzebę poszerzenia swojej wiedzy i umiejętności, aby uchwycić koncepcje i praktyki związane z projektami i możliwościami Big Data .

Ten kurs wprowadza Project Managers do najpopularniejszej platformy przetwarzania Big Data : Hadoop .

W tym instruktażowym szkoleniu uczestnicy poznają podstawowe elementy ekosystemu Hadoop oraz sposoby wykorzystania tych technologii do rozwiązywania problemów na dużą skalę. Ucząc się tych podstaw, uczestnicy poprawią także swoją umiejętność komunikowania się z twórcami i realizatorami tych systemów, a także z naukowcami i analitykami danych zaangażowanymi w wiele projektów informatycznych.

Publiczność

- Kierownicy projektów, którzy chcą wdrożyć Hadoop do swojej istniejącej infrastruktury programistycznej lub informatycznej
- Kierownicy projektów muszą komunikować się z zespołami wielofunkcyjnymi, w tym inżynierami dużych zbiorów danych, naukowcami danych i analitykami biznesowymi

Format kursu

- Część wykładu, część dyskusji, ćwiczenia i ciężka praktyka
21 hours
Opis
Apache Ambari to otwarta platforma do zarządzania, zarządzania, monitorowania i zabezpieczania klastrów Apache Hadoop .

W tym prowadzonym przez instruktora szkoleniu uczestnicy zapoznają się z narzędziami zarządzania i praktykami dostarczonymi przez Ambari, aby skutecznie zarządzać klastrami Hadoop .

Pod koniec tego szkolenia uczestnicy będą mogli:

- Skonfiguruj na żywo klaster Big Data przy użyciu Ambari
- Zastosuj zaawansowane funkcje i funkcje Ambari w różnych przypadkach użycia
- Bezproblemowo dodawaj i usuwaj węzły według potrzeb
- Popraw wydajność klastra Hadoop dzięki tuningowi i ulepszaniu

Publiczność

- DevOps
- Administratorzy systemu
- DBA
- Specjaliści od testów Hadoop

Format kursu

- Wykład częściowy, dyskusja częściowa, ćwiczenia i ciężka praktyka praktyczna
21 hours
Opis
Hadoop to najpopularniejsza struktura przetwarzania Big Data .
21 hours
Opis
Apache Hadoop to jedna z najpopularniejszych platform do przetwarzania Big Data na klastrach serwerów. Kurs obejmuje zarządzanie danymi w HDFS, zaawansowane Pig, Hive i HBase. Te zaawansowane techniki programowania będą korzystne dla doświadczonych programistów Hadoop .

Odbiorcy : programiści

Czas trwania: trzy dni

Format: wykłady (50%) i ćwiczenia praktyczne (50%).
28 hours
Opis
Apache Hadoop to najpopularniejszy framework do przetwarzania Big Data na klastrach serwerów. Kurs wprowadzi programistę do różnych komponentów (HDFS, MapReduce, Pig, Hive i HBase) ekosystemu Hadoop .
21 hours
Opis
Apache Hadoop to najpopularniejszy framework do przetwarzania Big Data Hadoop zapewnia bogate i głębokie możliwości analityczne, a także wkracza w tradycyjny świat analityki BI Ten kurs wprowadzi analityka do podstawowych komponentów systemu eko Hadoop i jego analiz Publiczność Analitycy biznesowi Trwanie trzy dni Format Wykłady i ćwiczenia laboratoryjne .
21 hours
Opis
Apache Hadoop to najpopularniejszy framework do przetwarzania Big Data na klastrach serwerów. W ciągu trzech (opcjonalnie czterech) dni uczestnicy dowiedzą się o korzyściach biznesowych i przypadkach użycia Hadoop i jego ekosystemu, jak zaplanować wdrożenie i rozwój klastra, jak zainstalować, utrzymywać, monitorować, rozwiązywać problemy i optymalizować Hadoop . Będą również ćwiczyć ładowanie danych zbiorczych klastra, zapoznać się z różnymi dystrybucjami Hadoop i przećwiczyć instalowanie i zarządzanie narzędziami ekosystemu Hadoop . Kurs kończy się dyskusją na temat zabezpieczenia klastra za pomocą Kerberos.

„… Materiały były bardzo dobrze przygotowane i dokładnie pokryte. Laboratorium było bardzo pomocne i dobrze zorganizowane ”
- Andrew Nguyen, główny inżynier ds. Integracji, Microsoft Online Advertising

Publiczność

Administratorzy Hadoop

Format

Wykłady i ćwiczenia praktyczne, przybliżona równowaga 60% wykładów, 40% laboratoriów.
21 hours
Opis
Szkolenie pozwoli w pełni zapoznać się i zrozumieć wszystkie niezbędne kroki do obsługi i utrzymywania klastra Hadoop. Dostarcza wiedzę począwszy od zagadnień związanych ze specyfikacją sprzętu, instalacją i konfiguracją systemu, aż do zagadnien związanych z równoważeniem obciążenia, strojeniem, diagnozowaniem i rozwiązywaniu problemów przy wdrożeniu.

Kurs dedykowany administratorom, którzy będą tworzyć lub/i utrzymywać klaster Hadoop.

Materiały szkoleniowe

- Materiały szkoleniowe Student Guide
- Materiały szkoleniowe Lab Guide
14 hours
Opis
Datameer to platforma analizy biznesowej i analitycznej zbudowana na platformie Hadoop Umożliwia on użytkownikom dostępu, odkrywania i korelowania dużych, uporządkowanych, semistrukturalnych i niestrukturalnych danych w łatwy sposób W tym instruktażowym szkoleniu na żywo uczestnicy dowiedzą się, jak używać Datameer do pokonywania stromych krzywych uczenia się Hadoop, kiedy przechodzą przez proces konfiguracji i analizy szeregu dużych źródeł danych Pod koniec tego szkolenia uczestnicy będą mogli: Twórz, kurators i interaktywnie eksploruj jezioro danych przedsiębiorstwa Dostęp do hurtowni danych biznesowych, transakcyjnych baz danych i innych magazynów analitycznych Użyj interfejsu użytkownika arkusza kalkulacyjnego do zaprojektowania końcowych potoków przetwarzania danych Uzyskaj dostęp do gotowych funkcji, aby poznać złożone relacje danych Użyj kreatorów draganddrop do wizualizacji danych i tworzenia pulpitów Użyj tabel, wykresów i map do analizy wyników zapytania Publiczność Analitycy danych Format kursu Wykład częściowy, dyskusja częściowa, ćwiczenia i ciężka praktyka handson .
21 hours
Opis
Analiza dużych danych polega na badaniu dużych ilości różnych zestawów danych w celu wykrycia korelacji, ukrytych wzorców i innych przydatnych informacji.

Branża medyczna ma ogromne ilości złożonych heterogenicznych danych medycznych i klinicznych. Zastosowanie analityki dużych zbiorów danych dotyczących zdrowia ma ogromny potencjał w uzyskiwaniu wglądu w poprawę świadczenia opieki zdrowotnej. Ogrom tych zbiorów danych stanowi jednak ogromne wyzwanie w analizach i praktycznych zastosowaniach w środowisku klinicznym.

W tym prowadzonym przez instruktora szkoleniu na żywo (zdalnie) uczestnicy dowiedzą się, jak wykonywać analitykę dużych danych w zakresie zdrowia, przechodząc przez serię praktycznych ćwiczeń laboratoryjnych na żywo.

Pod koniec tego szkolenia uczestnicy będą mogli:

- Zainstaluj i skonfiguruj narzędzia do analizy dużych danych, takie jak Hadoop MapReduce i Spark
- Zrozum charakterystykę danych medycznych
- Zastosuj techniki big data do radzenia sobie z danymi medycznymi
- Badanie systemów i algorytmów dużych zbiorów danych w kontekście aplikacji zdrowotnych

Publiczność

- Deweloperzy
- Naukowcy danych

Format kursu

- Wykład częściowy, dyskusja częściowa, ćwiczenia i ciężka praktyka praktyczna.

Uwaga

- Aby poprosić o niestandardowe szkolenie na ten kurs, skontaktuj się z nami w celu umówienia.
28 hours
Opis
Big Data Analyst Training to praktyczny kurs, który polecany jest każdemu, kto chce w przyszłości zostać ekspertem Data Scientist. Kurs skupia sie na aspektach potrzebnych do pracy nowoczesnego analityka w technologii Big Data. W trakcie kursu prezentowane są narzędzia pozwalające na uzyskanie dostępu, zmianę, transformację i analizę skomplikowanych struktur danych umieszczonych w klastrze Hadoop. W trakcie kursu będą poruszane tematy w ramach technologii Hadoop Ecosystem (Pig, Hive, Impala, ELK i inne).

- Funkcjonaloność narzędzi Pig, Hive, Impala, ELK, pozwalające na zbieranie danych, zapisywanie wyników i analitykę.
- Jak Pig, Hive i Impala mogą podnieść wydajność typowych i codziennych zadań analitycznych.
- Wykonywanie w czasie rzeczywistym interaktywnych analiz ogromnych zbiorów danych aby uzyskać cenne i wartościowe elementy dla biznesu oraz jak interpretować wnioski.
- Wykonywanie złożonych zapytań na bardzo dużych wolumenach danych.
21 hours
Opis
Ten kurs jest przeznaczony dla programistów, architektów, naukowców zajmujących się danymi lub dowolnego profilu, który wymaga dostępu do danych intensywnie lub regularnie.

Głównym celem kursu jest manipulacja i transformacja danych.

Wśród narzędzi w ekosystemie Hadoop ten kurs obejmuje użycie Pig i Hive które są mocno wykorzystywane do transformacji danych i manipulacji.

Szkolenie to dotyczy również wskaźników wydajności i optymalizacji wydajności.

Kurs jest całkowicie praktyczny i przerywany prezentacjami aspektów teoretycznych.
35 hours
Opis
Głównym celem szkolenia jest zdobycie wiedzy z administracji systemem Apache Hadoop w środowiskach MapReduce oraz YARN na poziomie zaawansowanym. Tematyka szkolenia dotyczy w głównej mierze architektury systemu Hadoop, a w szczególności systemu plików HDFS oraz modeli programistycznych MapReduce i YARN oraz zagadnień związanych z planowaniem, instalacją, konfiguracją, administracją, zarządzaniem i monitorowaniem klastra systemu Hadoop. Pozostałe zagadnienia związane z tematyką BigData takie jak HBase, Cassandra, Impala, Pig, Hiver oraz Sqoop są również omówione, choć pobieżnie. Kurs przeznaczony jest w głównej mierze do specjalistów z branży IT, którzy chcą przygotować się i zdać egzamin CCAH (Cloudera Certified administrator for Apache Hadoop).
14 hours
Opis
Tigon jest open source, w czasie rzeczywistym, lowlatency, highthroughput, native YARN, framework przetwarzania strumienia, który znajduje się na szczycie HDFS i HBase dla trwałości Aplikacje Tygon adresują przypadki użycia, takie jak wykrywanie włamań i analiz sieciowych, analiza rynku mediów społecznościowych, analiza lokalizacji i zalecenia w czasie rzeczywistym dla użytkowników Ten instruktażowy trening na żywo wprowadza podejście Tigona do mieszania przetwarzania w czasie rzeczywistym i przetwarzania wsadowego, gdy przechodzi uczestników przez tworzenie przykładowej aplikacji Pod koniec tego szkolenia uczestnicy będą mogli: Twórz wydajne aplikacje do przetwarzania strumieniowego do obsługi dużych ilości danych Przetwarzaj źródła strumieniowe, takie jak Twitter i dzienniki serwera WWW Użyj Tigona do szybkiego łączenia, filtrowania i agregowania strumieni Publiczność Deweloperzy Format kursu Wykład częściowy, dyskusja częściowa, ćwiczenia i ciężka praktyka handson .
Szkolenie Hadoop, Apache Hadoop boot camp, Szkolenia Zdalne Hadoop, szkolenie wieczorowe Hadoop, szkolenie weekendowe Apache Hadoop, Kurs Hadoop,Kursy Apache Hadoop, Trener Apache Hadoop, instruktor Apache Hadoop, kurs zdalny Apache Hadoop, edukacja zdalna Apache Hadoop, nauczanie wirtualne Apache Hadoop, lekcje UML, nauka przez internet Hadoop, e-learning Hadoop, kurs online Apache Hadoop, wykładowca Hadoop

Kursy w promocyjnej cenie

Newsletter z promocjami

Zapisz się na nasz newsletter i otrzymuj informacje o aktualnych zniżkach na kursy otwarte.
Szanujemy Twoją prywatność, dlatego Twój e-mail będzie wykorzystywany jedynie w celu wysyłki naszego newslettera, nie będzie udostępniony ani sprzedany osobom trzecim.
W dowolnej chwili możesz zmienić swoje preferencje co do otrzymywanego newslettera bądź całkowicie się z niego wypisać.

Zaufali nam

is growing fast!

We are looking to expand our presence in Poland!

As a Business Development Manager you will:

  • expand business in Poland
  • recruit local talent (sales, agents, trainers, consultants)
  • recruit local trainers and consultants

We offer:

  • Artificial Intelligence and Big Data systems to support your local operation
  • high-tech automation
  • continuously upgraded course catalogue and content
  • good fun in international team

If you are interested in running a high-tech, high-quality training and consulting business.

Apply now!