Szkolenia Big Data

Szkolenia Big Data

BigData to termin używany w odniesieniu do rozwiązań przeznaczonych do przechowywania i przetwarzania dużych zbiorów danych. Rozwiązania typu BigData zostały zainicjowane przez firmę Google, jakkolwiek obecnie dostępnych jest wiele rozwiązań typu open-source takich jak Apache Hadoop, Cassandra czy Cloudera Impala. Zgodnie z raportami publikowanymi przez firmę Gartner BigData jest kolejnym wielkim krokiem w branży IT, zaraz po rozwiązaniach opartych na chmurze obliczeniowej, i będzie wiodącym trendem przez kilka najbliższych lat.

Szkolenia z tematu Big Data mogą być realizowane w siedzibie klienta - lokalizacja w Polsce lub centrach szkoleniowych w lokalizacji w Polsce Szkolenie zdalne realizowane są przy użyciu interaktywnego, zdalnego pulpitu.

Opinie uczestników

★★★★★
★★★★★

Plany szkoleń z technologii Big Data

Nazwa kursu
Czas trwania
Opis
Nazwa kursu
Czas trwania
Opis
21 hours
Opis
Apache Accumulo to posortowany, rozproszony magazyn kluczy / wartości, który zapewnia niezawodne, skalowalne przechowywanie i wyszukiwanie danych. Opiera się na projekcie BigTable Go ogle i jest obsługiwany przez Apache Hadoop , Apache Zookeeper i Apache Thrift .

Prowadzone przez instruktora kursy na żywo obejmują zasady działania Accumulo i przeprowadzają uczestników przez proces tworzenia przykładowej aplikacji na Apache Accumulo .

Format kursu

- Część wykładu, część dyskusji, praktyczny rozwój i wdrożenie, okazjonalne testy sprawdzające zrozumienie
7 hours
Opis
Kafka Streams to biblioteka po stronie klienta do budowania aplikacji i mikrousług, których dane są przekazywane do iz systemu przesyłania wiadomości Kafka. Tradycyjnie Apache Kafka polegał na Apache Spark lub Apache Storm do przetwarzania danych między producentami wiadomości a konsumentami. Wywołując interfejs API strumieni Kafka z poziomu aplikacji, dane można przetwarzać bezpośrednio w Kafce, omijając potrzebę wysyłania danych do osobnego klastra w celu przetworzenia.

W tym instruktażowym szkoleniu na żywo uczestnicy dowiedzą się, jak zintegrować strumienie Kafka z zestawem przykładowych aplikacji Java , które przekazują dane zi do Apache Kafka celu przetwarzania strumieniowego.

Pod koniec tego szkolenia uczestnicy będą mogli:

- Poznaj funkcje i zalety strumieni Kafka w porównaniu do innych platform przetwarzania strumieniowego
- Przetwarzaj strumień danych bezpośrednio w klastrze Kafka
- Napisz aplikację lub mikrousługę Java lub Scala , która integruje się ze strumieniami Kafka i Kafka
- Napisz zwięzły kod, który przekształca wejściowe tematy Kafka w wyjściowe tematy Kafka
- Kompiluj, pakuj i wdrażaj aplikację

Publiczność

- Deweloperzy

Format kursu

- Część wykładu, część dyskusji, ćwiczenia i ciężka praktyka

Notatki

- Aby poprosić o niestandardowe szkolenie dla tego kursu, skontaktuj się z nami w celu umówienia się
7 hours
Opis
To prowadzone przez instruktora szkolenie na żywo (na miejscu lub zdalnie) skierowane jest do osób technicznych, które chcą nauczyć się implementować strategię uczenia maszynowego, maksymalizując wykorzystanie dużych zbiorów danych.

Pod koniec tego szkolenia uczestnicy:

- Zrozum ewolucję i trendy uczenia maszynowego.
- Dowiedz się, jak uczenie maszynowe jest wykorzystywane w różnych branżach.
- Zapoznaj się z narzędziami, umiejętnościami i usługami dostępnymi do wdrożenia uczenia maszynowego w organizacji.
- Zrozum, w jaki sposób uczenie maszynowe może być wykorzystane do ulepszenia eksploracji i analizy danych.
- Dowiedz się, czym jest środkowy backend danych i jak jest on wykorzystywany przez firmy.
- Zrozum rolę jaką odgrywają duże aplikacje i inteligentne aplikacje w różnych branżach.

Format kursu

- Interaktywny wykład i dyskusja.
- Wiele ćwiczeń i ćwiczeń.
- Praktyczne wdrożenie w środowisku laboratoryjnym na żywo.

Opcje dostosowywania kursu

- Aby poprosić o indywidualne szkolenie na ten kurs, skontaktuj się z nami, aby umówić się na spotkanie.
28 hours
Opis
Mem SQL to rozproszony system zarządzania bazami danych SQL w pamięci w chmurze i lokalnie. Jest to hurtownia danych działająca w czasie rzeczywistym, która natychmiast zapewnia wgląd w dane bieżące i historyczne.

W tym prowadzonym przez instruktora szkoleniu na żywo uczestnicy poznają podstawy Mem SQL dla rozwoju i administracji.

Pod koniec tego szkolenia uczestnicy będą mogli:

- Zrozumienie kluczowych pojęć i cech Mem SQL
- Instaluj, projektuj, utrzymuj i obsługuj Mem SQL
- Optymalizuj schematy w Mem SQL
- Popraw zapytania w Mem SQL
- Test wydajności w Mem SQL
- Twórz aplikacje danych w czasie rzeczywistym za pomocą Mem SQL

Publiczność

- Deweloperzy
- Administratorzy
- Inżynierowie operacji

Format kursu

- Wykład częściowy, dyskusja częściowa, ćwiczenia i ciężka praktyka praktyczna
7 hours
Opis
Podczas tego prowadzonego przez instruktora szkolenia na żywo uczestnicy poznają podstawowe pojęcia związane z architekturą Stream MapR podczas opracowywania aplikacji do strumieniowania w czasie rzeczywistym.

Pod koniec tego szkolenia uczestnicy będą mogli tworzyć aplikacje producentów i konsumentów do przetwarzania danych strumieniowych w czasie rzeczywistym.

Publiczność

- Deweloperzy
- Administratorzy

Format kursu

- Wykład częściowy, dyskusja częściowa, ćwiczenia i ciężka praktyka praktyczna

Uwaga

- Aby poprosić o niestandardowe szkolenie na ten kurs, skontaktuj się z nami w celu umówienia.
14 hours
Opis
Magellan to rozproszony, rozproszony silnik wykonawczy do analizy geoprzestrzennej dużych zbiorów danych Wdrożony na szczycie Apache Spark, rozszerza Spark SQL i zapewnia relacyjną abstrakcję dla analityki geoprzestrzennej To instruktażowe szkolenie na żywo wprowadza koncepcje i podejścia do wdrażania analizy geoprzestrzennej i prowadzi uczestników przez stworzenie aplikacji do analizy predykcyjnej z wykorzystaniem Magellana na Sparku Pod koniec tego szkolenia uczestnicy będą mogli: Skutecznie wyszukuj, analizuj i dołączaj zbiory danych geoprzestrzennych na dużą skalę Wdrażaj dane geoprzestrzenne w aplikacjach do analiz biznesowych i analizie predykcyjnej Użyj kontekstu przestrzennego, aby rozszerzyć możliwości urządzeń mobilnych, czujników, dzienników i urządzeń do noszenia Publiczność Twórcy aplikacji Format kursu Wykład częściowy, dyskusja częściowa, ćwiczenia i ciężka praktyka handson .
14 hours
Opis
Apache Kylin to ekstremalny, rozproszony silnik analityczny dla dużych zbiorów danych.

W tym instruktażowym szkoleniu na żywo uczestnicy dowiedzą się, jak używać Apache Kylin do konfigurowania hurtowni danych w czasie rzeczywistym.

Pod koniec tego szkolenia uczestnicy będą mogli:

- Korzystaj z danych przesyłanych strumieniowo w czasie rzeczywistym za pomocą Kylin
- Wykorzystaj potężne funkcje Apache Kylin , bogaty interfejs SQL , iskierkę i opóźnienie drugiego zapytania

Uwaga

- Używamy najnowszej wersji Kylin (od tego momentu Apache Kylin v2.0)

Publiczność

- Inżynierowie Big Data
- Analitycy Big Data

Format kursu

- Część wykładu, część dyskusji, ćwiczenia i ciężka praktyka
7 hours
Opis
Confluent K SQL to framework do przetwarzania strumieniowego zbudowany na bazie Apache Kafka . Umożliwia przetwarzanie danych w czasie rzeczywistym za pomocą operacji SQL .

To prowadzone przez instruktora szkolenie na żywo (na miejscu lub zdalnie) skierowane jest do programistów, którzy chcą zaimplementować przetwarzanie strumienia Apache Kafka bez pisania kodu.

Pod koniec tego szkolenia uczestnicy będą mogli:

- Zainstaluj i skonfiguruj Confluent K SQL .
- Skonfiguruj potok przetwarzania strumienia przy użyciu tylko poleceń SQL (bez kodowania Java lub Python ).
- Przeprowadź filtrowanie danych, transformacje, agregacje, łączenia, okienkowanie i sesjonowanie całkowicie w języku SQL .
- Projektuj i wdrażaj interaktywne, ciągłe zapytania dotyczące strumieniowania ETL i analiz w czasie rzeczywistym.

Format kursu

- Interaktywny wykład i dyskusja.
- Wiele ćwiczeń i ćwiczeń.
- Praktyczne wdrożenie w środowisku laboratoryjnym na żywo.

Opcje dostosowywania kursu

- Aby poprosić o niestandardowe szkolenie na ten kurs, skontaktuj się z nami w celu umówienia.
35 hours
Opis
KNIME to skrócona nazwa Konstanz Information Miner, czyli platformy przeznaczonej do integracji, interaktywnej analizy i raportowania danych, dostępnej na zasadach wolnego i otwartego oprogramowania. KNIME umożliwia integrację wielu różnorodnych komponentów z dziedziny uczenia maszynowego (ang. machine learning) i eksploracji danych (ang. data mining) dzięki koncepcji modułowego przetwarzania potokowego danych. Graficzny interfejs użytkownika oraz wykorzystanie JDBC pozwala na łatwe i szybkie zestawianie węzłów (ang. nodes) w celu łączenia ze sobą różnych źródeł danych z uwzględnieniem procesu wstępnego przetwarzania - ETL oraz modelowania, analizy i wizualizacji danych bez konieczności korzystania z programowania (lub w minimalnym stopniu). KNIME w pewnym stopniu, jako zaawansowane narzędzie analityczne, można uznać za alternatywę SAS.

Od 2006 r. KNIME jest wykorzystywany w badaniach farmaceutycznych, a także w innych dziedzinach, takich jak analiza danych klienta (CRM), business intelligence (BI) i analiza danych finansowych.
21 hours
Opis
Platforma KNIME Analytics jest wiodącą opcją open source dla innowacji opartych na danych, pomagającą odkryć potencjał ukryty w twoich danych, wydobywać nowe informacje i przewidywać nowe przyszłości. Dzięki ponad 1000 modułów, setkom gotowych do użycia przykładów, kompleksowej gamie zintegrowanych narzędzi i najszerszemu KNIME zaawansowanych algorytmów, platforma KNIME Analytics jest idealnym zestawem narzędzi dla każdego badacza danych i analityka biznesowego.

Ten kurs dla platformy KNIME Analytics jest idealną okazją dla początkujących, zaawansowanych użytkowników i ekspertów KNIME do KNIME z KNIME , aby dowiedzieć się, jak z niego bardziej efektywnie korzystać oraz jak tworzyć jasne, kompleksowe raporty oparte na przepływach pracy KNIME
21 hours
Opis
Knowledge discovery in databases (KDD) is the process of discovering useful knowledge from a collection of data. Real-life applications for this data mining technique include marketing, fraud detection, telecommunication and manufacturing.

In this instructor-led, live course, we introduce the processes involved in KDD and carry out a series of exercises to practice the implementation of those processes.

Audience

- Data analysts or anyone interested in learning how to interpret data to solve problems

Format of the Course

- After a theoretical discussion of KDD, the instructor will present real-life cases which call for the application of KDD to solve a problem. Participants will prepare, select and cleanse sample data sets and use their prior knowledge about the data to propose solutions based on the results of their observations.
21 hours
Opis
W przeciwieństwie do innych technologii Internet Rzeczy jest o wiele bardziej złożony i obejmuje prawie wszystkie gałęzie inżynierii mechanicznej, Electron , oprogramowania układowego, oprogramowania pośredniego, chmury, analizy i urządzeń mobilnych. Dla każdej warstwy inżynierskiej istnieją aspekty ekonomiczne, standardy, przepisy i ewoluujący stan techniki. Jest to pierwszy raz, oferowany jest skromny kurs obejmujący wszystkie te krytyczne aspekty inżynierii IoT.

streszczenie

-

Zaawansowany program szkoleniowy obejmujący aktualny stan wiedzy w zakresie Internetu przedmiotów

-

Obejmuje wiele dziedzin technologii, aby zwiększyć świadomość na temat systemu IoT i jego komponentów oraz tego, w jaki sposób może on pomóc firmom i organizacjom.

-

Demonstracja na żywo modelowych aplikacji IoT w celu zaprezentowania praktycznych wdrożeń IoT w różnych domenach branżowych, takich jak IoT w przemyśle, inteligentne miasta, handel detaliczny, podróże i transport oraz przypadki użycia wokół podłączonych urządzeń i rzeczy

Grupa docelowa

-

Menedżerowie odpowiedzialni za procesy biznesowe i operacyjne w swoich organizacjach i chcą wiedzieć, jak wykorzystać Internet Rzeczy, aby zwiększyć wydajność swoich systemów i procesów.

-

Przedsiębiorcy i inwestorzy, którzy chcą budować nowe przedsięwzięcia i chcą lepiej zrozumieć krajobraz technologii IoT, aby przekonać się, w jaki sposób mogą go skutecznie wykorzystać.

Szacunki dotyczące wartości Internetu Rzeczy lub Internetu Rzeczy są ogromne, ponieważ z definicji IoT jest zintegrowaną i rozproszoną warstwą urządzeń, czujników i mocy obliczeniowej, która nakłada się na cały przemysł konsumencki, business-to-business i rządowy. Internet Rzeczy będzie obejmować coraz większą liczbę połączeń: 1,9 miliarda urządzeń dzisiaj i 9 miliardów do 2018 r. W tym roku będzie mniej więcej równa liczbie smartfonów, smartfonów, tabletów, komputerów do noszenia i komputerów razem.

W przestrzeni konsumenckiej wiele produktów i usług przeszło już do Internetu Rzeczy, w tym urządzenia kuchenne i AGD, parking, RFID, produkty oświetleniowe i grzewcze oraz szereg aplikacji w przemysłowym Internecie.

Jednak podstawowe technologie Internetu Rzeczy nie są niczym nowym, ponieważ komunikacja M2M istniała od narodzin Internetu. Jednak w ciągu ostatnich kilku lat zmieniło się pojawienie się wielu niedrogich technologii bezprzewodowych dodanych przez przytłaczającą adaptację smartfonów i tabletów w każdym domu. Gwałtowny rozwój urządzeń mobilnych doprowadził do obecnego zapotrzebowania na Internet Rzeczy.

Ze względu na nieograniczone możliwości w branży IoT duża liczba małych i średnich przedsiębiorców wskoczyła na modę gorączki złota IoT. Również ze względu na pojawienie się elektroniki open source i platformy IoT, koszty rozwoju systemu IoT i dalszego zarządzania jego sporą produkcją są coraz bardziej przystępne. Obecni właściciele produktów elektronicznych odczuwają presję, aby zintegrować swoje urządzenie z Internetem lub aplikacją mobilną.

Szkolenie jest przeznaczone do przeglądu technologii i biznesu rozwijającej się branży, aby entuzjaści / przedsiębiorcy Internetu Rzeczy mogli zapoznać się z podstawami technologii Internetu i biznesu.

Cel kursu

Głównym celem kursu jest wprowadzenie wyłaniających się opcji technologicznych, platform i studiów przypadków wdrażania Internetu Rzeczy w automatyce domowej i miejskiej (inteligentne domy i miasta), Internet przemysłowy, opieka zdrowotna, Go vt., Mobile Cellular i inne obszary.

-

Podstawowe wprowadzenie wszystkich elementów IoT-Mechanical, Electron / platformy czujników, protokołów bezprzewodowych i przewodowych, integracji urządzeń mobilnych z Electron integracji urządzeń mobilnych z przedsiębiorstwami, analizy danych i płaszczyzny kontroli całkowitej

-

Bezprzewodowe protokoły M2M dla IoT- WiFi, Zigbee / Zwave, Bluetooth, ANT +: Kiedy i gdzie z których korzystać?

-

Aplikacja mobilna / stacjonarna / internetowa - do rejestracji, akwizycji i kontroli danych - Dostępna platforma akwizycji danych M2M dla IoT - Xively, Omega i NovoTech itp.

-

Kwestie bezpieczeństwa i rozwiązania bezpieczeństwa dla Internetu Rzeczy

-

Platforma elektroniki komercyjnej typu open source dla IoT - Raspberry Pi , Arduino , ArmMbedLPC itp

-

Platforma chmurowa typu open source / komercyjna dla przedsiębiorstw AWS-IoT, Azure -IOT, chmura Watson-IOT oraz inne mniejsze chmury IoT

-

Studia biznesu i technologii niektórych popularnych urządzeń IoT, takich jak automatyka domowa, alarm przeciwpożarowy, pojazdy, wojsko, zdrowie w domu itp.
21 hours
Opis
Apache NiFi (Hortonworks DataFlow) to zintegrowana logistyka danych w czasie rzeczywistym i prosta platforma przetwarzania zdarzeń, która umożliwia przenoszenie, śledzenie i automatyzację danych między systemami. Jest napisany przy użyciu programowania opartego na przepływach i zapewnia interfejs użytkownika oparty na sieci WWW do zarządzania przepływami danych w czasie rzeczywistym.

W tym prowadzonym przez instruktora szkoleniu na żywo (na miejscu lub zdalnie) uczestnicy dowiedzą się, jak wdrożyć i zarządzać Apache NiFi w środowisku laboratoryjnym.

Pod koniec tego szkolenia uczestnicy będą mogli:

- Zainstaluj i skonfiguruj Apachi NiFi.
- Źródło, transformacja i zarządzanie danymi z różnych rozproszonych źródeł danych, w tym baz danych i jezior dużych zbiorów danych.
- Automatyzuj przepływ danych.
- Włącz analizę strumieniową.
- Zastosuj różne podejścia do przyjmowania danych.
- Przekształć Big Data i spostrzeżenia biznesowe.

Format kursu

- Interaktywny wykład i dyskusja.
- Wiele ćwiczeń i ćwiczeń.
- Praktyczne wdrożenie w środowisku laboratoryjnym na żywo.

Opcje dostosowywania kursu

- Aby poprosić o niestandardowe szkolenie na ten kurs, skontaktuj się z nami w celu umówienia.
21 hours
Opis
Stream Processing odnosi się do przetwarzania „danych w ruchu” w czasie rzeczywistym, to znaczy wykonywania obliczeń na danych w trakcie ich otrzymywania. Takie dane są odczytywane jako ciągłe strumienie ze źródeł danych, takich jak zdarzenia z czujników, aktywność użytkownika witryny, transakcje finansowe, karty kredytowe, strumienie kliknięć itp. Struktury Stream Processing są w stanie odczytać duże ilości przychodzących danych i zapewniają cenne informacje niemal natychmiast.

Podczas tego instruktażowego szkolenia na żywo (na miejscu lub zdalnie) uczestnicy dowiedzą się, jak skonfigurować i zintegrować różne struktury Stream Processing z istniejącymi systemami przechowywania dużych danych oraz powiązanymi aplikacjami i mikrousługami.

Pod koniec tego szkolenia uczestnicy będą mogli:

- Zainstaluj i skonfiguruj różne platformy Stream Processing , takie jak Spark Streaming i Kafka Streaming.
- Zrozum i wybierz najbardziej odpowiednie ramy dla zadania.
- Przetwarzanie danych w sposób ciągły, równoległy i rekordowy.
- Zintegruj rozwiązania Stream Processing z istniejącymi bazami danych, hurtowniami danych, jeziorami danych itp.
- Zintegruj najbardziej odpowiednią bibliotekę przetwarzania strumieniowego z aplikacjami korporacyjnymi i mikrousługami.

Publiczność

- Deweloperzy
- Architekci oprogramowania

Format kursu

- Część wykładu, część dyskusji, ćwiczenia i ciężka praktyka

Notatki

- Aby poprosić o niestandardowe szkolenie dla tego kursu, skontaktuj się z nami w celu umówienia się.
14 hours
Opis
Audience

- deweloperzy

Format kursu

- wykłady, praktyczne praktyki, małe testy po drodze, aby ocenić zrozumienie
21 hours
Opis
Cloudera Impala to mechanizm zapytań SQL masowo równoległego przetwarzania danych (MPP) dla klastrów Apache Hadoop .

Impala umożliwia użytkownikom wysyłanie zapytań SQL niskim opóźnieniu do danych przechowywanych w Hadoop Distributed File System i Apache Hbase bez konieczności przenoszenia danych lub transformacji.

Publiczność

Kurs jest skierowany do analityków i naukowców zajmujących się danymi, którzy wykonują analizy danych przechowywanych w Hadoop za pomocą narzędzi Business Intelligence lub SQL .

Po tym kursie delegaci będą mogli

- Uzyskaj istotne informacje z klastrów Hadoop pomocą Impala .
- Napisz konkretne programy, aby ułatwić Business Intelligence w Impala SQL Dialect.
- Rozwiązywanie problemów z Impala .
7 hours
Opis
Kurs obejmuje korzystanie z języka Hive SQL (AKA: Hive HQL, SQL on Hive , Hive QL) dla osób wydobywających dane z Hive
21 hours
Opis
Hortonworks Data Platform (HDP) to platforma obsługi Apache Hadoop typu open source, która zapewnia stabilne podstawy do opracowywania rozwiązań Big Data w ekosystemie Apache Hadoop .

Szkolenie na żywo prowadzone przez instruktora (na miejscu lub zdalnie) przedstawia Hortonworks Data Platform (HDP) i prowadzi uczestników przez wdrożenie rozwiązania Spark + Hadoop .

Pod koniec tego szkolenia uczestnicy będą mogli:

- Użyj Hortonworks, aby niezawodnie uruchamiać Hadoop na dużą skalę.
- Ujednolic funkcje bezpieczeństwa, zarządzania i operacji w Hadoop dzięki zwinnym analitycznym przepływom pracy Spark.
- Użyj Hortonworks do zbadania, sprawdzenia, certyfikacji i wsparcia każdego z komponentów w projekcie Spark.
- Przetwarzaj różne rodzaje danych, w tym dane ustrukturyzowane, nieustrukturyzowane, w ruchu i spoczynku.

Format kursu

- Interaktywny wykład i dyskusja.
- Dużo ćwiczeń i ćwiczeń.
- Praktyczne wdrożenie w środowisku na żywo.

Opcje dostosowywania kursu

- Aby poprosić o niestandardowe szkolenie dla tego kursu, skontaktuj się z nami w celu umówienia się.
21 hours
Opis
Ten kurs wprowadza HBase - brak magazynu SQL na górze Hadoop . Kurs jest przeznaczony dla programistów, którzy będą używać HBase do tworzenia aplikacji i administratorów, którzy będą zarządzać klastrami HBase.

Przeprowadzimy programistę poprzez architekturę i modelowanie danych HBase oraz tworzenie aplikacji na HBase. Omówi także użycie MapReduce z HBase oraz niektóre tematy administracyjne związane z optymalizacją wydajności. Kurs jest bardzo praktyczny i zawiera wiele ćwiczeń laboratoryjnych.

Czas trwania : 3 dni

Odbiorcy : programiści i administratorzy
28 hours
Opis
Hadoop to popularna platforma przetwarzania Big Data . Python jest językiem programowania wysokiego poziomu znanym z jasnej składni i czytelności kodu.

W tym instruktażowym szkoleniu na żywo uczestnicy dowiedzą się, jak pracować z Hadoop , MapReduce, Pig i Spark za pomocą Python , przechodząc przez wiele przykładów i przypadków użycia.

Pod koniec tego szkolenia uczestnicy będą mogli:

- Zapoznaj się z podstawowymi koncepcjami Hadoop , MapReduce, Pig i Spark
- Używaj Python z rozproszonym Hadoop plików Hadoop (HDFS), MapReduce, Pig i Spark
- Użyj Snakebite, aby programowo uzyskać dostęp do HDFS w Python
- Użyj mrjob do napisania zadań MapReduce w Python
- Pisz programy Spark w Python
- Rozszerz funkcjonalność świni za pomocą Python UDF
- Zarządzaj zadaniami MapReduce i skryptami Pig za pomocą Luigi

Publiczność

- Deweloperzy
- Specjaliści IT

Format kursu

- Część wykładu, część dyskusji, ćwiczenia i ciężka praktyka
28 hours
Opis
Publiczność:

Ten kurs ma na celu demistyfikację technologii big data / hadoop i pokazanie, że nie jest to trudne do zrozumienia.
14 hours
Opis
W miarę migracji coraz większej liczby programów i projektów informatycznych z lokalnego przetwarzania i zarządzania danymi do przetwarzania rozproszonego i przechowywania dużych zbiorów danych, Project Managerowie dostrzegają potrzebę poszerzenia swojej wiedzy i umiejętności, aby uchwycić koncepcje i praktyki związane z projektami i możliwościami Big Data .

Ten kurs wprowadza Project Managers do najpopularniejszej platformy przetwarzania Big Data : Hadoop .

W tym instruktażowym szkoleniu uczestnicy poznają podstawowe elementy ekosystemu Hadoop oraz sposoby wykorzystania tych technologii do rozwiązywania problemów na dużą skalę. Ucząc się tych podstaw, uczestnicy poprawią także swoją umiejętność komunikowania się z twórcami i realizatorami tych systemów, a także z naukowcami i analitykami danych zaangażowanymi w wiele projektów informatycznych.

Publiczność

- Kierownicy projektów, którzy chcą wdrożyć Hadoop do swojej istniejącej infrastruktury programistycznej lub informatycznej
- Kierownicy projektów muszą komunikować się z zespołami wielofunkcyjnymi, w tym inżynierami dużych zbiorów danych, naukowcami danych i analitykami biznesowymi

Format kursu

- Część wykładu, część dyskusji, ćwiczenia i ciężka praktyka
28 hours
Opis
MonetDB to baza danych o otwartym kodzie źródłowym, która zapoczątkowała podejście oparte na technologii przechowywania kolumn.

W tym prowadzonym przez instruktora szkoleniu na żywo uczestnicy dowiedzą się, jak korzystać z MonetDB i jak uzyskać z niego jak najwięcej korzyści.

Pod koniec tego szkolenia uczestnicy będą mogli:

- Zrozumieć MonetDB i jego funkcje
- Zainstaluj i zacznij korzystać z MonetDB
- Przeglądaj i wykonuj różne funkcje i zadania w MonetDB
- Przyspiesz realizację projektu, maksymalizując możliwości MonetDB

Publiczność

- Deweloperzy
- Eksperci techniczni

Format kursu

- Wykład częściowy, dyskusja częściowa, ćwiczenia i ciężka praktyka praktyczna
7 hours
Opis
Apache NiFi (Hortonworks DataFlow) to zintegrowana logistyka danych w czasie rzeczywistym i prosta platforma przetwarzania zdarzeń, która umożliwia przenoszenie, śledzenie i automatyzację danych między systemami. Jest napisany przy użyciu programowania opartego na przepływach i zapewnia interfejs użytkownika oparty na sieci WWW do zarządzania przepływami danych w czasie rzeczywistym.

W tym prowadzonym przez instruktora szkoleniu na żywo uczestnicy poznają podstawy programowania opartego na przepływach, ponieważ opracowują szereg rozszerzeń demonstracyjnych, komponentów i procesorów wykorzystujących Apache NiFi .

Pod koniec tego szkolenia uczestnicy będą mogli:

- Zrozumienie koncepcji architektury i przepływu danych NiFi.
- Twórz rozszerzenia za pomocą NiFi i interfejsów API innych firm.
- Niestandardowe opracowanie własnego procesora Apache Nifi.
- Odbieraj i przetwarzaj dane w czasie rzeczywistym z różnych i nietypowych formatów plików i źródeł danych.

Format kursu

- Interaktywny wykład i dyskusja.
- Wiele ćwiczeń i ćwiczeń.
- Praktyczne wdrożenie w środowisku laboratoryjnym na żywo.

Opcje dostosowywania kursu

- Aby poprosić o niestandardowe szkolenie na ten kurs, skontaktuj się z nami w celu umówienia.
21 hours
Opis
Apache Hadoop to jedna z najpopularniejszych platform do przetwarzania Big Data na klastrach serwerów. Kurs obejmuje zarządzanie danymi w HDFS, zaawansowane Pig, Hive i HBase. Te zaawansowane techniki programowania będą korzystne dla doświadczonych programistów Hadoop .

Odbiorcy : programiści

Czas trwania: trzy dni

Format: wykłady (50%) i ćwiczenia praktyczne (50%).
7 hours
Opis
Spark SQL to Apache Spark do pracy z danymi strukturalnymi i nieustrukturyzowanymi. Spark SQL dostarcza informacji o strukturze danych oraz wykonywanych obliczeniach. Informacje te można wykorzystać do przeprowadzenia optymalizacji. Dwa popularne zastosowania Spark SQL to:
- wykonywanie zapytań SQL .
- aby odczytać dane z istniejącej instalacji Hive .

W tym prowadzonym przez instruktora szkoleniu na żywo (na miejscu lub zdalnie) uczestnicy nauczą się analizować różne typy zestawów danych za pomocą Spark SQL .

Pod koniec tego szkolenia uczestnicy będą mogli:

- Zainstaluj i skonfiguruj Spark SQL .
- Wykonaj analizę danych za pomocą Spark SQL .
- Zestawy danych zapytań w różnych formatach.
- Wizualizuj dane i wyniki zapytań.

Format kursu

- Interaktywny wykład i dyskusja.
- Wiele ćwiczeń i ćwiczeń.
- Praktyczne wdrożenie w środowisku laboratoryjnym na żywo.

Opcje dostosowywania kursu

- Aby poprosić o niestandardowe szkolenie na ten kurs, skontaktuj się z nami w celu umówienia.
14 hours
Opis
Apache Zeppelin to webowy notes do przechwytywania, eksplorowania, wizualizacji i udostępniania danych opartych na Hadoop i Spark To instruktażowe szkolenie na żywo wprowadza koncepcje kryjące się za interaktywną analizą danych i przeprowadza uczestników przez wdrożenie i używanie Zeppelin w środowisku singleuser lub wielu użytkowników Pod koniec tego szkolenia uczestnicy będą mogli: Zainstaluj i skonfiguruj Zeppelin Twórz, organizuj, uruchamiaj i udostępniaj dane w interfejsie opartym na przeglądarce Wizualizuj wyniki bez odwoływania się do szczegółów wiersza poleceń lub szczegółów klastra Wykonuj i współpracuj przy długich przepływach pracy Pracuj z dowolnym językiem plugin / przetwarzaniem danych, takim jak Scala (z Apache Spark), Python (z Apache Spark), Spark SQL, JDBC, Markdown i Shell Zintegruj Zeppelin ze Spark, Flink i Map Reduce Zabezpiecz instancje wielu użytkowników Zeppelina za pomocą Apache Shiro Publiczność Inżynierowie danych Analitycy danych Data naukowcy Deweloperzy oprogramowania Format kursu Wykład częściowy, dyskusja częściowa, ćwiczenia i ciężka praktyka handson .
14 hours
Opis
Vespa to silnik przetwarzania i udostępniania dużych zbiorów danych typu open source stworzony przez Yahoo. Służy do odpowiadania na zapytania użytkowników, formułowania rekomendacji oraz dostarczania spersonalizowanych treści i reklam w czasie rzeczywistym.

Szkolenie na żywo prowadzone przez instruktora wprowadza wyzwania związane z udostępnianiem danych na dużą skalę i prowadzi uczestników przez tworzenie aplikacji, która może obliczać odpowiedzi na żądania użytkowników w dużych zbiorach danych w czasie rzeczywistym.

Pod koniec tego szkolenia uczestnicy będą mogli:

- Użyj Vespa, aby szybko obliczyć dane (przechowywać, wyszukiwać, klasyfikować, organizować) w czasie wyświetlania, gdy użytkownik czeka
- Zaimplementuj Vespa w istniejących aplikacjach obejmujących wyszukiwanie funkcji, rekomendacje i personalizację
- Zintegruj i wdróż Vespa z istniejącymi systemami big data, takimi jak Hadoop i Storm.

Publiczność

- Deweloperzy

Format kursu

- Część wykładu, część dyskusji, ćwiczenia i ciężka praktyka
14 hours
Opis
Tigon jest open source, w czasie rzeczywistym, lowlatency, highthroughput, native YARN, framework przetwarzania strumienia, który znajduje się na szczycie HDFS i HBase dla trwałości Aplikacje Tygon adresują przypadki użycia, takie jak wykrywanie włamań i analiz sieciowych, analiza rynku mediów społecznościowych, analiza lokalizacji i zalecenia w czasie rzeczywistym dla użytkowników Ten instruktażowy trening na żywo wprowadza podejście Tigona do mieszania przetwarzania w czasie rzeczywistym i przetwarzania wsadowego, gdy przechodzi uczestników przez tworzenie przykładowej aplikacji Pod koniec tego szkolenia uczestnicy będą mogli: Twórz wydajne aplikacje do przetwarzania strumieniowego do obsługi dużych ilości danych Przetwarzaj źródła strumieniowe, takie jak Twitter i dzienniki serwera WWW Użyj Tigona do szybkiego łączenia, filtrowania i agregowania strumieni Publiczność Deweloperzy Format kursu Wykład częściowy, dyskusja częściowa, ćwiczenia i ciężka praktyka handson .
21 hours
Opis
Teradata jest jednym z popularnych systemów Management relacyjnymi Database . Nadaje się głównie do budowania aplikacji hurtowni danych na dużą skalę. Teradata osiąga to dzięki koncepcji równoległości.

Ten kurs wprowadza delegatów do Teradata .
Szkolenie Big Data, Big Data boot camp, Szkolenia Zdalne Big Data, szkolenie wieczorowe Big Data, szkolenie weekendowe Big Data, Kurs Big Data,Kursy Big Data, Trener Big Data, instruktor Big Data, kurs zdalny Big Data, edukacja zdalna Big Data, nauczanie wirtualne Big Data, lekcje UML, nauka przez internet Big Data, e-learning Big Data, kurs online Big Data, wykładowca Big Data

Kursy w promocyjnej cenie

Newsletter z promocjami

Zapisz się na nasz newsletter i otrzymuj informacje o aktualnych zniżkach na kursy otwarte.
Szanujemy Twoją prywatność, dlatego Twój e-mail będzie wykorzystywany jedynie w celu wysyłki naszego newslettera, nie będzie udostępniony ani sprzedany osobom trzecim.
W dowolnej chwili możesz zmienić swoje preferencje co do otrzymywanego newslettera bądź całkowicie się z niego wypisać.

Zaufali nam

is growing fast!

We are looking to expand our presence in Poland!

As a Business Development Manager you will:

  • expand business in Poland
  • recruit local talent (sales, agents, trainers, consultants)
  • recruit local trainers and consultants

We offer:

  • Artificial Intelligence and Big Data systems to support your local operation
  • high-tech automation
  • continuously upgraded course catalogue and content
  • good fun in international team

If you are interested in running a high-tech, high-quality training and consulting business.

Apply now!