Szkolenia Big Data

Szkolenia Big Data

BigData to termin używany w odniesieniu do rozwiązań przeznaczonych do przechowywania i przetwarzania dużych zbiorów danych. Rozwiązania typu BigData zostały zainicjowane przez firmę Google, jakkolwiek obecnie dostępnych jest wiele rozwiązań typu open-source takich jak Apache Hadoop, Cassandra czy Cloudera Impala. Zgodnie z raportami publikowanymi przez firmę Gartner BigData jest kolejnym wielkim krokiem w branży IT, zaraz po rozwiązaniach opartych na chmurze obliczeniowej, i będzie wiodącym trendem przez kilka najbliższych lat.

Szkolenia z tematu Big Data mogą być realizowane w siedzibie klienta - lokalizacja w Polsce lub centrach szkoleniowych w lokalizacji w Polsce Szkolenie zdalne realizowane są przy użyciu interaktywnego, zdalnego pulpitu.

Opinie uczestników

★★★★★
★★★★★

Plany szkoleń z technologii Big Data

Title
Czas trwania
Overview
Title
Czas trwania
Overview
21 hours
Overview
Apache Accumulo to posortowany, rozproszony magazyn klucz / wartość, który zapewnia niezawodne, skalowalne przechowywanie i odzyskiwanie danych Opiera się na projekcie BigTable Google i jest zasilany przez Apache Hadoop, Apache Zookeeper i Apache Thrift Kurs obejmuje zasady działania Accumulo i prowadzi uczestników przez opracowanie przykładowej aplikacji na Apache Accumulo Publiczność Twórcy aplikacji Inżynierowie oprogramowania Konsultanci techniczni Format kursu Wykład częściowy, dyskusja częściowa, opracowanie i wdrożenie handson, okazjonalne testy do sprawdzenia zrozumienia .
21 hours
Overview
Szacunki dotyczące wartości Internetu przedmiotów lub wartości rynkowej Internetu przedmiotów są ogromne, ponieważ z definicji IoT jest zintegrowaną i rozproszoną warstwą urządzeń, czujników i mocy obliczeniowej, która pokrywa cały sektor konsumencki, biznes-przedsiębiorstwo i sektor rządowy. Internet Rzeczy będzie odpowiadał za coraz większą liczbę połączeń: 1,9 miliarda urządzeń w chwili obecnej i 9 miliardów w 2018 roku. W tym roku będzie to w przybliżeniu równa liczbie smartfonów, inteligentnych telewizorów, tabletów, komputerów przenośnych i komputerów połączonych. & Nbsp ; W przestrzeni konsumenckiej wiele produktów i usług już znalazło się w IoT, w tym w urządzeniach kuchennych i AGD, parkingach, urządzeniach RFID, oświetleniowych i grzewczych oraz wielu aplikacjach w przemysłowym Internecie. & nbsp; Jednak podstawowe technologie Internetu rzeczy nie są niczym nowym, ponieważ komunikacja M2M istniała od urodzenia Internetu. Jednak to, co zmieniło się w ciągu ostatnich kilku lat, to pojawienie się szeregu niedrogich technologii bezprzewodowych dodanych przez przytłaczającą adaptację smartfonów i tabletów w każdym domu. Wybuchowy rozwój urządzeń mobilnych doprowadził do obecnego popytu na IoT. & Nbsp; Ze względu na nieograniczone możliwości w branży IoT, wielu małych i średnich przedsiębiorców wskoczyło na fali gorączki złota IoT. Również ze względu na pojawienie się elektroniki open source i platformy IoT, koszt rozwoju systemu IoT i dalszego zarządzania jego znaczną produkcją jest coraz bardziej przystępny. Obecni właściciele produktów elektronicznych odczuwają presję, aby zintegrować swoje urządzenie z aplikacją internetową lub mobilną. & Nbsp; Szkolenie to jest przeznaczone do przeglądu technologii i biznesu rozwijającego się przemysłu, aby entuzjaści Internetu przedmiotów / przedsiębiorcy mogli zrozumieć podstawy technologii IoT i biznesu. Cele kursu & nbsp; Głównym celem kursu jest przedstawienie pojawiających się opcji technologicznych, platform i studiów przypadków implementacji Internetu Rzeczy w domu i szkole. automatyzacja miasta (inteligentne domy i miasta), Internet przemysłowy, służba zdrowia, Govt., Mobile Cellular i inne. & nbsp; Podstawowe wprowadzenie do wszystkich elementów IoT-Mechanical, elektroniki / platformy czujników, protokołów bezprzewodowych i przewodowych, integracji urządzeń mobilnych z elektroniką, integracji urządzeń mobilnych z przedsiębiorstwami, analityki danych i całkowitej płaszczyzny sterowania. & nbsp; Bezprzewodowe protokoły M2M dla IoT-WiFi, Zigbee / Zwave, Bluetooth, ANT +: Kiedy i gdzie używać? & nbsp; Aplikacja mobilna / komputerowa / internetowa - do rejestracji, gromadzenia danych i kontroli. Dostępna & nbsp; platforma pozyskiwania danych M2M dla IoT - & ndash; Xively, Omega i NovoTech itd. Problemy bezpieczeństwa i rozwiązania bezpieczeństwa dla IoT Platforma Open Source / Commercial Electronics dla IoT-Rasberry Pi, Adruino, ArmMbedLPC etc & nbsp; Platforma chmurowa typu open source / komercyjna dla IoT-Ayla, iO Bridge, Libellium, Axeda, chmury Cisco frog Badania biznesowe i technologiczne niektórych popularnych urządzeń IoT, takich jak automatyzacja domu, alarmy dymne, pojazdy wojskowe, zdrowie domowe itp. Docelowi odbiorcy & nbsp; Inwestorzy i przedsiębiorcy IoT & nbsp; Menedżerowie i inżynierowie, których firma wchodzi w przestrzeń IoT & nbsp; Analitycy biznesowi & amp; Inwestorzy
21 hours
Overview
Apache NiFi (Hortonworks DataFlow) to zintegrowana w czasie rzeczywistym logistyka danych i prosta platforma przetwarzania zdarzeń, która umożliwia przenoszenie, śledzenie i automatyzację danych między systemami Jest napisany przy użyciu programowania bazującego na przepływach i zapewnia interfejs użytkownika oparty na sieci Web do zarządzania przepływem danych w czasie rzeczywistym Podczas tego instruktażowego szkolenia na żywo uczestnicy dowiedzą się, jak wdrażać i zarządzać Apache NiFi w środowisku laboratoryjnym Pod koniec tego szkolenia uczestnicy będą mogli: Zainstaluj i skonfiguruj Apachi NiFi Źródło, przetwarzaj i zarządzaj danymi z różnych, rozproszonych źródeł danych, w tym z baz danych i dużych jezior danych Automatyzuj przepływ danych Włącz analizę strumieniową Zastosuj różne podejścia do przetwarzania danych Przekształć Big Data i w analizy biznesowe Publiczność Administratorzy systemu Inżynierowie danych Deweloperzy DevOps Format kursu Wykład częściowy, dyskusja częściowa, ćwiczenia i ciężka praktyka handson .
28 hours
Overview
MonetDB jest opensource'ową bazą danych, która była pionierem podejścia do technologii columnstore Podczas tego instruktażowego szkolenia na żywo uczestnicy dowiedzą się, jak korzystać z MonetDB i jak uzyskać jak największą wartość Pod koniec tego szkolenia uczestnicy będą mogli: Poznaj MonetDB i jego funkcje Zainstaluj i uruchom z MonetDB Przeglądaj i wykonuj różne funkcje i zadania w MonetDB Przyspieszenie realizacji projektu poprzez maksymalizację możliwości MonetDB Publiczność Deweloperzy Eksperci techniczni Format kursu Wykład częściowy, dyskusja częściowa, ćwiczenia i ciężka praktyka handson .
28 hours
Overview
MemSQL to oparty na zapamiętywaniu, rozproszony, system zarządzania bazami danych SQL dla chmury i onpremises Jest to hurtownia danych w czasie rzeczywistym, która natychmiast dostarcza wglądu w dane na żywo i dane historyczne W tym instruktażowym szkoleniu na żywo uczestnicy poznają podstawowe elementy MemSQL do programowania i administracji Pod koniec tego szkolenia uczestnicy będą mogli: Zapoznaj się z kluczowymi pojęciami i cechami MemSQL Instaluj, projektuj, utrzymuj i obsługuj MemSQL Zoptymalizuj schematy w MemSQL Ulepsz zapytania w MemSQL Wydajność wzorcowa w MemSQL Twórz aplikacje danych w czasie rzeczywistym za pomocą MemSQL Publiczność Deweloperzy Administratorzy Inżynierowie obsługi Format kursu Wykład częściowy, dyskusja częściowa, ćwiczenia i ciężka praktyka handson .
7 hours
Overview
Podczas tego instruktażowego szkolenia na żywo uczestnicy poznają podstawowe pojęcia związane z MapR Stream Architecture, opracowując aplikację do przesyłania strumieniowego w czasie rzeczywistym Pod koniec tego szkolenia uczestnicy będą mogli budować aplikacje producentów i konsumentów do przetwarzania danych strumieniowych w czasie rzeczywistym Publiczność Deweloperzy Administratorzy Format kursu Wykład częściowy, dyskusja częściowa, ćwiczenia i ciężka praktyka handson Uwaga Aby poprosić o indywidualne szkolenie dla tego kursu, skontaktuj się z nami w celu ustalenia szczegółów .
14 hours
Overview
Magellan to rozproszony, rozproszony silnik wykonawczy do analizy geoprzestrzennej dużych zbiorów danych Wdrożony na szczycie Apache Spark, rozszerza Spark SQL i zapewnia relacyjną abstrakcję dla analityki geoprzestrzennej To instruktażowe szkolenie na żywo wprowadza koncepcje i podejścia do wdrażania analizy geoprzestrzennej i prowadzi uczestników przez stworzenie aplikacji do analizy predykcyjnej z wykorzystaniem Magellana na Sparku Pod koniec tego szkolenia uczestnicy będą mogli: Skutecznie wyszukuj, analizuj i dołączaj zbiory danych geoprzestrzennych na dużą skalę Wdrażaj dane geoprzestrzenne w aplikacjach do analiz biznesowych i analizie predykcyjnej Użyj kontekstu przestrzennego, aby rozszerzyć możliwości urządzeń mobilnych, czujników, dzienników i urządzeń do noszenia Publiczność Twórcy aplikacji Format kursu Wykład częściowy, dyskusja częściowa, ćwiczenia i ciężka praktyka handson .
14 hours
Overview
Apache Kylin to ekstremalny, rozproszony mechanizm analityczny do dużych zbiorów danych W tym instruktażowym szkoleniu na żywo uczestnicy dowiedzą się, jak używać Apache Kylin do skonfigurowania hurtowni danych w czasie rzeczywistym Pod koniec tego szkolenia uczestnicy będą mogli: Zbieraj dane strumieniowe w czasie rzeczywistym za pomocą Kylin Wykorzystaj potężne funkcje Apache Kylin, w tym obsługę schematów płatka śniegu, bogaty interfejs SQL, lukę w iskrzeniu i opóźnienie kwerendy Uwaga Używamy najnowszej wersji Kylin (od tego pisania Apache Kylin v20) Publiczność Wielcy inżynierowie danych Analitycy Big Data Format kursu Wykład częściowy, dyskusja częściowa, ćwiczenia i ciężka praktyka handson .
21 hours
Overview
Odkrywanie wiedzy w bazach danych (KDD) to proces odkrywania użytecznej wiedzy z zestawu danych Aplikacje Reallife do tej techniki wyszukiwania danych obejmują marketing, wykrywanie oszustw, telekomunikację i produkcję W tym kursie wprowadzamy procesy związane z KDD i przeprowadzamy serię ćwiczeń, aby ćwiczyć wdrażanie tych procesów Publiczność Analitycy danych lub wszyscy zainteresowani nauką interpretowania danych w celu rozwiązywania problemów Format kursu Po teoretycznej dyskusji na temat KDD instruktor przedstawi przypadki reallife, które wymagają zastosowania KDD w celu rozwiązania problemu Uczestnicy będą przygotowywać, selekcjonować i oczyszczać przykładowe zestawy danych i wykorzystywać ich wcześniejszą wiedzę o danych do proponowania rozwiązań opartych na wynikach ich obserwacji .
7 hours
Overview
Kafka Streams jest biblioteką dla klientów do budowania aplikacji i mikrousług, których dane są przesyłane do iz systemu komunikacyjnego Kafki Tradycyjnie Apache Kafka polegał na Apache Spark lub Apache Storm, aby przetwarzać dane między producentami wiadomości i konsumentami Wywołując API Strefy Kafki z poziomu aplikacji, dane mogą być przetwarzane bezpośrednio w Kafce, omijając potrzebę wysyłania danych do oddzielnego klastra w celu przetworzenia W tym instruktażowym szkoleniu na żywo uczestnicy dowiedzą się, jak zintegrować strumienie Kafka w zestaw przykładowych aplikacji Java, które przekazują dane do iz Apache Kafka w celu przetworzenia strumienia Pod koniec tego szkolenia uczestnicy będą mogli: Zapoznaj się z funkcjami i zaletami Strefy Kafki nad innymi strukturami przetwarzania strumieniowego Przetwarzaj dane strumieniowe bezpośrednio w klastrze Kafki Napisz aplikację Java lub Scala lub mikroserwis, który integruje się ze strumieniami Kafka i Kafka Napisz zwięzły kod, który przekształca wkład Kafki w wyjściowe tematy Kafki Twórz, pakuj i wdrażaj aplikację Publiczność Deweloperzy Format kursu Wykład częściowy, dyskusja częściowa, ćwiczenia i ciężka praktyka handson Uwagi Aby poprosić o indywidualne szkolenie dla tego kursu, skontaktuj się z nami w celu ustalenia szczegółów .
21 hours
Overview
Przetwarzanie strumienia oznacza przetwarzanie w czasie rzeczywistym danych w ruchu, czyli wykonywanie obliczeń na danych podczas ich odbierania Takie dane są odczytywane jako nieprzerwane strumienie ze źródeł danych, takich jak zdarzenia z czujników, aktywność użytkowników na stronach internetowych, transakcje finansowe, przeciągnięcia kart kredytowych, strumienie kliknięć itp Struktury przetwarzania strumieniowego są w stanie odczytać duże ilości przychodzących danych i niemal natychmiast uzyskać cenne informacje W tym instruktażowym szkoleniu na żywo (na miejscu lub zdalnie) uczestnicy dowiedzą się, jak skonfigurować i zintegrować różne struktury przetwarzania strumieniowego z istniejącymi dużymi systemami przechowywania danych oraz powiązanymi aplikacjami i mikrousługami Pod koniec tego szkolenia uczestnicy będą mogli: Zainstaluj i skonfiguruj różne frameworki Stream Processing, takie jak Spark Streaming i Kafka Streaming Zrozum i wybierz najbardziej odpowiednie ramy dla pracy Proces przesyłania danych w sposób ciągły, jednocześnie iw trybie rekordowo-rejestrującym Integracja rozwiązań do przetwarzania strumieniowego z istniejącymi bazami danych, hurtowniami danych, jeziorami danych itp Integracja najbardziej odpowiedniej biblioteki przetwarzania strumieniowego z aplikacjami korporacyjnymi i mikroserwisami Publiczność Deweloperzy Architekci oprogramowania Format kursu Wykład częściowy, dyskusja częściowa, ćwiczenia i ciężka praktyka handson Uwagi Aby poprosić o indywidualne szkolenie dla tego kursu, skontaktuj się z nami w celu ustalenia szczegółów .
14 hours
Overview
Celem kursu jest umożliwienie uczestnikom opanowania umiejętności pracy z językiem SQL w bazie danych Oracle w celu wyodrębnienia danych na poziomie średnio zaawansowanym.
14 hours
Overview
Ten kurs jest przeznaczony dla Deweloperzy Format kursu Wykłady, ćwiczenia praktyczne, małe testy po drodze, aby ocenić zrozumienie .
21 hours
Overview
Cloudera Impala to mechanizm zapytań SQL masowego przetwarzania równoległego (MPP) dla klastrów Apache Hadoop Impala umożliwia użytkownikom wysyłanie zapytań SQL o niskiej dokładności do danych przechowywanych w Hadoop Distributed File System i Apache Hbase bez konieczności przenoszenia lub przekształcania danych Publiczność Kurs przeznaczony jest dla analityków i specjalistów ds Danych przeprowadzających analizę danych przechowywanych w Hadoop za pomocą narzędzi Business Intelligence lub SQL Po tym kursie delegaci będą mogli Wyciągnij znaczące informacje z klastrów Hadoop z Impala Napisz konkretne programy, aby ułatwić Business Intelligence w Dialekcie SQL Impala Rozwiązywanie problemów z Impala .
7 hours
Overview
Ten kurs opisuje, jak używać języka Hive SQL (AKA: Hive HQL, SQL na Hive, HiveQL) dla ludzi, którzy wyodrębniają dane z Hive .
21 hours
Overview
Hortonworks Data Platform to otwarta platforma wsparcia Apache Hadoop, która zapewnia stabilne podstawy do opracowywania rozwiązań big data w ekosystemie Apache Hadoop Ten instruktażowy trening na żywo wprowadza Hortonworks i prowadzi uczestników przez wdrożenie rozwiązania Spark + Hadoop Pod koniec tego szkolenia uczestnicy będą mogli: Użyj Hortonworks, aby niezawodnie uruchomić Hadoop na dużą skalę Ujednolić zabezpieczenia, zarządzanie i operacje operacyjne Hadoop dzięki zwinnym analitycznym obiegom pracy Spark Używaj Hortonworks do sprawdzania, sprawdzania poprawności, certyfikowania i obsługi każdego komponentu w projekcie Spark Przetwarzaj różne typy danych, w tym strukturyzowane, nieustrukturyzowane, inmotion i atrest Publiczność Administratorzy Hadoop Format kursu Wykład częściowy, dyskusja częściowa, ćwiczenia i ciężka praktyka handson .
21 hours
Overview
Ten kurs wprowadza HBase - sklep NoSQL na szczycie Hadoop Kurs przeznaczony jest dla programistów, którzy będą używać HBase do tworzenia aplikacji oraz administratorów, którzy będą zarządzać klastrami HBase Będziemy chodzić dewelopera przez architekturę HBase oraz modelowanie danych i tworzenie aplikacji na HBase Omówi także wykorzystanie MapReduce z HBase oraz kilka zagadnień administracyjnych związanych z optymalizacją wydajności Kurs jest bardzo poręczny z wieloma ćwiczeniami laboratoryjnymi Czas trwania : 3 dni Odbiorcy : programiści i administratorzy .
28 hours
Overview
Hadoop to popularny system przetwarzania dużych zbiorów danych Python to język programowania wysokiego poziomu znany ze swojej czytelnej składni i czytelności kodu W tym instruktażowym szkoleniu na żywo uczestnicy dowiedzą się, jak pracować z Hadoop, MapReduce, Pig i Spark przy użyciu Pythona, ponieważ przechodzą przez wiele przykładów i przypadków użycia Pod koniec tego szkolenia uczestnicy będą mogli: Poznaj podstawowe pojęcia związane z Hadoop, MapReduce, Pig i Spark Używaj Pythona z Hadoop Distributed File System (HDFS), MapReduce, Pig i Spark Użyj Snakebite, aby programowo uzyskać dostęp do HDFS w Pythonie Użyj mrjob do napisania zadań MapReduce w Pythonie Napisz programy Spark z Pythonem Rozszerz funkcjonalność świni używając UDF typu Python Zarządzaj zadaniami MapReduce i skryptami Pig za pomocą Luigi Publiczność Deweloperzy Specjaliści IT Format kursu Wykład częściowy, dyskusja częściowa, ćwiczenia i ciężka praktyka handson .
28 hours
Overview
Publiczność:

Ten kurs ma na celu demistyfikację technologii big data / hadoop i pokazanie, że nie jest to trudne do zrozumienia.
14 hours
Overview
Coraz więcej projektów informatycznych i oprogramowania migruje z lokalnego przetwarzania i zarządzania danymi do rozproszonego przetwarzania i przechowywania dużych ilości danych Menedżerowie projektów dostrzegają potrzebę poszerzenia swojej wiedzy i umiejętności, aby zrozumieć koncepcje i praktyki związane z projektami i możliwościami Big Data Ten kurs wprowadza Project Managerów do najpopularniejszego frameworku Big Data: Hadoop W ramach tego instruktażowego szkolenia uczestnicy poznają podstawowe elementy ekosystemu Hadoop oraz sposoby wykorzystania tych technologii do rozwiązywania problemów o dużej skali Ucząc się tych podstaw, uczestnicy poprawią również swoją zdolność komunikowania się z twórcami i wdrażającymi te systemy, a także z naukowcami i analitykami danych, których dotyczy wiele projektów informatycznych Publiczność Kierownicy projektów, którzy chcą wdrożyć Hadoop do istniejącej infrastruktury programistycznej lub informatycznej Kierownicy projektów, którzy muszą komunikować się z zespołami złożonymi z wielu funkcjonalności, w tym inżynierami big data, naukowcami danych i analitykami biznesowymi Format kursu Wykład częściowy, dyskusja częściowa, ćwiczenia i ciężka praktyka handson .
21 hours
Overview
Hadoop jest najpopularniejszym frameworkiem Big Data .
7 hours
Overview
Apache NiFi (Hortonworks DataFlow) to zintegrowana w czasie rzeczywistym logistyka danych i prosta platforma przetwarzania zdarzeń, która umożliwia przenoszenie, śledzenie i automatyzację danych między systemami Jest napisany przy użyciu programowania bazującego na przepływach i zapewnia interfejs użytkownika oparty na sieci Web do zarządzania przepływem danych w czasie rzeczywistym W ramach tego instruktażowego szkolenia na żywo uczestnicy poznają podstawy programowania bazującego na przepływach, opracowując szereg rozszerzeń demo, komponentów i procesorów za pomocą Apache NiFi Pod koniec tego szkolenia uczestnicy będą mogli: Zapoznaj się z koncepcjami architektury i przepływu danych NiFi Twórz rozszerzenia za pomocą interfejsów API NiFi i thirdparty Custom opracuj własny procesor Apache Nifi Spełniaj i przetwarzaj dane w czasie rzeczywistym z różnych i nietypowych formatów plików i źródeł danych Publiczność Deweloperzy Inżynierowie danych Format kursu Wykład częściowy, dyskusja częściowa, ćwiczenia i ciężka praktyka handson .
28 hours
Overview
Pentaho jest produktem dystrybuowanym na zasadzie licencji Open Source, który dostarcza pełnej gamy rozwiązań dla biznesu w obszarze Business Intelligence, włączając w to raportowanie, analizy danych, kokpity managerskie i integrację danych.
Dzięki platformie Pentaho poszczególne komórki biznesu uzyskują dostęp do szerokiego wachlarza cennych informacji, począwszy od analiz sprzedaży i opłacalności poszczególnych klientów czy produktów, poprzez raportowanie na potrzeby HR i działów finansowych, aż do dostarczania informacji zbiorczych na potrzeby kierownictwa wyższego szczebla.
28 hours
Overview
Apache Hadoop to najpopularniejsza platforma do przetwarzania Big Data na klastrach serwerów Ten kurs wprowadzi programistę do różnych komponentów (HDFS, MapReduce, Pig, Hive i HBase) ekosystemu Hadoop .
7 hours
Overview
Spark SQL to moduł Apache Spark do pracy z danymi strukturalnymi i nieustrukturyzowanymi Spark SQL dostarcza informacji o strukturze danych oraz wykonywanych obliczeniach Informacje te można wykorzystać do przeprowadzenia optymalizacji Dwa typowe zastosowania dla Spark SQL to: do wykonywania zapytań SQL do odczytu danych z istniejącej instalacji Hive W tym instruktażowym szkoleniu na żywo (na miejscu lub zdalnie) uczestnicy nauczą się analizować różne typy zestawów danych za pomocą Spark SQL Pod koniec tego szkolenia uczestnicy będą mogli: Zainstaluj i skonfiguruj Spark SQL Wykonaj analizę danych za pomocą Spark SQL Zestawy danych zapytania w różnych formatach Wizualizuj dane i wyniki zapytań Publiczność Analitycy danych Data naukowcy Inżynierowie danych Format kursu Wykład częściowy, dyskusja częściowa, ćwiczenia i ciężka praktyka handson Uwagi Aby poprosić o indywidualne szkolenie dla tego kursu, skontaktuj się z nami w celu ustalenia szczegółów .
14 hours
Overview
Apache Zeppelin to webowy notes do przechwytywania, eksplorowania, wizualizacji i udostępniania danych opartych na Hadoop i Spark To instruktażowe szkolenie na żywo wprowadza koncepcje kryjące się za interaktywną analizą danych i przeprowadza uczestników przez wdrożenie i używanie Zeppelin w środowisku singleuser lub wielu użytkowników Pod koniec tego szkolenia uczestnicy będą mogli: Zainstaluj i skonfiguruj Zeppelin Twórz, organizuj, uruchamiaj i udostępniaj dane w interfejsie opartym na przeglądarce Wizualizuj wyniki bez odwoływania się do szczegółów wiersza poleceń lub szczegółów klastra Wykonuj i współpracuj przy długich przepływach pracy Pracuj z dowolnym językiem plugin / przetwarzaniem danych, takim jak Scala (z Apache Spark), Python (z Apache Spark), Spark SQL, JDBC, Markdown i Shell Zintegruj Zeppelin ze Spark, Flink i Map Reduce Zabezpiecz instancje wielu użytkowników Zeppelina za pomocą Apache Shiro Publiczność Inżynierowie danych Analitycy danych Data naukowcy Deweloperzy oprogramowania Format kursu Wykład częściowy, dyskusja częściowa, ćwiczenia i ciężka praktyka handson .
14 hours
Overview
Vespa to silnik big data do przetwarzania danych i serwowania danych stworzony przez Yahoo Służy do odpowiadania na zapytania użytkowników, tworzenia zaleceń i dostarczania spersonalizowanych treści i reklam w czasie rzeczywistym To instruktażowe szkolenie na żywo wprowadza wyzwania związane z serwowaniem danych o dużej skali i prowadzi uczestników przez stworzenie aplikacji, która może obliczać odpowiedzi na żądania użytkowników, w czasie rzeczywistym w dużych zestawach danych Pod koniec tego szkolenia uczestnicy będą mogli: Użyj Vespa, aby szybko obliczać dane (przechowywać, wyszukiwać, oceniać, organizować) w czasie serwowania, gdy użytkownik czeka Zaimplementuj Vespa w istniejących aplikacjach wykorzystujących wyszukiwanie funkcji, rekomendacje i personalizację Zintegruj i wdrożyć Vespa z istniejącymi systemami dużych danych, takimi jak Hadoop i Storm Publiczność Deweloperzy Format kursu Wykład częściowy, dyskusja częściowa, ćwiczenia i ciężka praktyka handson .
14 hours
Overview
Tigon jest open source, w czasie rzeczywistym, lowlatency, highthroughput, native YARN, framework przetwarzania strumienia, który znajduje się na szczycie HDFS i HBase dla trwałości Aplikacje Tygon adresują przypadki użycia, takie jak wykrywanie włamań i analiz sieciowych, analiza rynku mediów społecznościowych, analiza lokalizacji i zalecenia w czasie rzeczywistym dla użytkowników Ten instruktażowy trening na żywo wprowadza podejście Tigona do mieszania przetwarzania w czasie rzeczywistym i przetwarzania wsadowego, gdy przechodzi uczestników przez tworzenie przykładowej aplikacji Pod koniec tego szkolenia uczestnicy będą mogli: Twórz wydajne aplikacje do przetwarzania strumieniowego do obsługi dużych ilości danych Przetwarzaj źródła strumieniowe, takie jak Twitter i dzienniki serwera WWW Użyj Tigona do szybkiego łączenia, filtrowania i agregowania strumieni Publiczność Deweloperzy Format kursu Wykład częściowy, dyskusja częściowa, ćwiczenia i ciężka praktyka handson .
21 hours
Overview
Teradata jest jednym z popularnych Relacyjnych Systemów Zarządzania Bazą Danych Jest przeznaczony głównie do budowy aplikacji do hurtowego przechowywania danych Teradata osiąga to dzięki koncepcji równoległości Ten kurs wprowadza delegatów do Teradata .
28 hours
Overview
Talend Open Studio for Data Integration to produkt integracji danych open source służący do łączenia, konwertowania i aktualizowania danych w różnych lokalizacjach w firmie W ramach tego instruktażowego szkolenia na żywo uczestnicy nauczą się korzystać z narzędzia Talend ETL do przeprowadzania transformacji danych, ekstrakcji danych i łączności z Hadoop, Hive i Pig Do końca tego szkolenia uczestnicy będą mogli Wyjaśnij pojęcia stojące za ETL (Extract, Transform, Load) i propagacja Zdefiniuj metody ETL i narzędzia ETL do połączenia z Hadoop Skutecznie gromadzić, odzyskiwać, trawić, konsumować, przekształcać i kształtować duże dane zgodnie z wymaganiami biznesowymi Prześlij i wyodrębnij duże rekordy z baz Hadoop (opcjonalnie), Hive (opcjonalnie) i NoSQL Publiczność Specjaliści od business intelligence Menadżerowie projektu Specjaliści bazy danych Programiści SQL Deweloperzy ETL Architekci rozwiązań Architekci danych Specjaliści zajmujący się magazynowaniem danych Administratorzy systemów i integratorzy Format kursu Wykład częściowy, dyskusja częściowa, ćwiczenia i ciężka praktyka handson Uwaga Aby poprosić o indywidualne szkolenie dla tego kursu, skontaktuj się z nami w celu ustalenia szczegółów .

Nadchodzące szkolenia z technologii Big Data

Szkolenie Big Data, Big Data boot camp, Szkolenia Zdalne Big Data, szkolenie wieczorowe Big Data, szkolenie weekendowe Big Data, Kurs Big Data,Kursy Big Data, Trener Big Data, instruktor Big Data, kurs zdalny Big Data, edukacja zdalna Big Data, nauczanie wirtualne Big Data, lekcje UML, nauka przez internet Big Data, e-learning Big Data, kurs online Big Data, wykładowca Big Data

Kursy w promocyjnej cenie

Newsletter z promocjami

Zapisz się na nasz newsletter i otrzymuj informacje o aktualnych zniżkach na kursy otwarte.
Szanujemy Twoją prywatność, dlatego Twój e-mail będzie wykorzystywany jedynie w celu wysyłki naszego newslettera, nie będzie udostępniony ani sprzedany osobom trzecim.
W dowolnej chwili możesz zmienić swoje preferencje co do otrzymywanego newslettera bądź całkowicie się z niego wypisać.

Zaufali nam

is growing fast!

We are looking to expand our presence in Poland!

As a Business Development Manager you will:

  • expand business in Poland
  • recruit local talent (sales, agents, trainers, consultants)
  • recruit local trainers and consultants

We offer:

  • Artificial Intelligence and Big Data systems to support your local operation
  • high-tech automation
  • continuously upgraded course catalogue and content
  • good fun in international team

If you are interested in running a high-tech, high-quality training and consulting business.

Apply now!