Szkolenia Big Data

Szkolenia Big Data

BigData to termin używany w odniesieniu do rozwiązań przeznaczonych do przechowywania i przetwarzania dużych zbiorów danych. Rozwiązania typu BigData zostały zainicjowane przez firmę Google, jakkolwiek obecnie dostępnych jest wiele rozwiązań typu open-source takich jak Apache Hadoop, Cassandra czy Cloudera Impala. Zgodnie z raportami publikowanymi przez firmę Gartner BigData jest kolejnym wielkim krokiem w branży IT, zaraz po rozwiązaniach opartych na chmurze obliczeniowej, i będzie wiodącym trendem przez kilka najbliższych lat. Szkolenia z tematu Big Data mogą być realizowane w siedzibie klienta - lokalizacja w Polsce lub centrach szkoleniowych w lokalizacji w Polsce Szkolenie zdalne realizowane są przy użyciu interaktywnego, zdalnego pulpitu.

Opinie uczestników

★★★★★
★★★★★

Plany szkoleń z technologii Big Data

KodNazwaCzas trwaniaCharakterystyka kursu
smtwebintSemantic Web Overview7 godzinySemantic Web to ruch oparty na współpracy prowadzony przez World Wide Web Consortium (W3C), który promuje popularne formaty danych w sieci World Wide Web. Sieć semantyczna zapewnia wspólną strukturę, która umożliwia udostępnianie i ponowne wykorzystywanie danych w obrębie aplikacji, przedsiębiorstw i granic społeczności.
vespaVespa: Serving Large-Scale Data in Real-Time14 godzinyVespa to silnik big data do przetwarzania danych i serwowania danych stworzony przez Yahoo Służy do odpowiadania na zapytania użytkowników, tworzenia zaleceń i dostarczania spersonalizowanych treści i reklam w czasie rzeczywistym To instruktażowe szkolenie na żywo wprowadza wyzwania związane z serwowaniem danych o dużej skali i prowadzi uczestników przez stworzenie aplikacji, która może obliczać odpowiedzi na żądania użytkowników, w czasie rzeczywistym w dużych zestawach danych Pod koniec tego szkolenia uczestnicy będą mogli: Użyj Vespa, aby szybko obliczać dane (przechowywać, wyszukiwać, oceniać, organizować) w czasie serwowania, gdy użytkownik czeka Zaimplementuj Vespa w istniejących aplikacjach wykorzystujących wyszukiwanie funkcji, rekomendacje i personalizację Zintegruj i wdrożyć Vespa z istniejącymi systemami dużych danych, takimi jak Hadoop i Storm Publiczność Deweloperzy Format kursu Wykład częściowy, dyskusja częściowa, ćwiczenia i ciężka praktyka handson .
graphcomputingIntroduction to Graph Computing28 godzinyWiele problemów w świecie rzeczywistym można opisać za pomocą wykresów Na przykład wykres sieci, wykres sieci społecznościowej, wykres sieci pociągu i wykres językowy Wykresy te wydają się być bardzo duże; ich przetwarzanie wymaga wyspecjalizowanego zestawu narzędzi i procesów, a te narzędzia i procesy można nazywać komputerami Graph Computing (znanymi również jako Graph Analytics) W tym instruktażowym szkoleniu na żywo uczestnicy poznają ofertę technologii i podejścia do implementacji w przetwarzaniu danych graficznych Celem jest identyfikacja obiektów rzeczywistych, ich cech i relacji, a następnie modelowanie tych zależności i przetwarzanie ich jako danych przy użyciu podejścia opartego na wykresie Zaczynamy od obszernego przeglądu i wąskich narzędzi, gdy przechodzimy przez serię studiów przypadku, ćwiczenia praktyczne i wdrożenia na żywo Pod koniec tego szkolenia uczestnicy będą mogli: Dowiedz się, jak dane wykresu są zachowywane i przechodzą Wybierz najlepszą frameworku dla danego zadania (od graficznych baz danych po frameworki przetwarzania wsadowego) Zaimplementuj Hadoop, Spark, GraphX ​​i Pregel do równoległego wykonywania obliczeń graficznych na wielu maszynach Zobacz problemy z dużymi danymi w realworld pod względem wykresów, procesów i przejść Publiczność Deweloperzy Format kursu Wykład częściowy, dyskusja częściowa, ćwiczenia i ciężka praktyka handson .
nifidevApache NiFi for Developers7 godzinyApache NiFi (Hortonworks DataFlow) to zintegrowana w czasie rzeczywistym logistyka danych i prosta platforma przetwarzania zdarzeń, która umożliwia przenoszenie, śledzenie i automatyzację danych między systemami Jest napisany przy użyciu programowania bazującego na przepływach i zapewnia interfejs użytkownika oparty na sieci Web do zarządzania przepływem danych w czasie rzeczywistym W ramach tego instruktażowego szkolenia na żywo uczestnicy poznają podstawy programowania bazującego na przepływach, opracowując szereg rozszerzeń demo, komponentów i procesorów za pomocą Apache NiFi Pod koniec tego szkolenia uczestnicy będą mogli: Zapoznaj się z koncepcjami architektury i przepływu danych NiFi Twórz rozszerzenia za pomocą interfejsów API NiFi i thirdparty Custom opracuj własny procesor Apache Nifi Spełniaj i przetwarzaj dane w czasie rzeczywistym z różnych i nietypowych formatów plików i źródeł danych Publiczność Deweloperzy Inżynierowie danych Format kursu Wykład częściowy, dyskusja częściowa, ćwiczenia i ciężka praktyka handson .
nifiApache NiFi for Administrators21 godzinyApache NiFi (Hortonworks DataFlow) to zintegrowana w czasie rzeczywistym logistyka danych i prosta platforma przetwarzania zdarzeń, która umożliwia przenoszenie, śledzenie i automatyzację danych między systemami Jest napisany przy użyciu programowania bazującego na przepływach i zapewnia interfejs użytkownika oparty na sieci Web do zarządzania przepływem danych w czasie rzeczywistym Podczas tego instruktażowego szkolenia na żywo uczestnicy dowiedzą się, jak wdrażać i zarządzać Apache NiFi w środowisku laboratoryjnym Pod koniec tego szkolenia uczestnicy będą mogli: Zainstaluj i skonfiguruj Apachi NiFi Źródło, przetwarzaj i zarządzaj danymi z różnych, rozproszonych źródeł danych, w tym z baz danych i dużych jezior danych Automatyzuj przepływ danych Włącz analizę strumieniową Zastosuj różne podejścia do przetwarzania danych Przekształć Big Data i w analizy biznesowe Publiczność Administratorzy systemu Inżynierowie danych Deweloperzy DevOps Format kursu Wykład częściowy, dyskusja częściowa, ćwiczenia i ciężka praktyka handson .
solrcloudSolrCloud14 godzinyApache SolrCloud jest rozproszonym mechanizmem przetwarzania danych, który ułatwia wyszukiwanie i indeksowanie plików w sieci rozproszonej W tym instruktażowym szkoleniu na żywo uczestnicy dowiedzą się, jak skonfigurować instancję SolrCloud na Amazon AWS Pod koniec tego szkolenia uczestnicy będą mogli: Zapoznaj się z funkcjami SolCloud i ich porównaniem do tradycyjnych klastrów masterslave Skonfiguruj centralny klaster SolCloud Zautomatyzuj procesy, takie jak komunikowanie się ze skorupami, dodawanie dokumentów do odłamków itp Użyj Zookeepera w połączeniu z SolrCloud, aby dalej automatyzować procesy Użyj interfejsu do zarządzania raportowaniem błędów Load balance to instalacja SolrCloud Skonfiguruj SolrCloud do ciągłego przetwarzania i przełączania awaryjnego Publiczność Deweloperzy Solr Menadżerowie projektu Administratorzy systemu Analitycy wyszukiwania Format kursu Wykład częściowy, dyskusja częściowa, ćwiczenia i ciężka praktyka handson .
datavaultData Vault: Building a Scalable Data Warehouse28 godzinyModelowanie skarbca danych to technika modelowania baz danych, która zapewnia długoterminowe archiwalne przechowywanie danych pochodzących z wielu źródeł Przechowalnia danych przechowuje pojedynczą wersję faktów lub "wszystkie dane, cały czas" Jego elastyczny, skalowalny, spójny i dostosowujący się projekt obejmuje najlepsze aspekty trzeciej normalnej formy (3NF) i schematu gwiazdy W tym instruktażowym szkoleniu na żywo uczestnicy dowiedzą się, jak zbudować skarbiec danych Pod koniec tego szkolenia uczestnicy będą mogli: Zapoznaj się z koncepcjami architektury i projektowania kryjącymi się za Data Vault 20 oraz jego interakcją z Big Data, NoSQL i AI Użyj technik przechwytywania danych, aby umożliwić inspekcję, śledzenie i przeglądanie danych historycznych w hurtowni danych Opracuj spójny i powtarzalny proces ETL (Extract, Transform, Load) Buduj i wdrażaj wysoce skalowalne i powtarzalne magazyny Publiczność Modelarze danych Specjalista ds Hurtowni danych Specjaliści Business Intelligence Inżynierowie danych Administratorzy baz danych Format kursu Wykład częściowy, dyskusja częściowa, ćwiczenia i ciężka praktyka handson .
datameerDatameer for Data Analysts14 godzinyDatameer to platforma analizy biznesowej i analitycznej zbudowana na platformie Hadoop Umożliwia on użytkownikom dostępu, odkrywania i korelowania dużych, uporządkowanych, semistrukturalnych i niestrukturalnych danych w łatwy sposób W tym instruktażowym szkoleniu na żywo uczestnicy dowiedzą się, jak używać Datameer do pokonywania stromych krzywych uczenia się Hadoop, kiedy przechodzą przez proces konfiguracji i analizy szeregu dużych źródeł danych Pod koniec tego szkolenia uczestnicy będą mogli: Twórz, kurators i interaktywnie eksploruj jezioro danych przedsiębiorstwa Dostęp do hurtowni danych biznesowych, transakcyjnych baz danych i innych magazynów analitycznych Użyj interfejsu użytkownika arkusza kalkulacyjnego do zaprojektowania końcowych potoków przetwarzania danych Uzyskaj dostęp do gotowych funkcji, aby poznać złożone relacje danych Użyj kreatorów draganddrop do wizualizacji danych i tworzenia pulpitów Użyj tabel, wykresów i map do analizy wyników zapytania Publiczność Analitycy danych Format kursu Wykład częściowy, dyskusja częściowa, ćwiczenia i ciężka praktyka handson .
tigonTigon: Real-time Streaming for the Real World14 godzinyTigon jest open source, w czasie rzeczywistym, lowlatency, highthroughput, native YARN, framework przetwarzania strumienia, który znajduje się na szczycie HDFS i HBase dla trwałości Aplikacje Tygon adresują przypadki użycia, takie jak wykrywanie włamań i analiz sieciowych, analiza rynku mediów społecznościowych, analiza lokalizacji i zalecenia w czasie rzeczywistym dla użytkowników Ten instruktażowy trening na żywo wprowadza podejście Tigona do mieszania przetwarzania w czasie rzeczywistym i przetwarzania wsadowego, gdy przechodzi uczestników przez tworzenie przykładowej aplikacji Pod koniec tego szkolenia uczestnicy będą mogli: Twórz wydajne aplikacje do przetwarzania strumieniowego do obsługi dużych ilości danych Przetwarzaj źródła strumieniowe, takie jak Twitter i dzienniki serwera WWW Użyj Tigona do szybkiego łączenia, filtrowania i agregowania strumieni Publiczność Deweloperzy Format kursu Wykład częściowy, dyskusja częściowa, ćwiczenia i ciężka praktyka handson .
ApacheIgniteApache Ignite: Improve Speed, Scale and Availability with In-Memory Computing14 godzinyApache Ignite is an in-memory computing platform that sits between the application and data layer to improve speed, scale, and availability.

In this instructor-led, live training, participants will learn the principles behind persistent and pure in-memory storage as they step through the creation of a sample in-memory computing project.

By the end of this training, participants will be able to:

- Use Ignite for in-memory, on-disk persistence as well as a purely distributed in-memory database.
- Achieve persistence without syncing data back to a relational database.
- Use Ignite to carry out SQL and distributed joins.
- Improve performance by moving data closer to the CPU, using RAM as a storage.
- Spread data sets across a cluster to achieve horizontal scalability.
- Integrate Ignite with RDBMS, NoSQL, Hadoop and machine learning processors.

Audience

- Developers

Format of the course

- Part lecture, part discussion, exercises and heavy hands-on practice
apexApache Apex: Processing Big Data-in-Motion21 godzinyApache Apex jest platformą YARNnative, która jednoczy przetwarzanie strumieniowe i wsadowe Przetwarza on dużą pamięć danych w sposób skalowalny, wydajny, odporny na błędy, stanowy, bezpieczny, rozproszony i łatwy w obsłudze Ten instruktażowy trening na żywo wprowadza zunifikowaną architekturę przetwarzania Apache Apex i prowadzi uczestników przez stworzenie rozproszonej aplikacji wykorzystującej Apex na Hadoop Pod koniec tego szkolenia uczestnicy będą mogli: Rozumieć pojęcia potoku przetwarzania danych, takie jak konektory dla źródeł i pochłaniaczy, powszechne transformacje danych itp Buduj, skaluj i optymalizuj aplikację Apex Przetwarzaj w czasie rzeczywistym strumienie danych niezawodnie iz minimalnym opóźnieniem Użyj Apex Core i biblioteki Apex Malhar, aby umożliwić szybkie tworzenie aplikacji Użyj API Apex do napisania i ponownego użycia istniejącego kodu Java Zintegruj Apex z innymi aplikacjami jako mechanizmem przetwarzania Dostrój, przetestuj i skaluj aplikacje Apex Publiczność Deweloperzy Architekci korporacyjni Format kursu Wykład częściowy, dyskusja częściowa, ćwiczenia i ciężka praktyka handson .
bigdatabicriminalBig Data Business Intelligence for Criminal Intelligence Analysis35 godzinyPostępy w technologiach i rosnąca ilość informacji zmieniają sposób przeprowadzania egzekwowania prawa Wyzwania stojące przed Big Data są tak samo trudne, jak obietnica Big Data Skuteczne przechowywanie danych jest jednym z tych wyzwań; efektywna analiza to kolejne W ramach tego instruktażowego szkolenia na żywo uczestnicy poznają sposób, w jaki podchodzą do technologii Big Data, oceniają ich wpływ na istniejące procesy i polityki oraz wdrażają te technologie w celu identyfikowania działalności przestępczej i zapobiegania przestępstwom Studia przypadków z organizacji zajmujących się egzekwowaniem prawa na całym świecie będą badane w celu uzyskania wglądu w ich podejścia do adopcji, wyzwania i wyniki Pod koniec tego szkolenia uczestnicy będą mogli: Połącz technologię Big Data z tradycyjnymi procesami gromadzenia danych, aby złożyć opowieść podczas śledztwa Wdrożyć przemysłowe rozwiązania do przechowywania i przetwarzania dużych zbiorów danych do analizy danych Przygotuj propozycję przyjęcia najbardziej adekwatnych narzędzi i procesów umożliwiających zdecentralizowane podejście do dochodzeń w sprawach karnych Publiczność Specjaliści ds Egzekwowania prawa ze środowiskiem technicznym Format kursu Wykład częściowy, dyskusja częściowa, ćwiczenia i ciężka praktyka handson .
alluxioAlluxio: Unifying Disparate Storage Systems7 godzinyAlexio to wirtualny, rozproszony system pamięci masowej, który ujednolica różne systemy pamięci masowej i umożliwia aplikacjom interakcję z danymi z prędkością pamięci Jest używany przez firmy takie jak Intel, Baidu i Alibaba W ramach tego instruktażowego szkolenia na żywo uczestnicy dowiedzą się, w jaki sposób korzystać z Alexio, aby połączyć różne systemy obliczeniowe z systemami pamięci masowej i wydajnie zarządzać danymi w skali wielościennej, przechodząc przez proces tworzenia aplikacji za pomocą Alluxio Pod koniec tego szkolenia uczestnicy będą mogli: Opracuj aplikację z Alluxio Połącz duże systemy danych i aplikacje, zachowując jedną przestrzeń nazw Wydajny ekstrakt z dużych zbiorów danych w dowolnym formacie Popraw wydajność obciążenia Wdrażaj i zarządzaj Alluxio jako niezależną lub klastrową Publiczność Dane naukowiec Deweloper Administrator systemu Format kursu Wykład częściowy, dyskusja częściowa, ćwiczenia i ciężka praktyka handson .
flinkFlink for Scalable Stream and Batch Data Processing28 godzinyApache Flink to platforma opensource dla skalowalnego przetwarzania strumieniowego i wsadowego Ten instruktażowy trening na żywo wprowadza zasady i podejścia kryjące się za rozproszonym strumieniem danych i przetwarzaniem danych wsadowych oraz prowadzi uczestników przez stworzenie aplikacji do transmisji danych w czasie rzeczywistym Pod koniec tego szkolenia uczestnicy będą mogli: Skonfiguruj środowisko do tworzenia aplikacji do analizy danych Pakuj, uruchamiaj i monitoruj aplikacje oparte na Flinkach, odporne na uszkodzenia, przesyłające dane Zarządzaj różnorodnymi obciążeniami Wykonuj zaawansowane analizy za pomocą Flink ML Skonfiguruj wielordzeniowy klaster Flink Mierz i optymalizuj wydajność Zintegruj system Flink z różnymi systemami Big Data Porównaj możliwości Flink z tymi z innych dużych struktur przetwarzania danych Publiczność Deweloperzy Architekci Inżynierowie danych Profesjonaliści z Analytics Kierownicy techniczni Format kursu Wykład częściowy, dyskusja częściowa, ćwiczenia i ciężka praktyka handson .
samzaSamza for Stream Processing14 godzinyApache Samza to open source nearrealtime, asynchroniczne środowisko obliczeniowe do przetwarzania strumienia Wykorzystuje Apache Kafka do przesyłania wiadomości, a Apache Hadoop YARN do testowania odporności na awarie, izolacji procesorów, bezpieczeństwa i zarządzania zasobami Ten instruktażowy trening na żywo wprowadza zasady obsługi systemów przesyłania wiadomości i rozproszonego przetwarzania strumieniowego, a uczestnicy przechodzą przez proces tworzenia przykładowego projektu Samzabased i wykonywania zadań Pod koniec tego szkolenia uczestnicy będą mogli: Użyj Samzy, aby uprościć kod potrzebny do tworzenia i korzystania z wiadomości Odłącz obsługę komunikatów od aplikacji Użyj Samzy, aby wykonać obliczenia asynchroniczne nearrealtime Użyj przetwarzania strumienia, aby zapewnić wyższy poziom abstrakcji w porównaniu do systemów przesyłania wiadomości Publiczność Deweloperzy Format kursu Wykład częściowy, dyskusja częściowa, ćwiczenia i ciężka praktyka handson .
zeppelinZeppelin for Interactive Data Analytics14 godzinyApache Zeppelin to webowy notes do przechwytywania, eksplorowania, wizualizacji i udostępniania danych opartych na Hadoop i Spark To instruktażowe szkolenie na żywo wprowadza koncepcje kryjące się za interaktywną analizą danych i przeprowadza uczestników przez wdrożenie i używanie Zeppelin w środowisku singleuser lub wielu użytkowników Pod koniec tego szkolenia uczestnicy będą mogli: Zainstaluj i skonfiguruj Zeppelin Twórz, organizuj, uruchamiaj i udostępniaj dane w interfejsie opartym na przeglądarce Wizualizuj wyniki bez odwoływania się do szczegółów wiersza poleceń lub szczegółów klastra Wykonuj i współpracuj przy długich przepływach pracy Pracuj z dowolnym językiem plugin / przetwarzaniem danych, takim jak Scala (z Apache Spark), Python (z Apache Spark), Spark SQL, JDBC, Markdown i Shell Zintegruj Zeppelin ze Spark, Flink i Map Reduce Zabezpiecz instancje wielu użytkowników Zeppelina za pomocą Apache Shiro Publiczność Inżynierowie danych Analitycy danych Data naukowcy Deweloperzy oprogramowania Format kursu Wykład częściowy, dyskusja częściowa, ćwiczenia i ciężka praktyka handson .
magellanMagellan: Geospatial Analytics on Spark14 godzinyMagellan to rozproszony, rozproszony silnik wykonawczy do analizy geoprzestrzennej dużych zbiorów danych Wdrożony na szczycie Apache Spark, rozszerza Spark SQL i zapewnia relacyjną abstrakcję dla analityki geoprzestrzennej To instruktażowe szkolenie na żywo wprowadza koncepcje i podejścia do wdrażania analizy geoprzestrzennej i prowadzi uczestników przez stworzenie aplikacji do analizy predykcyjnej z wykorzystaniem Magellana na Sparku Pod koniec tego szkolenia uczestnicy będą mogli: Skutecznie wyszukuj, analizuj i dołączaj zbiory danych geoprzestrzennych na dużą skalę Wdrażaj dane geoprzestrzenne w aplikacjach do analiz biznesowych i analizie predykcyjnej Użyj kontekstu przestrzennego, aby rozszerzyć możliwości urządzeń mobilnych, czujników, dzienników i urządzeń do noszenia Publiczność Twórcy aplikacji Format kursu Wykład częściowy, dyskusja częściowa, ćwiczenia i ciężka praktyka handson .
hdpHortonworks Data Platform (HDP) for Administrators21 godzinyHortonworks Data Platform to otwarta platforma wsparcia Apache Hadoop, która zapewnia stabilne podstawy do opracowywania rozwiązań big data w ekosystemie Apache Hadoop Ten instruktażowy trening na żywo wprowadza Hortonworks i prowadzi uczestników przez wdrożenie rozwiązania Spark + Hadoop Pod koniec tego szkolenia uczestnicy będą mogli: Użyj Hortonworks, aby niezawodnie uruchomić Hadoop na dużą skalę Ujednolić zabezpieczenia, zarządzanie i operacje operacyjne Hadoop dzięki zwinnym analitycznym obiegom pracy Spark Używaj Hortonworks do sprawdzania, sprawdzania poprawności, certyfikowania i obsługi każdego komponentu w projekcie Spark Przetwarzaj różne typy danych, w tym strukturyzowane, nieustrukturyzowane, inmotion i atrest Publiczność Administratorzy Hadoop Format kursu Wykład częściowy, dyskusja częściowa, ćwiczenia i ciężka praktyka handson .
PentahoDIPentaho Data Integration Fundamentals21 godzinyPentaho Data Integration to otwarte narzędzie do integracji danych do definiowania zadań i transformacji danych Podczas tego instruktażowego szkolenia na żywo uczestnicy dowiedzą się, jak korzystać z potężnych funkcji ETL Pentaho Data Integration i bogatego GUI do zarządzania całym cyklem życia danych, maksymalizując wartość danych dla organizacji Pod koniec tego szkolenia uczestnicy będą mogli: Twórz, przeglądaj i uruchamiaj podstawowe transformacje danych zawierające kroki i przeskoki Skonfiguruj i zabezpiecz repozytorium Pentaho Enterprise Wykorzystaj odmienne źródła danych i wygeneruj jedną, ujednoliconą wersję prawdy w formacie analitycznym Dostarcz wyniki do aplikacji trzeciej części do dalszego przetwarzania Publiczność Analityk danych Twórcy ETL Format kursu Wykład częściowy, dyskusja częściowa, ćwiczenia i ciężka praktyka handson .
TalendDITalend Open Studio for Data Integration 28 godzinyTalend Open Studio for Data Integration to produkt integracji danych open source służący do łączenia, konwertowania i aktualizowania danych w różnych lokalizacjach w firmie W ramach tego instruktażowego szkolenia na żywo uczestnicy nauczą się korzystać z narzędzia Talend ETL do przeprowadzania transformacji danych, ekstrakcji danych i łączności z Hadoop, Hive i Pig Do końca tego szkolenia uczestnicy będą mogli Wyjaśnij pojęcia stojące za ETL (Extract, Transform, Load) i propagacja Zdefiniuj metody ETL i narzędzia ETL do połączenia z Hadoop Skutecznie gromadzić, odzyskiwać, trawić, konsumować, przekształcać i kształtować duże dane zgodnie z wymaganiami biznesowymi Prześlij i wyodrębnij duże rekordy z baz Hadoop (opcjonalnie), Hive (opcjonalnie) i NoSQL Publiczność Specjaliści od business intelligence Menadżerowie projektu Specjaliści bazy danych Programiści SQL Deweloperzy ETL Architekci rozwiązań Architekci danych Specjaliści zajmujący się magazynowaniem danych Administratorzy systemów i integratorzy Format kursu Wykład częściowy, dyskusja częściowa, ćwiczenia i ciężka praktyka handson Uwaga Aby poprosić o indywidualne szkolenie dla tego kursu, skontaktuj się z nami w celu ustalenia szczegółów .
kylinApache Kylin: From Classic OLAP to Real-Time Data Warehouse14 godzinyApache Kylin to ekstremalny, rozproszony mechanizm analityczny do dużych zbiorów danych W tym instruktażowym szkoleniu na żywo uczestnicy dowiedzą się, jak używać Apache Kylin do skonfigurowania hurtowni danych w czasie rzeczywistym Pod koniec tego szkolenia uczestnicy będą mogli: Zbieraj dane strumieniowe w czasie rzeczywistym za pomocą Kylin Wykorzystaj potężne funkcje Apache Kylin, w tym obsługę schematów płatka śniegu, bogaty interfejs SQL, lukę w iskrzeniu i opóźnienie kwerendy Uwaga Używamy najnowszej wersji Kylin (od tego pisania Apache Kylin v20) Publiczność Wielcy inżynierowie danych Analitycy Big Data Format kursu Wykład częściowy, dyskusja częściowa, ćwiczenia i ciężka praktyka handson .
BDATRBig Data Analytics for Telecom Regulators16 godzinyAby spełnić wymagania regulatorów, dostawcy CSP (dostawcy usług komunikacyjnych) mogą korzystać z funkcji Big Analityka danych, która nie tylko pomaga im w spełnianiu wymagań, ale także w zakresie tego samego projektu mogą zwiększyć zadowolenie klientów, a tym samym zmniejszyć liczbę rezygnacji W rzeczywistości od zgodność jest związana z jakością usług związanych z umową, każdą inicjatywą zmierzającą do spełnienia wymagań zgodności, poprawi "przewagę konkurencyjną" CSP Dlatego ważne jest, aby Organy regulacyjne powinny być w stanie doradzić / kierować zestawem praktyk analitycznych Big Data dla CSP, które to zrobią obopólne korzyści między organami nadzoru i CSP 2 dni oczywiście: 8 modułów, po 2 godziny = 16 godzin .
sparkpythonPython and Spark for Big Data (PySpark)21 godzinyPython to język programowania wysokiego poziomu znany ze swojej czytelnej składni i czytelności kodu Spark to silnik przetwarzania danych używany do wysyłania zapytań, analizowania i przekształcania dużych zbiorów danych PySpark pozwala użytkownikom na łączenie Sparka z Pythonem W tym instruktażowym szkoleniu na żywo uczestnicy dowiedzą się, jak używać Pythona i Sparka do analizy dużych danych podczas pracy z ćwiczeniami handson Pod koniec tego szkolenia uczestnicy będą mogli: Dowiedz się, jak używać Sparka z Pythonem do analizy Big Data Pracuj nad ćwiczeniami, które naśladują rzeczywiste okoliczności Użyj różnych narzędzi i technik do analizy dużych danych przy użyciu PySpark Publiczność Deweloperzy Specjaliści IT Data Scientists Format kursu Wykład częściowy, dyskusja częściowa, ćwiczenia i ciężka praktyka handson .
stormApache Storm28 godzinyApache Storm jest rozproszonym, działającym w czasie rzeczywistym silnikiem obliczeniowym służącym do udostępniania analizy biznesowej w czasie rzeczywistym Czyni to, umożliwiając aplikacjom niezawodne przetwarzanie nieograniczonych strumieni danych (również przetwarzanie strumieniowe) "Storm jest przeznaczony do przetwarzania w czasie rzeczywistym, co Hadoop jest do przetwarzania wsadowego!" Podczas tego instruktażowego szkolenia na żywo uczestnicy dowiedzą się, jak zainstalować i skonfigurować Apache Storm, a następnie opracują i wdrożą aplikację Apache Storm do przetwarzania dużych danych w czasie rzeczywistym Niektóre tematy zawarte w tym szkoleniu obejmują: Apache Storm w kontekście Hadoop Praca z nieograniczonymi danymi Ciągłe obliczenia Analitycy w czasie rzeczywistym Rozproszone przetwarzanie RPC i ETL Poproś o ten kurs już teraz! Publiczność Programiści oprogramowania i ETL Specjaliści ds Komputerów mainframe Data naukowcy Analitycy dużych danych Profesjonaliści Hadoop Format kursu Wykład częściowy, dyskusja częściowa, ćwiczenia i ciężka praktyka handson .
foundrFoundation R7 godzinyCelem kursu jest umożliwienie uczestnikom zdobycia mistrzostwa w podstawach R i jak pracować z danymi .
sparkcloudApache Spark in the Cloud21 godzinyApache Spark's learning curve is slowly increasing at the begining, it needs a lot of effort to get the first return. This course aims to jump through the first tough part. After taking this course the participants will understand the basics of Apache Spark , they will clearly differentiate RDD from DataFrame, they will learn Python and Scala API, they will understand executors and tasks, etc. Also following the best practices, this course strongly focuses on cloud deployment, Databricks and AWS. The students will also understand the differences between AWS EMR and AWS Glue, one of the lastest Spark service of AWS.

AUDIENCE:

Data Engineer, DevOps, Data Scientist
bigdataanahealthBig Data Analytics in Health21 godzinyAnaliza dużych danych obejmuje proces sprawdzania dużych ilości różnych zestawów danych w celu wykrycia korelacji, ukrytych wzorców i innych przydatnych wglądów Przemysł medyczny ma ogromne ilości złożonych heterogenicznych danych medycznych i klinicznych Zastosowanie analityki dużych zbiorów danych dotyczących zdrowia daje ogromny potencjał w zakresie wglądu w poprawę jakości opieki zdrowotnej Jednak ogrom tych zestawów danych stanowi wielkie wyzwanie w analizach i praktycznych zastosowaniach w środowisku klinicznym W tym instruktażowym szkoleniu na żywo (zdalnie) uczestnicy dowiedzą się, jak przeprowadzać analizy dużych zbiorów danych w stanie zdrowia, gdy będą przechodzić przez serię ćwiczonych ćwiczeń na żywo Pod koniec tego szkolenia uczestnicy będą mogli: Zainstaluj i skonfiguruj narzędzia do analizy danych dużych, takie jak Hadoop MapReduce i Spark Zapoznaj się z charakterystyką danych medycznych Zastosuj techniki big data do przetwarzania danych medycznych Przestudiuj duże systemy danych i algorytmy w kontekście aplikacji związanych ze zdrowiem Publiczność Deweloperzy Data Scientists Format kursu Wykład częściowy, dyskusja częściowa, ćwiczenia i ciężka praktyka handson Uwaga Aby poprosić o indywidualne szkolenie dla tego kursu, skontaktuj się z nami w celu ustalenia szczegółów .
arrowApache Arrow for Data Analysis across Disparate Data Sources14 godzinyApache Arrow jest strukturą przetwarzania danych otwartego źródła danych Jest często używany razem z innymi narzędziami do nauki danych w celu uzyskania dostępu do różnych magazynów danych do analizy Dobrze integruje się z innymi technologiami, takimi jak bazy danych GPU, biblioteki uczenia maszynowego i narzędzia, silniki wykonawcze i struktury wizualizacji danych W tym instruktażowym szkoleniu na żywo uczestnicy nauczą się integrować Apache Arrow z różnymi frameworkami Data Science, aby uzyskać dostęp do danych z różnych źródeł danych Pod koniec tego szkolenia uczestnicy będą mogli: Zainstaluj i skonfiguruj Apache Arrow w rozproszonym środowisku klastrowym Użyj Apache Arrow, aby uzyskać dostęp do danych z różnych źródeł danych Użyj Apache Arrow, aby ominąć potrzebę budowy i utrzymania złożonych potoków ETL Analizuj dane w różnych źródłach danych bez konieczności konsolidowania ich w scentralizowane repozytorium Publiczność Data naukowcy Inżynierowie danych Format kursu Wykład częściowy, dyskusja częściowa, ćwiczenia i ciężka praktyka handson Uwaga Aby poprosić o indywidualne szkolenie dla tego kursu, skontaktuj się z nami w celu ustalenia szczegółów .
sqoopMoving Data from MySQL to Hadoop with Sqoop14 godzinySqoop to oprogramowanie open source do przesyłania danych między Hadoop a relacyjnymi bazami danych lub komputerami typu mainframe Może być używany do importowania danych z systemu zarządzania relacyjnymi bazami danych (RDBMS), takich jak MySQL lub Oracle lub mainframe do Hadoop Distributed File System (HDFS) Następnie dane mogą zostać przekształcone w Hadoop MapReduce, a następnie ponownie wyekportowane z powrotem do RDBMS W tym instruktażowym szkoleniu na żywo uczestnicy dowiedzą się, jak używać Sqoop do importowania danych z tradycyjnej relacyjnej bazy danych do pamięci Hadoop, takich jak HDFS lub Hive i odwrotnie Pod koniec tego szkolenia uczestnicy będą mogli: Zainstaluj i skonfiguruj Sqoop Importuj dane z MySQL do HDFS i Hive Importuj dane z HDFS i Hive do MySQL Publiczność Administratorzy systemu Inżynierowie danych Format kursu Wykład częściowy, dyskusja częściowa, ćwiczenia i ciężka praktyka handson Uwaga Aby poprosić o indywidualne szkolenie dla tego kursu, skontaktuj się z nami w celu ustalenia szczegółów .
beamUnified Batch and Stream Processing with Apache Beam14 godzinyApache Beam jest otwartym, zunifikowanym modelem programowania do definiowania i wykonywania równoległych potoków przetwarzania danych Jego moc polega na możliwości uruchamiania zarówno potoków wsadowych, jak i strumieniowych, a wykonywanie jest wykonywane przez jeden z obsługiwanych procesorów rozproszonych Beam: Apache Apex, Apache Flink, Apache Spark i Google Cloud Dataflow Apache Beam jest przydatny do zadań ETL (Extract, Transform and Load), takich jak przenoszenie danych między różnymi nośnikami pamięci i źródłami danych, przekształcanie danych do bardziej pożądanego formatu i ładowanie danych do nowego systemu W tym instruktażowym szkoleniu na żywo (na miejscu lub zdalnie) uczestnicy dowiedzą się, jak zaimplementować pakiety SDK Apache Beam w aplikacji Java lub Python, która definiuje potok przetwarzania danych w celu dekompozycji dużego zestawu danych na mniejsze porcje w celu niezależnego, równoległego przetwarzania Pod koniec tego szkolenia uczestnicy będą mogli: Zainstaluj i skonfiguruj Apache Beam Użyj jednego modelu programistycznego, aby przeprowadzić przetwarzanie wsadowe i strumieniowe z aplikacji Java lub Python Wykonuj potoki w wielu środowiskach Publiczność Deweloperzy Format kursu Wykład częściowy, dyskusja częściowa, ćwiczenia i ciężka praktyka handson Uwaga Ten kurs będzie dostępny w przyszłości w Scali Prosimy o kontakt w celu ustalenia szczegółów .

Nadchodzące szkolenia z technologii Big Data

SzkolenieData KursuCena szkolenia [Zdalne / Stacjonarne]
From Data to Decision with Big Data and Predictive Analytics - Częstochowa, ul. Wały Dwernickiego 117/121pon., 2018-12-31 09:004990PLN / 5990PLN
From Data to Decision with Big Data and Predictive Analytics - Warszawa, ul. Złota 3/11śr., 2019-01-02 09:004990PLN / 5990PLN
From Data to Decision with Big Data and Predictive Analytics - Opole, Władysława Reymonta 29śr., 2019-01-09 09:004990PLN / 5990PLN
From Data to Decision with Big Data and Predictive Analytics - Gliwice ul. Zwycięstwa 36wt., 2019-01-15 09:004990PLN / 5990PLN
From Data to Decision with Big Data and Predictive Analytics - Białystok, ul. Malmeda 1wt., 2019-01-15 09:004990PLN / 5990PLN
Szkolenie Big Data, Big Data boot camp, Szkolenia Zdalne Big Data, szkolenie wieczorowe Big Data, szkolenie weekendowe Big Data, Kurs Big Data,Kursy Big Data, Trener Big Data, instruktor Big Data, kurs zdalny Big Data, edukacja zdalna Big Data, nauczanie wirtualne Big Data, lekcje UML, nauka przez internet Big Data, e-learning Big Data, kurs online Big Data, wykładowca Big Data

Kursy w promocyjnej cenie

SzkolenieMiejscowośćData KursuCena szkolenia [Zdalne / Stacjonarne]
SQL FundamentalsKraków, ul. Rzemieślnicza 1pt., 2018-12-14 09:001450PLN / 2200PLN
OCUP2 UML 2.5 Certification - Intermediate Exam PreparationGdynia, ul. Ejsmonda 2pon., 2018-12-17 09:003290PLN / 4040PLN
CISSP - Certified Information Systems Security ProfessionalKraków, ul. Rzemieślnicza 1pon., 2018-12-17 09:00N/A / 6430PLN
Oracle SQL dla początkującychWarszawa, ul. Złota 3/11pon., 2018-12-17 09:002170PLN / 3170PLN
Advanced Slide Design in PowerPointKraków, ul. Rzemieślnicza 1czw., 2018-12-20 09:00430PLN / 930PLN
Selendroid: Automated Testing for AndroidPoznań, Garbary 100/63pt., 2018-12-28 09:001650PLN / 2150PLN
Techniki DTP (InDesign, Photoshop, Illustrator, Acrobat)Rzeszów, Plac Wolności 13pon., 2018-12-31 09:002130PLN / 3630PLN
CISA - Certified Information Systems AuditorWarszawa, ul. Złota 3pon., 2019-02-25 09:00N/A / 5000PLN

Newsletter z promocjami

Zapisz się na nasz newsletter i otrzymuj informacje o aktualnych zniżkach na kursy otwarte.
Szanujemy Twoją prywatność, dlatego Twój e-mail będzie wykorzystywany jedynie w celu wysyłki naszego newslettera, nie będzie udostępniony ani sprzedany osobom trzecim.
W dowolnej chwili możesz zmienić swoje preferencje co do otrzymywanego newslettera bądź całkowicie się z niego wypisać.

Zaufali nam

is growing fast!

We are looking to expand our presence in Poland!

As a Business Development Manager you will:

  • expand business in Poland
  • recruit local talent (sales, agents, trainers, consultants)
  • recruit local trainers and consultants

We offer:

  • Artificial Intelligence and Big Data systems to support your local operation
  • high-tech automation
  • continuously upgraded course catalogue and content
  • good fun in international team

If you are interested in running a high-tech, high-quality training and consulting business.

Apply now!