Szkolenia Big Data

Szkolenia Big Data

BigData to termin używany w odniesieniu do rozwiązań przeznaczonych do przechowywania i przetwarzania dużych zbiorów danych. Rozwiązania typu BigData zostały zainicjowane przez firmę Google, jakkolwiek obecnie dostępnych jest wiele rozwiązań typu open-source takich jak Apache Hadoop, Cassandra czy Cloudera Impala. Zgodnie z raportami publikowanymi przez firmę Gartner BigData jest kolejnym wielkim krokiem w branży IT, zaraz po rozwiązaniach opartych na chmurze obliczeniowej, i będzie wiodącym trendem przez kilka najbliższych lat.

Szkolenia z tematu Big Data mogą być realizowane w siedzibie klienta - lokalizacja w Polsce lub centrach szkoleniowych w lokalizacji w Polsce Szkolenie zdalne realizowane są przy użyciu interaktywnego, zdalnego pulpitu.

Opinie uczestników

★★★★★
★★★★★

Plany szkoleń z technologii Big Data

KodNazwaCzas trwaniaCharakterystyka kursu
smtwebintSemantic Web Overview7 godzinySemantic Web to ruch oparty na współpracy prowadzony przez World Wide Web Consortium (W3C), który promuje popularne formaty danych w sieci World Wide Web. Sieć semantyczna zapewnia wspólną strukturę, która umożliwia udostępnianie i ponowne wykorzystywanie danych w obrębie aplikacji, przedsiębiorstw i granic społeczności.
tigonTigon: Real-time Streaming for the Real World14 godzinyTigon jest open source, w czasie rzeczywistym, lowlatency, highthroughput, native YARN, framework przetwarzania strumienia, który znajduje się na szczycie HDFS i HBase dla trwałości Aplikacje Tygon adresują przypadki użycia, takie jak wykrywanie włamań i analiz sieciowych, analiza rynku mediów społecznościowych, analiza lokalizacji i zalecenia w czasie rzeczywistym dla użytkowników Ten instruktażowy trening na żywo wprowadza podejście Tigona do mieszania przetwarzania w czasie rzeczywistym i przetwarzania wsadowego, gdy przechodzi uczestników przez tworzenie przykładowej aplikacji Pod koniec tego szkolenia uczestnicy będą mogli: Twórz wydajne aplikacje do przetwarzania strumieniowego do obsługi dużych ilości danych Przetwarzaj źródła strumieniowe, takie jak Twitter i dzienniki serwera WWW Użyj Tigona do szybkiego łączenia, filtrowania i agregowania strumieni Publiczność Deweloperzy Format kursu Wykład częściowy, dyskusja częściowa, ćwiczenia i ciężka praktyka handson .
sparkpythonPython and Spark for Big Data (PySpark)21 godzinyPython to język programowania wysokiego poziomu znany ze swojej czytelnej składni i czytelności kodu Spark to silnik przetwarzania danych używany do wysyłania zapytań, analizowania i przekształcania dużych zbiorów danych PySpark pozwala użytkownikom na łączenie Sparka z Pythonem W tym instruktażowym szkoleniu na żywo uczestnicy dowiedzą się, jak używać Pythona i Sparka do analizy dużych danych podczas pracy z ćwiczeniami handson Pod koniec tego szkolenia uczestnicy będą mogli: Dowiedz się, jak używać Sparka z Pythonem do analizy Big Data Pracuj nad ćwiczeniami, które naśladują rzeczywiste okoliczności Użyj różnych narzędzi i technik do analizy dużych danych przy użyciu PySpark Publiczność Deweloperzy Specjaliści IT Data Scientists Format kursu Wykład częściowy, dyskusja częściowa, ćwiczenia i ciężka praktyka handson .
bigdatabicriminalBig Data Business Intelligence for Criminal Intelligence Analysis35 godzinyPostępy w technologiach i rosnąca ilość informacji zmieniają sposób przeprowadzania egzekwowania prawa Wyzwania stojące przed Big Data są tak samo trudne, jak obietnica Big Data Skuteczne przechowywanie danych jest jednym z tych wyzwań; efektywna analiza to kolejne W ramach tego instruktażowego szkolenia na żywo uczestnicy poznają sposób, w jaki podchodzą do technologii Big Data, oceniają ich wpływ na istniejące procesy i polityki oraz wdrażają te technologie w celu identyfikowania działalności przestępczej i zapobiegania przestępstwom Studia przypadków z organizacji zajmujących się egzekwowaniem prawa na całym świecie będą badane w celu uzyskania wglądu w ich podejścia do adopcji, wyzwania i wyniki Pod koniec tego szkolenia uczestnicy będą mogli: Połącz technologię Big Data z tradycyjnymi procesami gromadzenia danych, aby złożyć opowieść podczas śledztwa Wdrożyć przemysłowe rozwiązania do przechowywania i przetwarzania dużych zbiorów danych do analizy danych Przygotuj propozycję przyjęcia najbardziej adekwatnych narzędzi i procesów umożliwiających zdecentralizowane podejście do dochodzeń w sprawach karnych Publiczność Specjaliści ds Egzekwowania prawa ze środowiskiem technicznym Format kursu Wykład częściowy, dyskusja częściowa, ćwiczenia i ciężka praktyka handson .
BDATRBig Data Analytics for Telecom Regulators16 godzinyAby spełnić wymagania regulatorów, dostawcy CSP (dostawcy usług komunikacyjnych) mogą korzystać z funkcji Big Analityka danych, która nie tylko pomaga im w spełnianiu wymagań, ale także w zakresie tego samego projektu mogą zwiększyć zadowolenie klientów, a tym samym zmniejszyć liczbę rezygnacji W rzeczywistości od zgodność jest związana z jakością usług związanych z umową, każdą inicjatywą zmierzającą do spełnienia wymagań zgodności, poprawi "przewagę konkurencyjną" CSP Dlatego ważne jest, aby Organy regulacyjne powinny być w stanie doradzić / kierować zestawem praktyk analitycznych Big Data dla CSP, które to zrobią obopólne korzyści między organami nadzoru i CSP 2 dni oczywiście: 8 modułów, po 2 godziny = 16 godzin .
graphcomputingIntroduction to Graph Computing28 godzinyWiele problemów w świecie rzeczywistym można opisać za pomocą wykresów Na przykład wykres sieci, wykres sieci społecznościowej, wykres sieci pociągu i wykres językowy Wykresy te wydają się być bardzo duże; ich przetwarzanie wymaga wyspecjalizowanego zestawu narzędzi i procesów, a te narzędzia i procesy można nazywać komputerami Graph Computing (znanymi również jako Graph Analytics) W tym instruktażowym szkoleniu na żywo uczestnicy poznają ofertę technologii i podejścia do implementacji w przetwarzaniu danych graficznych Celem jest identyfikacja obiektów rzeczywistych, ich cech i relacji, a następnie modelowanie tych zależności i przetwarzanie ich jako danych przy użyciu podejścia opartego na wykresie Zaczynamy od obszernego przeglądu i wąskich narzędzi, gdy przechodzimy przez serię studiów przypadku, ćwiczenia praktyczne i wdrożenia na żywo Pod koniec tego szkolenia uczestnicy będą mogli: Dowiedz się, jak dane wykresu są zachowywane i przechodzą Wybierz najlepszą frameworku dla danego zadania (od graficznych baz danych po frameworki przetwarzania wsadowego) Zaimplementuj Hadoop, Spark, GraphX ​​i Pregel do równoległego wykonywania obliczeń graficznych na wielu maszynach Zobacz problemy z dużymi danymi w realworld pod względem wykresów, procesów i przejść Publiczność Deweloperzy Format kursu Wykład częściowy, dyskusja częściowa, ćwiczenia i ciężka praktyka handson .
nifidevApache NiFi for Developers7 godzinyApache NiFi (Hortonworks DataFlow) to zintegrowana w czasie rzeczywistym logistyka danych i prosta platforma przetwarzania zdarzeń, która umożliwia przenoszenie, śledzenie i automatyzację danych między systemami Jest napisany przy użyciu programowania bazującego na przepływach i zapewnia interfejs użytkownika oparty na sieci Web do zarządzania przepływem danych w czasie rzeczywistym W ramach tego instruktażowego szkolenia na żywo uczestnicy poznają podstawy programowania bazującego na przepływach, opracowując szereg rozszerzeń demo, komponentów i procesorów za pomocą Apache NiFi Pod koniec tego szkolenia uczestnicy będą mogli: Zapoznaj się z koncepcjami architektury i przepływu danych NiFi Twórz rozszerzenia za pomocą interfejsów API NiFi i thirdparty Custom opracuj własny procesor Apache Nifi Spełniaj i przetwarzaj dane w czasie rzeczywistym z różnych i nietypowych formatów plików i źródeł danych Publiczność Deweloperzy Inżynierowie danych Format kursu Wykład częściowy, dyskusja częściowa, ćwiczenia i ciężka praktyka handson .
nifiApache NiFi for Administrators21 godzinyApache NiFi (Hortonworks DataFlow) to zintegrowana w czasie rzeczywistym logistyka danych i prosta platforma przetwarzania zdarzeń, która umożliwia przenoszenie, śledzenie i automatyzację danych między systemami Jest napisany przy użyciu programowania bazującego na przepływach i zapewnia interfejs użytkownika oparty na sieci Web do zarządzania przepływem danych w czasie rzeczywistym Podczas tego instruktażowego szkolenia na żywo uczestnicy dowiedzą się, jak wdrażać i zarządzać Apache NiFi w środowisku laboratoryjnym Pod koniec tego szkolenia uczestnicy będą mogli: Zainstaluj i skonfiguruj Apachi NiFi Źródło, przetwarzaj i zarządzaj danymi z różnych, rozproszonych źródeł danych, w tym z baz danych i dużych jezior danych Automatyzuj przepływ danych Włącz analizę strumieniową Zastosuj różne podejścia do przetwarzania danych Przekształć Big Data i w analizy biznesowe Publiczność Administratorzy systemu Inżynierowie danych Deweloperzy DevOps Format kursu Wykład częściowy, dyskusja częściowa, ćwiczenia i ciężka praktyka handson .
solrcloudSolrCloud14 godzinyApache SolrCloud jest rozproszonym mechanizmem przetwarzania danych, który ułatwia wyszukiwanie i indeksowanie plików w sieci rozproszonej W tym instruktażowym szkoleniu na żywo uczestnicy dowiedzą się, jak skonfigurować instancję SolrCloud na Amazon AWS Pod koniec tego szkolenia uczestnicy będą mogli: Zapoznaj się z funkcjami SolCloud i ich porównaniem do tradycyjnych klastrów masterslave Skonfiguruj centralny klaster SolCloud Zautomatyzuj procesy, takie jak komunikowanie się ze skorupami, dodawanie dokumentów do odłamków itp Użyj Zookeepera w połączeniu z SolrCloud, aby dalej automatyzować procesy Użyj interfejsu do zarządzania raportowaniem błędów Load balance to instalacja SolrCloud Skonfiguruj SolrCloud do ciągłego przetwarzania i przełączania awaryjnego Publiczność Deweloperzy Solr Menadżerowie projektu Administratorzy systemu Analitycy wyszukiwania Format kursu Wykład częściowy, dyskusja częściowa, ćwiczenia i ciężka praktyka handson .
datavaultData Vault: Building a Scalable Data Warehouse28 godzinyModelowanie skarbca danych to technika modelowania baz danych, która zapewnia długoterminowe archiwalne przechowywanie danych pochodzących z wielu źródeł Przechowalnia danych przechowuje pojedynczą wersję faktów lub "wszystkie dane, cały czas" Jego elastyczny, skalowalny, spójny i dostosowujący się projekt obejmuje najlepsze aspekty trzeciej normalnej formy (3NF) i schematu gwiazdy W tym instruktażowym szkoleniu na żywo uczestnicy dowiedzą się, jak zbudować skarbiec danych Pod koniec tego szkolenia uczestnicy będą mogli: Zapoznaj się z koncepcjami architektury i projektowania kryjącymi się za Data Vault 20 oraz jego interakcją z Big Data, NoSQL i AI Użyj technik przechwytywania danych, aby umożliwić inspekcję, śledzenie i przeglądanie danych historycznych w hurtowni danych Opracuj spójny i powtarzalny proces ETL (Extract, Transform, Load) Buduj i wdrażaj wysoce skalowalne i powtarzalne magazyny Publiczność Modelarze danych Specjalista ds Hurtowni danych Specjaliści Business Intelligence Inżynierowie danych Administratorzy baz danych Format kursu Wykład częściowy, dyskusja częściowa, ćwiczenia i ciężka praktyka handson .
datameerDatameer for Data Analysts14 godzinyDatameer to platforma analizy biznesowej i analitycznej zbudowana na platformie Hadoop Umożliwia on użytkownikom dostępu, odkrywania i korelowania dużych, uporządkowanych, semistrukturalnych i niestrukturalnych danych w łatwy sposób W tym instruktażowym szkoleniu na żywo uczestnicy dowiedzą się, jak używać Datameer do pokonywania stromych krzywych uczenia się Hadoop, kiedy przechodzą przez proces konfiguracji i analizy szeregu dużych źródeł danych Pod koniec tego szkolenia uczestnicy będą mogli: Twórz, kurators i interaktywnie eksploruj jezioro danych przedsiębiorstwa Dostęp do hurtowni danych biznesowych, transakcyjnych baz danych i innych magazynów analitycznych Użyj interfejsu użytkownika arkusza kalkulacyjnego do zaprojektowania końcowych potoków przetwarzania danych Uzyskaj dostęp do gotowych funkcji, aby poznać złożone relacje danych Użyj kreatorów draganddrop do wizualizacji danych i tworzenia pulpitów Użyj tabel, wykresów i map do analizy wyników zapytania Publiczność Analitycy danych Format kursu Wykład częściowy, dyskusja częściowa, ćwiczenia i ciężka praktyka handson .
ApacheIgniteApache Ignite: Improve Speed, Scale and Availability with In-Memory Computing14 godzinyApache Ignite is an in-memory computing platform that sits between the application and data layer to improve speed, scale, and availability。

In this instructor-led, live training, participants will learn the principles behind persistent and pure in-memory storage as they step through the creation of a sample in-memory computing project.

By the end of this training, participants will be able to:

- Use Ignite for in-memory, on-disk persistence as well as a purely distributed in-memory database.
- Achieve persistence without syncing data back to a relational database.
- Use Ignite to carry out SQL and distributed joins.
- Improve performance by moving data closer to the CPU, using RAM as a storage.
- Spread data sets across a cluster to achieve horizontal scalability.
- Integrate Ignite with RDBMS, NoSQL, Hadoop and machine learning processors.

Format of the course

- Part lecture, part discussion, exercises and heavy hands-on practice
memsqlMemSQL28 godzinyMemSQL to oparty na zapamiętywaniu, rozproszony, system zarządzania bazami danych SQL dla chmury i onpremises Jest to hurtownia danych w czasie rzeczywistym, która natychmiast dostarcza wglądu w dane na żywo i dane historyczne W tym instruktażowym szkoleniu na żywo uczestnicy poznają podstawowe elementy MemSQL do programowania i administracji Pod koniec tego szkolenia uczestnicy będą mogli: Zapoznaj się z kluczowymi pojęciami i cechami MemSQL Instaluj, projektuj, utrzymuj i obsługuj MemSQL Zoptymalizuj schematy w MemSQL Ulepsz zapytania w MemSQL Wydajność wzorcowa w MemSQL Twórz aplikacje danych w czasie rzeczywistym za pomocą MemSQL Publiczność Deweloperzy Administratorzy Inżynierowie obsługi Format kursu Wykład częściowy, dyskusja częściowa, ćwiczenia i ciężka praktyka handson .
vespaVespa: Serving Large-Scale Data in Real-Time14 godzinyVespa to silnik big data do przetwarzania danych i serwowania danych stworzony przez Yahoo Służy do odpowiadania na zapytania użytkowników, tworzenia zaleceń i dostarczania spersonalizowanych treści i reklam w czasie rzeczywistym To instruktażowe szkolenie na żywo wprowadza wyzwania związane z serwowaniem danych o dużej skali i prowadzi uczestników przez stworzenie aplikacji, która może obliczać odpowiedzi na żądania użytkowników, w czasie rzeczywistym w dużych zestawach danych Pod koniec tego szkolenia uczestnicy będą mogli: Użyj Vespa, aby szybko obliczać dane (przechowywać, wyszukiwać, oceniać, organizować) w czasie serwowania, gdy użytkownik czeka Zaimplementuj Vespa w istniejących aplikacjach wykorzystujących wyszukiwanie funkcji, rekomendacje i personalizację Zintegruj i wdrożyć Vespa z istniejącymi systemami dużych danych, takimi jak Hadoop i Storm Publiczność Deweloperzy Format kursu Wykład częściowy, dyskusja częściowa, ćwiczenia i ciężka praktyka handson .
apexApache Apex: Processing Big Data-in-Motion21 godzinyApache Apex jest platformą YARNnative, która jednoczy przetwarzanie strumieniowe i wsadowe Przetwarza on dużą pamięć danych w sposób skalowalny, wydajny, odporny na błędy, stanowy, bezpieczny, rozproszony i łatwy w obsłudze Ten instruktażowy trening na żywo wprowadza zunifikowaną architekturę przetwarzania Apache Apex i prowadzi uczestników przez stworzenie rozproszonej aplikacji wykorzystującej Apex na Hadoop Pod koniec tego szkolenia uczestnicy będą mogli: Rozumieć pojęcia potoku przetwarzania danych, takie jak konektory dla źródeł i pochłaniaczy, powszechne transformacje danych itp Buduj, skaluj i optymalizuj aplikację Apex Przetwarzaj w czasie rzeczywistym strumienie danych niezawodnie iz minimalnym opóźnieniem Użyj Apex Core i biblioteki Apex Malhar, aby umożliwić szybkie tworzenie aplikacji Użyj API Apex do napisania i ponownego użycia istniejącego kodu Java Zintegruj Apex z innymi aplikacjami jako mechanizmem przetwarzania Dostrój, przetestuj i skaluj aplikacje Apex Publiczność Deweloperzy Architekci korporacyjni Format kursu Wykład częściowy, dyskusja częściowa, ćwiczenia i ciężka praktyka handson .
alluxioAlluxio: Unifying Disparate Storage Systems7 godzinyAlexio to wirtualny, rozproszony system pamięci masowej, który ujednolica różne systemy pamięci masowej i umożliwia aplikacjom interakcję z danymi z prędkością pamięci Jest używany przez firmy takie jak Intel, Baidu i Alibaba W ramach tego instruktażowego szkolenia na żywo uczestnicy dowiedzą się, w jaki sposób korzystać z Alexio, aby połączyć różne systemy obliczeniowe z systemami pamięci masowej i wydajnie zarządzać danymi w skali wielościennej, przechodząc przez proces tworzenia aplikacji za pomocą Alluxio Pod koniec tego szkolenia uczestnicy będą mogli: Opracuj aplikację z Alluxio Połącz duże systemy danych i aplikacje, zachowując jedną przestrzeń nazw Wydajny ekstrakt z dużych zbiorów danych w dowolnym formacie Popraw wydajność obciążenia Wdrażaj i zarządzaj Alluxio jako niezależną lub klastrową Publiczność Dane naukowiec Deweloper Administrator systemu Format kursu Wykład częściowy, dyskusja częściowa, ćwiczenia i ciężka praktyka handson .
flinkFlink for Scalable Stream and Batch Data Processing28 godzinyApache Flink to platforma opensource dla skalowalnego przetwarzania strumieniowego i wsadowego Ten instruktażowy trening na żywo wprowadza zasady i podejścia kryjące się za rozproszonym strumieniem danych i przetwarzaniem danych wsadowych oraz prowadzi uczestników przez stworzenie aplikacji do transmisji danych w czasie rzeczywistym Pod koniec tego szkolenia uczestnicy będą mogli: Skonfiguruj środowisko do tworzenia aplikacji do analizy danych Pakuj, uruchamiaj i monitoruj aplikacje oparte na Flinkach, odporne na uszkodzenia, przesyłające dane Zarządzaj różnorodnymi obciążeniami Wykonuj zaawansowane analizy za pomocą Flink ML Skonfiguruj wielordzeniowy klaster Flink Mierz i optymalizuj wydajność Zintegruj system Flink z różnymi systemami Big Data Porównaj możliwości Flink z tymi z innych dużych struktur przetwarzania danych Publiczność Deweloperzy Architekci Inżynierowie danych Profesjonaliści z Analytics Kierownicy techniczni Format kursu Wykład częściowy, dyskusja częściowa, ćwiczenia i ciężka praktyka handson .
samzaSamza for Stream Processing14 godzinyApache Samza to open source nearrealtime, asynchroniczne środowisko obliczeniowe do przetwarzania strumienia Wykorzystuje Apache Kafka do przesyłania wiadomości, a Apache Hadoop YARN do testowania odporności na awarie, izolacji procesorów, bezpieczeństwa i zarządzania zasobami Ten instruktażowy trening na żywo wprowadza zasady obsługi systemów przesyłania wiadomości i rozproszonego przetwarzania strumieniowego, a uczestnicy przechodzą przez proces tworzenia przykładowego projektu Samzabased i wykonywania zadań Pod koniec tego szkolenia uczestnicy będą mogli: Użyj Samzy, aby uprościć kod potrzebny do tworzenia i korzystania z wiadomości Odłącz obsługę komunikatów od aplikacji Użyj Samzy, aby wykonać obliczenia asynchroniczne nearrealtime Użyj przetwarzania strumienia, aby zapewnić wyższy poziom abstrakcji w porównaniu do systemów przesyłania wiadomości Publiczność Deweloperzy Format kursu Wykład częściowy, dyskusja częściowa, ćwiczenia i ciężka praktyka handson .
zeppelinZeppelin for Interactive Data Analytics14 godzinyApache Zeppelin to webowy notes do przechwytywania, eksplorowania, wizualizacji i udostępniania danych opartych na Hadoop i Spark To instruktażowe szkolenie na żywo wprowadza koncepcje kryjące się za interaktywną analizą danych i przeprowadza uczestników przez wdrożenie i używanie Zeppelin w środowisku singleuser lub wielu użytkowników Pod koniec tego szkolenia uczestnicy będą mogli: Zainstaluj i skonfiguruj Zeppelin Twórz, organizuj, uruchamiaj i udostępniaj dane w interfejsie opartym na przeglądarce Wizualizuj wyniki bez odwoływania się do szczegółów wiersza poleceń lub szczegółów klastra Wykonuj i współpracuj przy długich przepływach pracy Pracuj z dowolnym językiem plugin / przetwarzaniem danych, takim jak Scala (z Apache Spark), Python (z Apache Spark), Spark SQL, JDBC, Markdown i Shell Zintegruj Zeppelin ze Spark, Flink i Map Reduce Zabezpiecz instancje wielu użytkowników Zeppelina za pomocą Apache Shiro Publiczność Inżynierowie danych Analitycy danych Data naukowcy Deweloperzy oprogramowania Format kursu Wykład częściowy, dyskusja częściowa, ćwiczenia i ciężka praktyka handson .
magellanMagellan: Geospatial Analytics on Spark14 godzinyMagellan to rozproszony, rozproszony silnik wykonawczy do analizy geoprzestrzennej dużych zbiorów danych Wdrożony na szczycie Apache Spark, rozszerza Spark SQL i zapewnia relacyjną abstrakcję dla analityki geoprzestrzennej To instruktażowe szkolenie na żywo wprowadza koncepcje i podejścia do wdrażania analizy geoprzestrzennej i prowadzi uczestników przez stworzenie aplikacji do analizy predykcyjnej z wykorzystaniem Magellana na Sparku Pod koniec tego szkolenia uczestnicy będą mogli: Skutecznie wyszukuj, analizuj i dołączaj zbiory danych geoprzestrzennych na dużą skalę Wdrażaj dane geoprzestrzenne w aplikacjach do analiz biznesowych i analizie predykcyjnej Użyj kontekstu przestrzennego, aby rozszerzyć możliwości urządzeń mobilnych, czujników, dzienników i urządzeń do noszenia Publiczność Twórcy aplikacji Format kursu Wykład częściowy, dyskusja częściowa, ćwiczenia i ciężka praktyka handson .
hdpHortonworks Data Platform (HDP) for Administrators21 godzinyHortonworks Data Platform to otwarta platforma wsparcia Apache Hadoop, która zapewnia stabilne podstawy do opracowywania rozwiązań big data w ekosystemie Apache Hadoop Ten instruktażowy trening na żywo wprowadza Hortonworks i prowadzi uczestników przez wdrożenie rozwiązania Spark + Hadoop Pod koniec tego szkolenia uczestnicy będą mogli: Użyj Hortonworks, aby niezawodnie uruchomić Hadoop na dużą skalę Ujednolić zabezpieczenia, zarządzanie i operacje operacyjne Hadoop dzięki zwinnym analitycznym obiegom pracy Spark Używaj Hortonworks do sprawdzania, sprawdzania poprawności, certyfikowania i obsługi każdego komponentu w projekcie Spark Przetwarzaj różne typy danych, w tym strukturyzowane, nieustrukturyzowane, inmotion i atrest Publiczność Administratorzy Hadoop Format kursu Wykład częściowy, dyskusja częściowa, ćwiczenia i ciężka praktyka handson .
PentahoDIPentaho Data Integration Fundamentals21 godzinyPentaho Data Integration to otwarte narzędzie do integracji danych do definiowania zadań i transformacji danych Podczas tego instruktażowego szkolenia na żywo uczestnicy dowiedzą się, jak korzystać z potężnych funkcji ETL Pentaho Data Integration i bogatego GUI do zarządzania całym cyklem życia danych, maksymalizując wartość danych dla organizacji Pod koniec tego szkolenia uczestnicy będą mogli: Twórz, przeglądaj i uruchamiaj podstawowe transformacje danych zawierające kroki i przeskoki Skonfiguruj i zabezpiecz repozytorium Pentaho Enterprise Wykorzystaj odmienne źródła danych i wygeneruj jedną, ujednoliconą wersję prawdy w formacie analitycznym Dostarcz wyniki do aplikacji trzeciej części do dalszego przetwarzania Publiczność Analityk danych Twórcy ETL Format kursu Wykład częściowy, dyskusja częściowa, ćwiczenia i ciężka praktyka handson .
hadooppythonHadoop with Python28 godzinyHadoop to popularny system przetwarzania dużych zbiorów danych Python to język programowania wysokiego poziomu znany ze swojej czytelnej składni i czytelności kodu W tym instruktażowym szkoleniu na żywo uczestnicy dowiedzą się, jak pracować z Hadoop, MapReduce, Pig i Spark przy użyciu Pythona, ponieważ przechodzą przez wiele przykładów i przypadków użycia Pod koniec tego szkolenia uczestnicy będą mogli: Poznaj podstawowe pojęcia związane z Hadoop, MapReduce, Pig i Spark Używaj Pythona z Hadoop Distributed File System (HDFS), MapReduce, Pig i Spark Użyj Snakebite, aby programowo uzyskać dostęp do HDFS w Pythonie Użyj mrjob do napisania zadań MapReduce w Pythonie Napisz programy Spark z Pythonem Rozszerz funkcjonalność świni używając UDF typu Python Zarządzaj zadaniami MapReduce i skryptami Pig za pomocą Luigi Publiczność Deweloperzy Specjaliści IT Format kursu Wykład częściowy, dyskusja częściowa, ćwiczenia i ciężka praktyka handson .
monetdbMonetDB28 godzinyMonetDB jest opensource'ową bazą danych, która była pionierem podejścia do technologii columnstore Podczas tego instruktażowego szkolenia na żywo uczestnicy dowiedzą się, jak korzystać z MonetDB i jak uzyskać jak największą wartość Pod koniec tego szkolenia uczestnicy będą mogli: Poznaj MonetDB i jego funkcje Zainstaluj i uruchom z MonetDB Przeglądaj i wykonuj różne funkcje i zadania w MonetDB Przyspieszenie realizacji projektu poprzez maksymalizację możliwości MonetDB Publiczność Deweloperzy Eksperci techniczni Format kursu Wykład częściowy, dyskusja częściowa, ćwiczenia i ciężka praktyka handson .
kylinApache Kylin: From Classic OLAP to Real-Time Data Warehouse14 godzinyApache Kylin to ekstremalny, rozproszony mechanizm analityczny do dużych zbiorów danych W tym instruktażowym szkoleniu na żywo uczestnicy dowiedzą się, jak używać Apache Kylin do skonfigurowania hurtowni danych w czasie rzeczywistym Pod koniec tego szkolenia uczestnicy będą mogli: Zbieraj dane strumieniowe w czasie rzeczywistym za pomocą Kylin Wykorzystaj potężne funkcje Apache Kylin, w tym obsługę schematów płatka śniegu, bogaty interfejs SQL, lukę w iskrzeniu i opóźnienie kwerendy Uwaga Używamy najnowszej wersji Kylin (od tego pisania Apache Kylin v20) Publiczność Wielcy inżynierowie danych Analitycy Big Data Format kursu Wykład częściowy, dyskusja częściowa, ćwiczenia i ciężka praktyka handson .
introtostreamprocessingA Practical Introduction to Stream Processing21 godzinyPrzetwarzanie strumienia oznacza przetwarzanie w czasie rzeczywistym danych w ruchu, czyli wykonywanie obliczeń na danych podczas ich odbierania Takie dane są odczytywane jako nieprzerwane strumienie ze źródeł danych, takich jak zdarzenia z czujników, aktywność użytkowników na stronach internetowych, transakcje finansowe, przeciągnięcia kart kredytowych, strumienie kliknięć itp Struktury przetwarzania strumieniowego są w stanie odczytać duże ilości przychodzących danych i niemal natychmiast uzyskać cenne informacje W tym instruktażowym szkoleniu na żywo (na miejscu lub zdalnie) uczestnicy dowiedzą się, jak skonfigurować i zintegrować różne struktury przetwarzania strumieniowego z istniejącymi dużymi systemami przechowywania danych oraz powiązanymi aplikacjami i mikrousługami Pod koniec tego szkolenia uczestnicy będą mogli: Zainstaluj i skonfiguruj różne frameworki Stream Processing, takie jak Spark Streaming i Kafka Streaming Zrozum i wybierz najbardziej odpowiednie ramy dla pracy Proces przesyłania danych w sposób ciągły, jednocześnie iw trybie rekordowo-rejestrującym Integracja rozwiązań do przetwarzania strumieniowego z istniejącymi bazami danych, hurtowniami danych, jeziorami danych itp Integracja najbardziej odpowiedniej biblioteki przetwarzania strumieniowego z aplikacjami korporacyjnymi i mikroserwisami Publiczność Deweloperzy Architekci oprogramowania Format kursu Wykład częściowy, dyskusja częściowa, ćwiczenia i ciężka praktyka handson Uwagi Aby poprosić o indywidualne szkolenie dla tego kursu, skontaktuj się z nami w celu ustalenia szczegółów .
confluentBuilding Kafka Solutions with Confluent14 godzinyto prowadzone przez instruktora, na żywo szkolenia (na miejscu lub zdalnie) jest skierowany do inżynierów, którzy chcą korzystać z technologii (dystrybucja Kafki) do budowania i zarządzania w czasie rzeczywistym platformy przetwarzania danych dla swoich aplikacji.

do końca tego szkolenia, uczestnicy będą mogli:

- zainstalować i skonfigurować platformę.
- korzystać z narzędzi do zarządzania & #39; s i usług, aby uruchomić Kafka łatwiej.
- przechowywać i przetwarzać przychodzące dane strumienia.
- zoptymalizować i zarządzania Kafka klastrów.
- bezpieczne strumienie danych.

Format kursu

- interaktywne wykłady i dyskusje.
- wiele ćwiczeń i praktyk.
- praktyczne wdrożenie w środowisku Live-Lab.

Opcje dostosowywania kursu

- ten kurs jest oparty na wersji open source: współbiegle Open Source.
- na zamówienie szkolenia dostosowane do tego kursu, skontaktuj się z nami, aby zorganizować.
dataminpythonData Mining with Python14 godzinyten prowadzony przez instruktora, szkolenia na żywo (na miejscu lub zdalnie) jest skierowany do analityków danych i naukowców danych, którzy chcą wdrożyć bardziej zaawansowanych technik analizy danych do eksploracji danych przy użyciu Python.

do końca tego szkolenia, uczestnicy będą mogli:

- zrozumieć ważne obszary wyszukiwanie danych, w tym górnictwo reguły skojarzenia, tekst analizy sentymentu, automatyczne podsumowania tekstu i wykrywanie anomalii danych.
- porównać i wdrożyć różne strategie rozwiązywania rzeczywistych problemów eksploracji danych.
- rozumieć i interpretować wyniki.

Format kursu

- interaktywne wykłady i dyskusje.
- wiele ćwiczeń i praktyk.
- praktyczne wdrożenie w środowisku Live-Lab.

Opcje dostosowywania kursu

- na zamówienie szkolenia dostosowane do tego kursu, skontaktuj się z nami, aby zorganizować.
sparkcloudApache Spark in the Cloud21 godzinyApache Spark's learning curve is slowly increasing at the begining, it needs a lot of effort to get the first return. This course aims to jump through the first tough part. After taking this course the participants will understand the basics of Apache Spark , they will clearly differentiate RDD from DataFrame, they will learn Python and Scala API, they will understand executors and tasks, etc. Also following the best practices, this course strongly focuses on cloud deployment, Databricks and AWS. The students will also understand the differences between AWS EMR and AWS Glue, one of the lastest Spark service of AWS.

AUDIENCE:

Data Engineer, DevOps, Data Scientist
bigdataanahealthBig Data Analytics in Health21 godzinyAnaliza dużych danych obejmuje proces sprawdzania dużych ilości różnych zestawów danych w celu wykrycia korelacji, ukrytych wzorców i innych przydatnych wglądów Przemysł medyczny ma ogromne ilości złożonych heterogenicznych danych medycznych i klinicznych Zastosowanie analityki dużych zbiorów danych dotyczących zdrowia daje ogromny potencjał w zakresie wglądu w poprawę jakości opieki zdrowotnej Jednak ogrom tych zestawów danych stanowi wielkie wyzwanie w analizach i praktycznych zastosowaniach w środowisku klinicznym W tym instruktażowym szkoleniu na żywo (zdalnie) uczestnicy dowiedzą się, jak przeprowadzać analizy dużych zbiorów danych w stanie zdrowia, gdy będą przechodzić przez serię ćwiczonych ćwiczeń na żywo Pod koniec tego szkolenia uczestnicy będą mogli: Zainstaluj i skonfiguruj narzędzia do analizy danych dużych, takie jak Hadoop MapReduce i Spark Zapoznaj się z charakterystyką danych medycznych Zastosuj techniki big data do przetwarzania danych medycznych Przestudiuj duże systemy danych i algorytmy w kontekście aplikacji związanych ze zdrowiem Publiczność Deweloperzy Data Scientists Format kursu Wykład częściowy, dyskusja częściowa, ćwiczenia i ciężka praktyka handson Uwaga Aby poprosić o indywidualne szkolenie dla tego kursu, skontaktuj się z nami w celu ustalenia szczegółów .

Nadchodzące szkolenia z technologii Big Data

SzkolenieData KursuCena szkolenia [Zdalne / Stacjonarne]
Administrator Training for Apache Hadoop - Łódź, al. Piłsudskiego 10/14pon., 2019-03-11 09:004980PLN / 6480PLN
Administrator Training for Apache Hadoop - Gdańsk, ul. Grodzka 19pon., 2019-03-11 09:004980PLN / 6480PLN
Administrator Training for Apache Hadoop - Olsztyn, ul. Gietkowska 6apon., 2019-03-11 09:004980PLN / 6480PLN
Administrator Training for Apache Hadoop - Warszawa, ul. Złota 3pon., 2019-03-11 09:004980PLN / 6230PLN
Administrator Training for Apache Hadoop - Białystok, ul. Malmeda 1pon., 2019-03-18 09:004980PLN / 6480PLN
Szkolenie Big Data, Big Data boot camp, Szkolenia Zdalne Big Data, szkolenie wieczorowe Big Data, szkolenie weekendowe Big Data, Kurs Big Data,Kursy Big Data, Trener Big Data, instruktor Big Data, kurs zdalny Big Data, edukacja zdalna Big Data, nauczanie wirtualne Big Data, lekcje UML, nauka przez internet Big Data, e-learning Big Data, kurs online Big Data, wykładowca Big Data

Kursy w promocyjnej cenie

SzkolenieMiejscowośćData KursuCena szkolenia [Zdalne / Stacjonarne]
Strategic Development: Thinking, Planning, Management and LeadershipSzczecin, ul. Sienna 9pon., 2019-02-25 09:004980PLN / 6480PLN
CISA - Certified Information Systems AuditorWarszawa, ul. Złota 3pon., 2019-02-25 09:00N/A / 5000PLN
Symfony 4 for Web Application DevelopmentWarszawa, ul. Złota 3pon., 2019-02-25 09:003990PLN / 5040PLN
IIS 8 and ASP.NET AdministrationOpole, Władysława Reymonta 29wt., 2019-02-26 09:002990PLN / 3990PLN
Strategic ThinkingWarszawa, ul. Złota 3śr., 2019-02-27 09:002990PLN / 3840PLN
Security AnalystWrocław, ul.Ludwika Rydygiera 2a/22pon., 2019-03-04 09:004490PLN / 5990PLN
Protokół SIP w VoIPGdańsk, ul. Grodzka 19śr., 2019-03-06 09:002990PLN / 3990PLN
Adobe Premiere ProToruń, ul. Bydgoska 1pon., 2019-03-11 09:001990PLN / 2640PLN
HAProxy AdministrationWarszawa, ul. Złota 3/11pon., 2019-03-18 09:001990PLN / 2740PLN
Docker and KubernetesKraków, ul. Rzemieślnicza 1śr., 2019-03-20 09:002990PLN / 3990PLN
CISA - Certified Information Systems AuditorKielce, ul. Warszawska 19pon., 2019-04-01 09:00N/A / 5240PLN
Docker and KubernetesOpole, Władysława Reymonta 29pon., 2019-04-01 09:002990PLN / 3990PLN
Automatyzacja testów za pomocą SeleniumWrocław, ul.Ludwika Rydygiera 2a/22śr., 2019-04-03 09:002990PLN / 3990PLN
Microsoft Office Excel - poziom średniozaawansowanyPoznań, Garbary 100/63czw., 2019-04-11 09:00860PLN / 1610PLN
Techniki DTP (InDesign, Photoshop, Illustrator, Acrobat)Rzeszów, Plac Wolności 13pon., 2019-05-13 09:002150PLN / 3650PLN

Newsletter z promocjami

Zapisz się na nasz newsletter i otrzymuj informacje o aktualnych zniżkach na kursy otwarte.
Szanujemy Twoją prywatność, dlatego Twój e-mail będzie wykorzystywany jedynie w celu wysyłki naszego newslettera, nie będzie udostępniony ani sprzedany osobom trzecim.
W dowolnej chwili możesz zmienić swoje preferencje co do otrzymywanego newslettera bądź całkowicie się z niego wypisać.

Zaufali nam

is growing fast!

We are looking to expand our presence in Poland!

As a Business Development Manager you will:

  • expand business in Poland
  • recruit local talent (sales, agents, trainers, consultants)
  • recruit local trainers and consultants

We offer:

  • Artificial Intelligence and Big Data systems to support your local operation
  • high-tech automation
  • continuously upgraded course catalogue and content
  • good fun in international team

If you are interested in running a high-tech, high-quality training and consulting business.

Apply now!