Szkolenia Big Data

Szkolenia Big Data

BigData to termin używany w odniesieniu do rozwiązań przeznaczonych do przechowywania i przetwarzania dużych zbiorów danych. Rozwiązania typu BigData zostały zainicjowane przez firmę Google, jakkolwiek obecnie dostępnych jest wiele rozwiązań typu open-source takich jak Apache Hadoop, Cassandra czy Cloudera Impala. Zgodnie z raportami publikowanymi przez firmę Gartner BigData jest kolejnym wielkim krokiem w branży IT, zaraz po rozwiązaniach opartych na chmurze obliczeniowej, i będzie wiodącym trendem przez kilka najbliższych lat.

Szkolenia z tematu Big Data mogą być realizowane w siedzibie klienta - lokalizacja w Polsce lub centrach szkoleniowych w lokalizacji w Polsce Szkolenie zdalne realizowane są przy użyciu interaktywnego, zdalnego pulpitu.

Opinie uczestników

★★★★★
★★★★★

Plany szkoleń z technologii Big Data

Nazwa kursu
Czas trwania
Opis
Nazwa kursu
Czas trwania
Opis
14 godzin
Opis
Cel:

Opanowanie umiejętności pracy z programem SPSS na poziomie samodzielności

Adresaci:

Analitycy, Badacze, Naukowcy, studenci i wszyscy, którzy chcą pozyskać umiejętność posługiwania się pakietem SPSS oraz poznać popularne techniki eksploracji danych.
7 godzin
Opis
Podczas tego prowadzonego przez instruktora szkolenia na żywo uczestnicy poznają podstawowe pojęcia związane z architekturą Stream MapR podczas opracowywania aplikacji do strumieniowania w czasie rzeczywistym.

Pod koniec tego szkolenia uczestnicy będą mogli tworzyć aplikacje producentów i konsumentów do przetwarzania danych strumieniowych w czasie rzeczywistym.

Publiczność

- Deweloperzy
- Administratorzy

Format kursu

- Wykład częściowy, dyskusja częściowa, ćwiczenia i ciężka praktyka praktyczna

Uwaga

- Aby poprosić o niestandardowe szkolenie na ten kurs, skontaktuj się z nami w celu umówienia.
28 godzin
Opis
Pentaho Open Source BI Suite Community Edition (CE) to pakiet Business Intelligence, który zapewnia integrację danych, raportowanie, pulpity nawigacyjne i możliwości ładowania W tym instruktażowym szkoleniu na żywo uczestnicy dowiedzą się, jak zmaksymalizować funkcje Open Source BI Suite Community Edition (CE) Pod koniec tego szkolenia uczestnicy będą mogli: Zainstaluj i skonfiguruj Pentaho Open Source BI Suite Community Edition (CE) Zapoznaj się z podstawami narzędzi CE Pentaho i ich funkcjami Twórz raporty za pomocą Pentaho CE Zintegruj dane stron trzecich z Pentaho CE Pracuj z dużymi danymi i analizami w Pentaho CE Publiczność Programiści Deweloperzy BI Format kursu Wykład częściowy, dyskusja częściowa, ćwiczenia i ciężka praktyka handson Uwaga Aby poprosić o indywidualne szkolenie dla tego kursu, skontaktuj się z nami w celu ustalenia szczegółów .
21 godzin
Opis
Amazon Redshift to oparta na petabajcie usługa hurtowni danych w chmurze w AWS.

W tym prowadzonym przez instruktora szkoleniu na żywo uczestnicy nauczą się podstaw przesunięcia Amazon.

Pod koniec tego szkolenia uczestnicy będą mogli:

- Zainstaluj i skonfiguruj Amazon Redshift
- Ładuj, konfiguruj, wdrażaj, wysyłaj zapytania i wizualizuj dane za pomocą usługi Redshift Amazon

Publiczność

- Deweloperzy
- Specjaliści IT

Format kursu

- Wykład częściowy, dyskusja częściowa, ćwiczenia i ciężka praktyka praktyczna

Uwaga

- Aby poprosić o niestandardowe szkolenie na ten kurs, skontaktuj się z nami w celu umówienia.
21 godzin
Opis
Stream Processing odnosi się do przetwarzania „danych w ruchu” w czasie rzeczywistym, to znaczy wykonywania obliczeń na danych w trakcie ich otrzymywania. Takie dane są odczytywane jako ciągłe strumienie ze źródeł danych, takich jak zdarzenia z czujników, aktywność użytkownika witryny, transakcje finansowe, karty kredytowe, strumienie kliknięć itp. Struktury Stream Processing są w stanie odczytać duże ilości przychodzących danych i zapewniają cenne informacje niemal natychmiast.

Podczas tego instruktażowego szkolenia na żywo (na miejscu lub zdalnie) uczestnicy dowiedzą się, jak skonfigurować i zintegrować różne struktury Stream Processing z istniejącymi systemami przechowywania dużych danych oraz powiązanymi aplikacjami i mikrousługami.

Pod koniec tego szkolenia uczestnicy będą mogli:

- Zainstaluj i skonfiguruj różne platformy Stream Processing , takie jak Spark Streaming i Kafka Streaming.
- Zrozum i wybierz najbardziej odpowiednie ramy dla zadania.
- Przetwarzanie danych w sposób ciągły, równoległy i rekordowy.
- Zintegruj rozwiązania Stream Processing z istniejącymi bazami danych, hurtowniami danych, jeziorami danych itp.
- Zintegruj najbardziej odpowiednią bibliotekę przetwarzania strumieniowego z aplikacjami korporacyjnymi i mikrousługami.

Publiczność

- Deweloperzy
- Architekci oprogramowania

Format kursu

- Część wykładu, część dyskusji, ćwiczenia i ciężka praktyka

Notatki

- Aby poprosić o niestandardowe szkolenie dla tego kursu, skontaktuj się z nami w celu umówienia się.
7 godzin
Opis
Spark SQL to Apache Spark do pracy z danymi strukturalnymi i nieustrukturyzowanymi. Spark SQL dostarcza informacji o strukturze danych oraz wykonywanych obliczeniach. Informacje te można wykorzystać do przeprowadzenia optymalizacji. Dwa popularne zastosowania Spark SQL to:
- wykonywanie zapytań SQL .
- aby odczytać dane z istniejącej instalacji Hive .

W tym prowadzonym przez instruktora szkoleniu na żywo (na miejscu lub zdalnie) uczestnicy nauczą się analizować różne typy zestawów danych za pomocą Spark SQL .

Pod koniec tego szkolenia uczestnicy będą mogli:

- Zainstaluj i skonfiguruj Spark SQL .
- Wykonaj analizę danych za pomocą Spark SQL .
- Zestawy danych zapytań w różnych formatach.
- Wizualizuj dane i wyniki zapytań.

Format kursu

- Interaktywny wykład i dyskusja.
- Wiele ćwiczeń i ćwiczeń.
- Praktyczne wdrożenie w środowisku laboratoryjnym na żywo.

Opcje dostosowywania kursu

- Aby poprosić o niestandardowe szkolenie na ten kurs, skontaktuj się z nami w celu umówienia.
7 godzin
Opis
Celem kursu jest umożliwienie uczestnikom opanowania podstaw R i pracy z danymi.
14 godzin
Opis
Cel : Szkolenie ma na celu pomóc uczestnikom zrozumieć, dlaczego Big Data zmienia nasze życie i jak zmienia sposób, w jaki firmy postrzegają nas jako konsumentów. W rzeczywistości użytkownicy dużych zbiorów danych w przedsiębiorstwach odkrywają, że duże dane uwalniają bogactwo informacji i spostrzeżeń, które przekładają się na wyższe zyski, niższe koszty i mniejsze ryzyko. Jednak minusem była czasem frustracja, gdy kładziono zbyt duży nacisk na indywidualne technologie i nie skupiano się wystarczająco na filarach zarządzania dużymi danymi.

Uczestnicy nauczą się podczas tego kursu, jak zarządzać dużymi danymi przy użyciu trzech filarów integracji danych, zarządzania danymi i bezpieczeństwa danych, aby przekształcić duże dane w rzeczywistą wartość biznesową. Różne ćwiczenia prowadzone na studium przypadku zarządzania klientami pomogą uczestnikom lepiej zrozumieć podstawowe procesy.
14 godzin
Opis
Apache Hama jest strukturą opartą na modelu obliczeniowym Bulk Synchronous Parallel (BSP) i jest przede wszystkim wykorzystywany do analizy Big Data .

W tym instruktażowym szkoleniu na żywo uczestnicy poznają podstawy Apache Hama , przechodząc przez proces tworzenia aplikacji opartej na BSP i programu zorientowanego na wierzchołki, wykorzystującego frameworki Apache Hama .

Pod koniec tego szkolenia uczestnicy będą mogli:

- Zainstaluj i skonfiguruj Apache Hama
- Zapoznaj się z podstawami Apache Hama i modelu programowania Bulk Synchronous Parallel (BSP)
- Zbuduj program oparty na BSP przy użyciu frameworku BSP Apache Hama
- Zbuduj program zorientowany na wierzchołki za pomocą Apache Hama Graph Framework
- Twórz, testuj i debuguj własne aplikacje Apache Hama

Publiczność

- Deweloperzy

Format kursu

- Część wykładu, część dyskusji, ćwiczenia i ciężka praktyka

Uwaga

- Aby poprosić o niestandardowe szkolenie dla tego kursu, skontaktuj się z nami w celu umówienia się.
14 godzin
Opis
Ta sesja szkoleniowa oparta na zajęciach pozwoli poznać Big Data . Delegaci będą mieli przykłady z komputera i ćwiczenia studium przypadku, które będą przeprowadzane za pomocą odpowiednich narzędzi do dużych zbiorów danych
7 godzin
Opis
Kafka Streams to biblioteka po stronie klienta do budowania aplikacji i mikrousług, których dane są przekazywane do iz systemu przesyłania wiadomości Kafka. Tradycyjnie Apache Kafka polegał na Apache Spark lub Apache Storm do przetwarzania danych między producentami wiadomości a konsumentami. Wywołując interfejs API strumieni Kafka z poziomu aplikacji, dane można przetwarzać bezpośrednio w Kafce, omijając potrzebę wysyłania danych do osobnego klastra w celu przetworzenia.

W tym instruktażowym szkoleniu na żywo uczestnicy dowiedzą się, jak zintegrować strumienie Kafka z zestawem przykładowych aplikacji Java , które przekazują dane zi do Apache Kafka celu przetwarzania strumieniowego.

Pod koniec tego szkolenia uczestnicy będą mogli:

- Poznaj funkcje i zalety strumieni Kafka w porównaniu do innych platform przetwarzania strumieniowego
- Przetwarzaj strumień danych bezpośrednio w klastrze Kafka
- Napisz aplikację lub mikrousługę Java lub Scala , która integruje się ze strumieniami Kafka i Kafka
- Napisz zwięzły kod, który przekształca wejściowe tematy Kafka w wyjściowe tematy Kafka
- Kompiluj, pakuj i wdrażaj aplikację

Publiczność

- Deweloperzy

Format kursu

- Część wykładu, część dyskusji, ćwiczenia i ciężka praktyka

Notatki

- Aby poprosić o niestandardowe szkolenie dla tego kursu, skontaktuj się z nami w celu umówienia się
21 godzin
Opis
Dremio is an open-source "self-service data platform" that accelerates the querying of different types of data sources. Dremio integrates with relational databases, Apache Hadoop, MongoDB, Amazon S3, ElasticSearch, and other data sources. It supports SQL and provides a web UI for building queries.

In this instructor-led, live training, participants will learn how to install, configure and use Dremio as a unifying layer for data analysis tools and the underlying data repositories.

By the end of this training, participants will be able to:

- Install and configure Dremio
- Execute queries against multiple data sources, regardless of location, size, or structure
- Integrate Dremio with BI and data sources such as Tableau and Elasticsearch

Audience

- Data scientists
- Business analysts
- Data engineers

Format of the course

- Part lecture, part discussion, exercises and heavy hands-on practice

Notes

- To request a customized training for this course, please contact us to arrange.
7 godzin
Opis
Apache Drill jest pozbawionym schematu, rozproszonym, kolumnowym silnikiem zapytań SQL dla Hadoop , No SQL i innych systemów przechowywania w chmurze i plików. Moc Apache Drill polega na jego zdolności do łączenia danych z wielu magazynów danych za pomocą jednego zapytania. Apache Drill obsługuje wiele SQL danych SQL i systemów plików, w tym HBase, MongoDB , MapR-DB, HDFS, MapR-FS, Amazon S3, Azure Blob Storage, Go ogle Cloud Storage, Swift , NAS i pliki lokalne. Apache Drill to otwarta wersja systemu Dremel Go ogle, która jest dostępna jako usługa infrastruktury o nazwie Go ogle BigQuery.

W tym instruktażowym szkoleniu na żywo uczestnicy dowiedzą się, jak optymalizować i debugować Apache Drill aby poprawić wydajność zapytań na bardzo dużych zestawach danych. Kurs rozpoczyna się przeglądem architektury i porównaniem funkcji między Apache Drill i innymi interaktywnymi narzędziami do analizy danych. Następnie uczestnicy przechodzą szereg interaktywnych sesji praktycznych, które obejmują instalację, konfigurację, ocenę wydajności, optymalizację zapytań, partycjonowanie danych i debugowanie instancji Apache Drill w środowisku na żywo.

Pod koniec tego szkolenia uczestnicy będą mogli:

- Zainstaluj i skonfiguruj Apache Drill
- Poznaj architekturę i funkcje Apache Drill
- Dowiedz się, w jaki sposób Apache Drill odbiera i wykonuje zapytania
- Zoptymalizuj zapytania Wiertła pod kątem rozproszonego wykonywania SQL
- Debuguj Apache Drill

Publiczność

- Deweloperzy
- Administratorzy systemów
- Analitycy danych

Format kursu

- Część wykładu, część dyskusji, ćwiczenia i ciężka praktyka

Notatki

- Aby poprosić o niestandardowe szkolenie dla tego kursu, skontaktuj się z nami w celu umówienia się.
21 godzin
Opis
Apache Drill jest pozbawionym schematu, rozproszonym, kolumnowym silnikiem zapytań SQL dla Hadoop , No SQL i innych systemów przechowywania w chmurze i plików. Moc Apache Drill polega na jego zdolności do łączenia danych z wielu magazynów danych za pomocą jednego zapytania. Apache Drill obsługuje wiele SQL danych SQL i systemów plików, w tym HBase, MongoDB , MapR-DB, HDFS, MapR-FS, Amazon S3, Azure Blob Storage, Go ogle Cloud Storage, Swift , NAS i pliki lokalne. Apache Drill to otwarta wersja systemu Dremel Go ogle, która jest dostępna jako usługa infrastruktury o nazwie Go ogle BigQuery.

W tym instruktażowym szkoleniu na żywo uczestnicy poznają podstawy Apache Drill , a następnie wykorzystają moc i wygodę SQL aby interaktywnie wyszukiwać duże dane w wielu źródłach danych, bez pisania kodu. Uczestnicy dowiedzą się również, jak zoptymalizować swoje zapytania dotyczące ćwiczeń w celu wykonania rozproszonego SQL .

Pod koniec tego szkolenia uczestnicy będą mogli:

- Przeprowadź „samoobsługową” eksplorację ustrukturyzowanych i częściowo ustrukturyzowanych danych w Hadoop
- Zapytania znane i nieznane za pomocą zapytań SQL
- Dowiedz się, w jaki sposób Apache Drill odbiera i wykonuje zapytania
- Napisz SQL kwerendy do analizowania różnych typów danych, w tym danych strukturyzowanych w Hive , pół-strukturę danych w HBase lub tabel MapR-DB i danych zapisanych w plikach, takich jak Parkiet i JSON.
- Użyj Apache Drill aby wykonać wykrywanie schematu w locie, omijając potrzebę skomplikowanych operacji ETL i schematu
- Zintegruj Apache Drill z narzędziami BI ( Business Intelligence ), takimi jak Tableau , Qlikview, MicroStrategy i Excel

Publiczność

- Analitycy danych
- Badacze danych
- Programiści SQL

Format kursu

- Część wykładu, część dyskusji, ćwiczenia i ciężka praktyka
14 godzin
Opis
Sqoop to otwarte oprogramowanie do przesyłania danych między Hadoop a relacyjnymi bazami danych lub komputerami mainframe. Może być wykorzystywany do importowania danych z systemu zarządzania relacyjnymi bazami danych (RDBMS), takiego jak My SQL lub Oracle lub komputer mainframe, do Hadoop Distributed File System (HDFS). Następnie dane można przekształcić w Hadoop MapReduce, a następnie ponownie wyeksportować z powrotem do RDBMS.

W tym prowadzonym przez instruktora szkoleniu na żywo uczestnicy dowiedzą się, jak używać Sqoop do importowania danych z tradycyjnej relacyjnej bazy danych do pamięci Hadoop takiej jak HDFS lub Hive i odwrotnie.

Pod koniec tego szkolenia uczestnicy będą mogli:

- Zainstaluj i skonfiguruj Sqoop
- Importuj dane z My SQL do HDFS i Hive
- Importuj dane z HDFS i Hive do My SQL

Publiczność

- Administratorzy systemu
- Inżynierowie danych

Format kursu

- Wykład częściowy, dyskusja częściowa, ćwiczenia i ciężka praktyka praktyczna

Uwaga

- Aby poprosić o niestandardowe szkolenie na ten kurs, skontaktuj się z nami w celu umówienia.
28 godzin
Opis
MonetDB to baza danych o otwartym kodzie źródłowym, która zapoczątkowała podejście oparte na technologii przechowywania kolumn.

W tym prowadzonym przez instruktora szkoleniu na żywo uczestnicy dowiedzą się, jak korzystać z MonetDB i jak uzyskać z niego jak najwięcej korzyści.

Pod koniec tego szkolenia uczestnicy będą mogli:

- Zrozumieć MonetDB i jego funkcje
- Zainstaluj i zacznij korzystać z MonetDB
- Przeglądaj i wykonuj różne funkcje i zadania w MonetDB
- Przyspiesz realizację projektu, maksymalizując możliwości MonetDB

Publiczność

- Deweloperzy
- Eksperci techniczni

Format kursu

- Wykład częściowy, dyskusja częściowa, ćwiczenia i ciężka praktyka praktyczna
28 godzin
Opis
Mem SQL to rozproszony system zarządzania bazami danych SQL w pamięci w chmurze i lokalnie. Jest to hurtownia danych działająca w czasie rzeczywistym, która natychmiast zapewnia wgląd w dane bieżące i historyczne.

W tym prowadzonym przez instruktora szkoleniu na żywo uczestnicy poznają podstawy Mem SQL dla rozwoju i administracji.

Pod koniec tego szkolenia uczestnicy będą mogli:

- Zrozumienie kluczowych pojęć i cech Mem SQL
- Instaluj, projektuj, utrzymuj i obsługuj Mem SQL
- Optymalizuj schematy w Mem SQL
- Popraw zapytania w Mem SQL
- Test wydajności w Mem SQL
- Twórz aplikacje danych w czasie rzeczywistym za pomocą Mem SQL

Publiczność

- Deweloperzy
- Administratorzy
- Inżynierowie operacji

Format kursu

- Wykład częściowy, dyskusja częściowa, ćwiczenia i ciężka praktyka praktyczna
28 godzin
Opis
Hadoop to popularna platforma przetwarzania Big Data . Python jest językiem programowania wysokiego poziomu znanym z jasnej składni i czytelności kodu.

W tym instruktażowym szkoleniu na żywo uczestnicy dowiedzą się, jak pracować z Hadoop , MapReduce, Pig i Spark za pomocą Python , przechodząc przez wiele przykładów i przypadków użycia.

Pod koniec tego szkolenia uczestnicy będą mogli:

- Zapoznaj się z podstawowymi koncepcjami Hadoop , MapReduce, Pig i Spark
- Używaj Python z rozproszonym Hadoop plików Hadoop (HDFS), MapReduce, Pig i Spark
- Użyj Snakebite, aby programowo uzyskać dostęp do HDFS w Python
- Użyj mrjob do napisania zadań MapReduce w Python
- Pisz programy Spark w Python
- Rozszerz funkcjonalność świni za pomocą Python UDF
- Zarządzaj zadaniami MapReduce i skryptami Pig za pomocą Luigi

Publiczność

- Deweloperzy
- Specjaliści IT

Format kursu

- Część wykładu, część dyskusji, ćwiczenia i ciężka praktyka
21 godzin
Opis
Python to język programowania wysokiego poziomu, znany ze swojej jasnej składni i czytelności kodu. Spark to mechanizm przetwarzania danych wykorzystywany do kwerend, analizowania i przekształcania dużych danych. PySpark pozwala użytkownikom na interfejs Sparka z Python .

Podczas tego prowadzonego przez instruktora szkolenia na żywo uczestnicy dowiedzą się, jak używać Python i Sparka do analizowania dużych zbiorów danych podczas pracy nad ćwiczeniami praktycznymi.

Pod koniec tego szkolenia uczestnicy będą mogli:

- Dowiedz się, jak używać Sparka z Python do analizowania Big Data .
- Pracuj nad ćwiczeniami, które naśladują rzeczywiste okoliczności.
- Użyj różnych narzędzi i technik do analizy dużych danych za pomocą PySpark .

Format kursu

- Wykład częściowy, dyskusja częściowa, ćwiczenia i ciężka praktyka praktyczna
35 godzin
Opis
Postępy technologiczne i rosnąca ilość informacji zmieniają sposób egzekwowania prawa. Wyzwania stojące przed Big Data są niemal tak samo trudne, jak obietnica Big Data . Wydajne przechowywanie danych jest jednym z tych wyzwań; efektywna analiza to kolejna sprawa.

W tym prowadzonym przez instruktora szkoleniu na żywo uczestnicy poznają sposób podejścia do technologii Big Data , oceny ich wpływu na istniejące procesy i zasady oraz wdrożenia tych technologii w celu identyfikacji działalności przestępczej i zapobiegania przestępczości. Studia przypadków z organów ścigania na całym świecie zostaną przeanalizowane w celu uzyskania wglądu w ich podejścia do przyjmowania, wyzwania i wyniki.

Pod koniec tego szkolenia uczestnicy będą mogli:

- Połącz technologię Big Data z tradycyjnymi procesami gromadzenia danych, aby poskładać historię podczas dochodzenia
- Wdrożenie przemysłowych rozwiązań do przechowywania i przetwarzania dużych zbiorów danych do analizy danych
- Przygotuj propozycję przyjęcia najbardziej odpowiednich narzędzi i procesów umożliwiających oparte na danych podejście do dochodzenia karnego

Publiczność

- Specjaliści organów ścigania z wykształceniem technicznym

Format kursu

- Część wykładu, część dyskusji, ćwiczenia i ciężka praktyka
14 godzin
Opis
Aby spełnić wymogi organów regulacyjnych, dostawcy CSP (dostawcy usług Communication ) mogą skorzystać z Big Data Analytics, które nie tylko pomagają im spełnić wymogi zgodności, ale w ramach tego samego projektu mogą zwiększyć zadowolenie klientów, a tym samym zmniejszyć odejście. W rzeczywistości, ponieważ zgodność jest związana z jakością usług związaną z umową, każda inicjatywa zmierzająca do spełnienia wymogów poprawi „przewagę konkurencyjną” CSP. Dlatego ważne jest, aby organy regulacyjne były w stanie doradzić / poprowadzić zestaw praktyk analitycznych Big Data dla CSP, które przyniosą obopólne korzyści między organami regulacyjnymi i CSP.

Kurs składa się z 8 modułów (4 w dniu 1 i 4 w dniu 2)
28 godzin
Opis
Wiele rzeczywistych problemów można opisać za pomocą wykresów. Na przykład wykres sieciowy, wykres sieci społecznościowej, wykres sieci pociągów i wykres języka. Te wykresy są zwykle bardzo duże; ich przetwarzanie wymaga specjalistycznego zestawu narzędzi i procesów - te narzędzia i procesy można nazwać Graph Computing (znanym również jako Graph Analytics).

W tym instruktażowym szkoleniu na żywo uczestnicy dowiedzą się o ofertach technologicznych i podejściach wdrożeniowych do przetwarzania danych graficznych. Celem jest identyfikacja rzeczywistych obiektów, ich cech i relacji, a następnie modelowanie tych relacji i przetwarzanie ich jako danych przy użyciu metody Graph Computing (znanej również jako Graph Analytics). Zaczynamy od ogólnego przeglądu i zawężamy do konkretnych narzędzi, przechodząc przez serię studiów przypadków, ćwiczeń praktycznych i wdrożeń na żywo.

Pod koniec tego szkolenia uczestnicy będą mogli:

- Dowiedz się, jak dane wykresu są utrwalane i przetwarzane.
- Wybierz najlepszą strukturę dla danego zadania (od baz danych wykresów po ramy przetwarzania wsadowego).
- Zaimplementuj Hadoop , Spark, GraphX i Pregel, aby równolegle wykonywać obliczenia graficzne na wielu komputerach.
- Zobacz rzeczywiste problemy z dużymi danymi w postaci wykresów, procesów i przejść.

Format kursu

- Część wykładu, część dyskusji, ćwiczenia i ciężka praktyka
7 godzin
Opis
Apache NiFi (Hortonworks DataFlow) to zintegrowana logistyka danych w czasie rzeczywistym i prosta platforma przetwarzania zdarzeń, która umożliwia przenoszenie, śledzenie i automatyzację danych między systemami. Jest napisany przy użyciu programowania opartego na przepływach i zapewnia interfejs użytkownika oparty na sieci WWW do zarządzania przepływami danych w czasie rzeczywistym.

W tym prowadzonym przez instruktora szkoleniu na żywo uczestnicy poznają podstawy programowania opartego na przepływach, ponieważ opracowują szereg rozszerzeń demonstracyjnych, komponentów i procesorów wykorzystujących Apache NiFi .

Pod koniec tego szkolenia uczestnicy będą mogli:

- Zrozumienie koncepcji architektury i przepływu danych NiFi.
- Twórz rozszerzenia za pomocą NiFi i interfejsów API innych firm.
- Niestandardowe opracowanie własnego procesora Apache Nifi.
- Odbieraj i przetwarzaj dane w czasie rzeczywistym z różnych i nietypowych formatów plików i źródeł danych.

Format kursu

- Interaktywny wykład i dyskusja.
- Wiele ćwiczeń i ćwiczeń.
- Praktyczne wdrożenie w środowisku laboratoryjnym na żywo.

Opcje dostosowywania kursu

- Aby poprosić o niestandardowe szkolenie na ten kurs, skontaktuj się z nami w celu umówienia.
21 godzin
Opis
Apache NiFi (Hortonworks DataFlow) to zintegrowana logistyka danych w czasie rzeczywistym i prosta platforma przetwarzania zdarzeń, która umożliwia przenoszenie, śledzenie i automatyzację danych między systemami. Jest napisany przy użyciu programowania opartego na przepływach i zapewnia interfejs użytkownika oparty na sieci WWW do zarządzania przepływami danych w czasie rzeczywistym.

W tym prowadzonym przez instruktora szkoleniu na żywo (na miejscu lub zdalnie) uczestnicy dowiedzą się, jak wdrożyć i zarządzać Apache NiFi w środowisku laboratoryjnym.

Pod koniec tego szkolenia uczestnicy będą mogli:

- Zainstaluj i skonfiguruj Apachi NiFi.
- Źródło, transformacja i zarządzanie danymi z różnych rozproszonych źródeł danych, w tym baz danych i jezior dużych zbiorów danych.
- Automatyzuj przepływ danych.
- Włącz analizę strumieniową.
- Zastosuj różne podejścia do przyjmowania danych.
- Przekształć Big Data i spostrzeżenia biznesowe.

Format kursu

- Interaktywny wykład i dyskusja.
- Wiele ćwiczeń i ćwiczeń.
- Praktyczne wdrożenie w środowisku laboratoryjnym na żywo.

Opcje dostosowywania kursu

- Aby poprosić o niestandardowe szkolenie na ten kurs, skontaktuj się z nami w celu umówienia.
14 godzin
Opis
Apache SolrCloud jest rozproszonym mechanizmem przetwarzania danych, który ułatwia wyszukiwanie i indeksowanie plików w sieci rozproszonej W tym instruktażowym szkoleniu na żywo uczestnicy dowiedzą się, jak skonfigurować instancję SolrCloud na Amazon AWS Pod koniec tego szkolenia uczestnicy będą mogli: Zapoznaj się z funkcjami SolCloud i ich porównaniem do tradycyjnych klastrów masterslave Skonfiguruj centralny klaster SolCloud Zautomatyzuj procesy, takie jak komunikowanie się ze skorupami, dodawanie dokumentów do odłamków itp Użyj Zookeepera w połączeniu z SolrCloud, aby dalej automatyzować procesy Użyj interfejsu do zarządzania raportowaniem błędów Load balance to instalacja SolrCloud Skonfiguruj SolrCloud do ciągłego przetwarzania i przełączania awaryjnego Publiczność Deweloperzy Solr Menadżerowie projektu Administratorzy systemu Analitycy wyszukiwania Format kursu Wykład częściowy, dyskusja częściowa, ćwiczenia i ciężka praktyka handson .
28 godzin
Opis
Modelowanie skarbca danych to technika modelowania baz danych, która zapewnia długoterminowe archiwalne przechowywanie danych pochodzących z wielu źródeł Przechowalnia danych przechowuje pojedynczą wersję faktów lub "wszystkie dane, cały czas" Jego elastyczny, skalowalny, spójny i dostosowujący się projekt obejmuje najlepsze aspekty trzeciej normalnej formy (3NF) i schematu gwiazdy W tym instruktażowym szkoleniu na żywo uczestnicy dowiedzą się, jak zbudować skarbiec danych Pod koniec tego szkolenia uczestnicy będą mogli: Zapoznaj się z koncepcjami architektury i projektowania kryjącymi się za Data Vault 20 oraz jego interakcją z Big Data, NoSQL i AI Użyj technik przechwytywania danych, aby umożliwić inspekcję, śledzenie i przeglądanie danych historycznych w hurtowni danych Opracuj spójny i powtarzalny proces ETL (Extract, Transform, Load) Buduj i wdrażaj wysoce skalowalne i powtarzalne magazyny Publiczność Modelarze danych Specjalista ds Hurtowni danych Specjaliści Business Intelligence Inżynierowie danych Administratorzy baz danych Format kursu Wykład częściowy, dyskusja częściowa, ćwiczenia i ciężka praktyka handson .
14 godzin
Opis
Apache Beam jest otwartym, zunifikowanym modelem programowania do definiowania i wykonywania równoległych potoków przetwarzania danych Jego moc polega na możliwości uruchamiania zarówno potoków wsadowych, jak i strumieniowych, a wykonywanie jest wykonywane przez jeden z obsługiwanych procesorów rozproszonych Beam: Apache Apex, Apache Flink, Apache Spark i Google Cloud Dataflow Apache Beam jest przydatny do zadań ETL (Extract, Transform and Load), takich jak przenoszenie danych między różnymi nośnikami pamięci i źródłami danych, przekształcanie danych do bardziej pożądanego formatu i ładowanie danych do nowego systemu W tym instruktażowym szkoleniu na żywo (na miejscu lub zdalnie) uczestnicy dowiedzą się, jak zaimplementować pakiety SDK Apache Beam w aplikacji Java lub Python, która definiuje potok przetwarzania danych w celu dekompozycji dużego zestawu danych na mniejsze porcje w celu niezależnego, równoległego przetwarzania Pod koniec tego szkolenia uczestnicy będą mogli: Zainstaluj i skonfiguruj Apache Beam Użyj jednego modelu programistycznego, aby przeprowadzić przetwarzanie wsadowe i strumieniowe z aplikacji Java lub Python Wykonuj potoki w wielu środowiskach Publiczność Deweloperzy Format kursu Wykład częściowy, dyskusja częściowa, ćwiczenia i ciężka praktyka handson Uwaga Ten kurs będzie dostępny w przyszłości w Scali Prosimy o kontakt w celu ustalenia szczegółów .
14 godzin
Opis
Apache Arrow to platforma przetwarzania danych typu open source w pamięci. Jest często używany wraz z innymi narzędziami do analizy danych w celu uzyskania dostępu do różnych magazynów danych w celu analizy. Dobrze integruje się z innymi technologiami, takimi jak bazy danych GPU , biblioteki i narzędzia uczenia maszynowego, silniki wykonawcze i ramy wizualizacji danych.

W tym instruktażowym szkoleniu na żywo uczestnicy dowiedzą się, jak zintegrować Apache Arrow z różnymi platformami Data Science , aby uzyskać dostęp do danych z różnych źródeł danych.

Pod koniec tego szkolenia uczestnicy będą mogli:

- Zainstaluj i skonfiguruj Apache Arrow w rozproszonym środowisku klastrowym
- Użyj Apache Arrow aby uzyskać dostęp do danych z różnych źródeł danych
- Użyj Apache Arrow aby ominąć potrzebę konstruowania i utrzymywania złożonych potoków ETL
- Analizuj dane z różnych źródeł danych bez konieczności konsolidacji ich w scentralizowanym repozytorium

Publiczność

- Badacze danych
- Inżynierowie danych

Format kursu

- Część wykładu, część dyskusji, ćwiczenia i ciężka praktyka

Uwaga

- Aby poprosić o niestandardowe szkolenie dla tego kursu, skontaktuj się z nami w celu umówienia się.
14 godzin
Opis
Tigon jest open source, w czasie rzeczywistym, lowlatency, highthroughput, native YARN, framework przetwarzania strumienia, który znajduje się na szczycie HDFS i HBase dla trwałości Aplikacje Tygon adresują przypadki użycia, takie jak wykrywanie włamań i analiz sieciowych, analiza rynku mediów społecznościowych, analiza lokalizacji i zalecenia w czasie rzeczywistym dla użytkowników Ten instruktażowy trening na żywo wprowadza podejście Tigona do mieszania przetwarzania w czasie rzeczywistym i przetwarzania wsadowego, gdy przechodzi uczestników przez tworzenie przykładowej aplikacji Pod koniec tego szkolenia uczestnicy będą mogli: Twórz wydajne aplikacje do przetwarzania strumieniowego do obsługi dużych ilości danych Przetwarzaj źródła strumieniowe, takie jak Twitter i dzienniki serwera WWW Użyj Tigona do szybkiego łączenia, filtrowania i agregowania strumieni Publiczność Deweloperzy Format kursu Wykład częściowy, dyskusja częściowa, ćwiczenia i ciężka praktyka handson .
14 godzin
Opis
This instructor-led, live training in w Polsce (online or onsite) is aimed at administrators who wish to set up Greenplum Database for business intelligence and data warehousing solutions.

By the end of this training, participants will be able to:

- Address processing needs with Greenplum.
- Perform ETL operations for data processing.
- Leverage existing query processing infrastructures.

Nadchodzące szkolenia z technologii Big Data

Szkolenie Big Data, Big Data boot camp, Szkolenia Zdalne Big Data, szkolenie wieczorowe Big Data, szkolenie weekendowe Big Data, Kurs Big Data,Kursy Big Data, Trener Big Data, instruktor Big Data, kurs zdalny Big Data, edukacja zdalna Big Data, nauczanie wirtualne Big Data, lekcje UML, nauka przez internet Big Data, e-learning Big Data, kurs online Big Data, wykładowca Big Data

Kursy w promocyjnej cenie

Newsletter z promocjami

Zapisz się na nasz newsletter i otrzymuj informacje o aktualnych zniżkach na kursy otwarte.
Szanujemy Twoją prywatność, dlatego Twój e-mail będzie wykorzystywany jedynie w celu wysyłki naszego newslettera, nie będzie udostępniony ani sprzedany osobom trzecim.
W dowolnej chwili możesz zmienić swoje preferencje co do otrzymywanego newslettera bądź całkowicie się z niego wypisać.

Zaufali nam

is growing fast!

We are looking to expand our presence in Poland!

As a Business Development Manager you will:

  • expand business in Poland
  • recruit local talent (sales, agents, trainers, consultants)
  • recruit local trainers and consultants

We offer:

  • Artificial Intelligence and Big Data systems to support your local operation
  • high-tech automation
  • continuously upgraded course catalogue and content
  • good fun in international team

If you are interested in running a high-tech, high-quality training and consulting business.

Apply now!

This site in other countries/regions