
BigData to termin używany w odniesieniu do rozwiązań przeznaczonych do przechowywania i przetwarzania dużych zbiorów danych. Rozwiązania typu BigData zostały zainicjowane przez firmę Google, jakkolwiek obecnie dostępnych jest wiele rozwiązań typu open-source takich jak Apache Hadoop, Cassandra czy Cloudera Impala. Zgodnie z raportami publikowanymi przez firmę Gartner BigData jest kolejnym wielkim krokiem w branży IT, zaraz po rozwiązaniach opartych na chmurze obliczeniowej, i będzie wiodącym trendem przez kilka najbliższych lat.
Szkolenia z tematu Big Data mogą być realizowane w siedzibie klienta - lokalizacja w Polsce lub centrach szkoleniowych w lokalizacji w Polsce Szkolenie zdalne realizowane są przy użyciu interaktywnego, zdalnego pulpitu.
Opinie uczestników
Część praktyczna.
Arkadiusz Iwaszko
Szkolenie: Big Data Hadoop Analyst Training
zakres materialu
Maciej Jonczyk
Szkolenie: From Data to Decision with Big Data and Predictive Analytics
usystematyzowanie wiedzy z dziedziny ML
Orange Polska
Szkolenie: From Data to Decision with Big Data and Predictive Analytics
Dużo zagadnień, które można zgłębić po szkoleniu
Klaudia Kłębek
Szkolenie: Data Mining z wykorzystaniem R
Wykorzystanie data-integration
Waldemar Wisniewski
Szkolenie: Pentaho Business Intelligence (PBI) - moduły raportowe
wiedza trenera, dostępny sprzęt
Mariusz Moskal
Szkolenie: Pentaho Business Intelligence (PBI) - moduły raportowe
Przykłady wzbogacane danymi rzeczywistymi i scenariuszami przydatnymi w codziennej praktyce
Krzysztof Świątczak
Szkolenie: Pentaho Business Intelligence (PBI) - moduły raportowe
Zastosowanie w praktyce, pomoc przy wyjaśnianiu wielu różnych wątpliwości
SGB-Bank S.A.
Szkolenie: Data Vault: Building a Scalable Data Warehouse
tematyka szkolenia oraz zaangażowanie trenera
Izba Administracji Skarbowej w Lublinie
Szkolenie: Apache NiFi for Administrators
Koleżeńska komunikacja z osobami biorących udział w szkoleniu.
Andrzej Szewczuk - Izba Administracji Skarbowej w Lublinie
Szkolenie: Apache NiFi for Administrators
przydatność ćwiczeń
Algomine sp.z.o.o sp.k.
Szkolenie: Apache NiFi for Administrators
Szkolenie bardzo mi się podobało. Anton posiada dużą wiedzę i wyłożył niezbędną teorię w bardzo przystępny sposób. Świetne jest to, że na szkoleniu było dużo ciekawych ćwiczeń, więc praktycznie od samego początku mamy kontakt z poznawaną technologią.
Szymon Dybczak - Algomine sp.z.o.o sp.k.
Szkolenie: Apache NiFi for Administrators
Najbardziej podobał mi się trener, który daje prawdziwe żywe przykłady.
Simon Hahn
Szkolenie: Administrator Training for Apache Hadoop
Machine Translated
Naprawdę cieszyłem się dużymi kompetencjami trenera.
Grzegorz Gorski
Szkolenie: Administrator Training for Apache Hadoop
Machine Translated
Naprawdę podobały mi się liczne sesje praktyczne.
Jacek Pieczątka
Szkolenie: Administrator Training for Apache Hadoop
Machine Translated
Bardzo podobała mi się Najlepsza.
Halil polat - Amazon Development Center Poland Sp. z o.o.
Szkolenie: Data Mining and Analysis
Machine Translated
Trener skoncentrował się na kluczowych tematach.
Amazon Development Center Poland Sp. z o.o.
Szkolenie: Data Mining and Analysis
Machine Translated
Wiedza fachowa i ogromna wiedza trenera.
Amazon Development Center Poland Sp. z o.o.
Szkolenie: Data Mining and Analysis
Machine Translated
Skorzystałam z poradnictwa i dzielenia się przykładami życia + odpowiadając na wszystkie pytania.
Marta Melloch - Amazon Development Center Poland Sp. z o.o.
Szkolenie: Data Mining and Analysis
Machine Translated
zadania praktyczne
Pawel Kozikowski - GE Medical Systems Polska Sp. Zoo
Szkolenie: Python and Spark for Big Data (PySpark)
Machine Translated
Wycinki były dobre, trener był pomocny. Zakładam również, że trener zaadaptowany trochę do naszej wiedzy po pierwszym dniu.
Capgemini Polska sp. z o.o.
Szkolenie: Teradata Fundamentals
Machine Translated
Entuzjazm i energia trenera
Capgemini Polska sp. z o.o.
Szkolenie: Teradata Fundamentals
Machine Translated
Wskazówki dotyczące poprawy wydajności
Capgemini Polska sp. z o.o.
Szkolenie: Teradata Fundamentals
Machine Translated
praktyczne rzeczy do zrobienia, również teoria była dobrze podawana przez Ajaya
Dominik Mazur - Capgemini Polska Sp. z o.o.
Szkolenie: Hadoop Administration on MapR
Machine Translated
Ćwiczenia
Capgemini Polska Sp. z o.o.
Szkolenie: Hadoop Administration on MapR
Machine Translated
Plany szkoleń z technologii Big Data
Opanowanie umiejętności pracy z programem SPSS na poziomie samodzielności
Adresaci:
Analitycy, Badacze, Naukowcy, studenci i wszyscy, którzy chcą pozyskać umiejętność posługiwania się pakietem SPSS oraz poznać popularne techniki eksploracji danych.
Pod koniec tego szkolenia uczestnicy będą mogli tworzyć aplikacje producentów i konsumentów do przetwarzania danych strumieniowych w czasie rzeczywistym.
Publiczność
- Deweloperzy
- Administratorzy
Format kursu
- Wykład częściowy, dyskusja częściowa, ćwiczenia i ciężka praktyka praktyczna
Uwaga
- Aby poprosić o niestandardowe szkolenie na ten kurs, skontaktuj się z nami w celu umówienia.
W tym prowadzonym przez instruktora szkoleniu na żywo uczestnicy nauczą się podstaw przesunięcia Amazon.
Pod koniec tego szkolenia uczestnicy będą mogli:
- Zainstaluj i skonfiguruj Amazon Redshift
- Ładuj, konfiguruj, wdrażaj, wysyłaj zapytania i wizualizuj dane za pomocą usługi Redshift Amazon
Publiczność
- Deweloperzy
- Specjaliści IT
Format kursu
- Wykład częściowy, dyskusja częściowa, ćwiczenia i ciężka praktyka praktyczna
Uwaga
- Aby poprosić o niestandardowe szkolenie na ten kurs, skontaktuj się z nami w celu umówienia.
Podczas tego instruktażowego szkolenia na żywo (na miejscu lub zdalnie) uczestnicy dowiedzą się, jak skonfigurować i zintegrować różne struktury Stream Processing z istniejącymi systemami przechowywania dużych danych oraz powiązanymi aplikacjami i mikrousługami.
Pod koniec tego szkolenia uczestnicy będą mogli:
- Zainstaluj i skonfiguruj różne platformy Stream Processing , takie jak Spark Streaming i Kafka Streaming.
- Zrozum i wybierz najbardziej odpowiednie ramy dla zadania.
- Przetwarzanie danych w sposób ciągły, równoległy i rekordowy.
- Zintegruj rozwiązania Stream Processing z istniejącymi bazami danych, hurtowniami danych, jeziorami danych itp.
- Zintegruj najbardziej odpowiednią bibliotekę przetwarzania strumieniowego z aplikacjami korporacyjnymi i mikrousługami.
Publiczność
- Deweloperzy
- Architekci oprogramowania
Format kursu
- Część wykładu, część dyskusji, ćwiczenia i ciężka praktyka
Notatki
- Aby poprosić o niestandardowe szkolenie dla tego kursu, skontaktuj się z nami w celu umówienia się.
- wykonywanie zapytań SQL .
- aby odczytać dane z istniejącej instalacji Hive .
W tym prowadzonym przez instruktora szkoleniu na żywo (na miejscu lub zdalnie) uczestnicy nauczą się analizować różne typy zestawów danych za pomocą Spark SQL .
Pod koniec tego szkolenia uczestnicy będą mogli:
- Zainstaluj i skonfiguruj Spark SQL .
- Wykonaj analizę danych za pomocą Spark SQL .
- Zestawy danych zapytań w różnych formatach.
- Wizualizuj dane i wyniki zapytań.
Format kursu
- Interaktywny wykład i dyskusja.
- Wiele ćwiczeń i ćwiczeń.
- Praktyczne wdrożenie w środowisku laboratoryjnym na żywo.
Opcje dostosowywania kursu
- Aby poprosić o niestandardowe szkolenie na ten kurs, skontaktuj się z nami w celu umówienia.
Uczestnicy nauczą się podczas tego kursu, jak zarządzać dużymi danymi przy użyciu trzech filarów integracji danych, zarządzania danymi i bezpieczeństwa danych, aby przekształcić duże dane w rzeczywistą wartość biznesową. Różne ćwiczenia prowadzone na studium przypadku zarządzania klientami pomogą uczestnikom lepiej zrozumieć podstawowe procesy.
W tym instruktażowym szkoleniu na żywo uczestnicy poznają podstawy Apache Hama , przechodząc przez proces tworzenia aplikacji opartej na BSP i programu zorientowanego na wierzchołki, wykorzystującego frameworki Apache Hama .
Pod koniec tego szkolenia uczestnicy będą mogli:
- Zainstaluj i skonfiguruj Apache Hama
- Zapoznaj się z podstawami Apache Hama i modelu programowania Bulk Synchronous Parallel (BSP)
- Zbuduj program oparty na BSP przy użyciu frameworku BSP Apache Hama
- Zbuduj program zorientowany na wierzchołki za pomocą Apache Hama Graph Framework
- Twórz, testuj i debuguj własne aplikacje Apache Hama
Publiczność
- Deweloperzy
Format kursu
- Część wykładu, część dyskusji, ćwiczenia i ciężka praktyka
Uwaga
- Aby poprosić o niestandardowe szkolenie dla tego kursu, skontaktuj się z nami w celu umówienia się.
W tym instruktażowym szkoleniu na żywo uczestnicy dowiedzą się, jak zintegrować strumienie Kafka z zestawem przykładowych aplikacji Java , które przekazują dane zi do Apache Kafka celu przetwarzania strumieniowego.
Pod koniec tego szkolenia uczestnicy będą mogli:
- Poznaj funkcje i zalety strumieni Kafka w porównaniu do innych platform przetwarzania strumieniowego
- Przetwarzaj strumień danych bezpośrednio w klastrze Kafka
- Napisz aplikację lub mikrousługę Java lub Scala , która integruje się ze strumieniami Kafka i Kafka
- Napisz zwięzły kod, który przekształca wejściowe tematy Kafka w wyjściowe tematy Kafka
- Kompiluj, pakuj i wdrażaj aplikację
Publiczność
- Deweloperzy
Format kursu
- Część wykładu, część dyskusji, ćwiczenia i ciężka praktyka
Notatki
- Aby poprosić o niestandardowe szkolenie dla tego kursu, skontaktuj się z nami w celu umówienia się
In this instructor-led, live training, participants will learn how to install, configure and use Dremio as a unifying layer for data analysis tools and the underlying data repositories.
By the end of this training, participants will be able to:
- Install and configure Dremio
- Execute queries against multiple data sources, regardless of location, size, or structure
- Integrate Dremio with BI and data sources such as Tableau and Elasticsearch
Audience
- Data scientists
- Business analysts
- Data engineers
Format of the course
- Part lecture, part discussion, exercises and heavy hands-on practice
Notes
- To request a customized training for this course, please contact us to arrange.
W tym instruktażowym szkoleniu na żywo uczestnicy dowiedzą się, jak optymalizować i debugować Apache Drill aby poprawić wydajność zapytań na bardzo dużych zestawach danych. Kurs rozpoczyna się przeglądem architektury i porównaniem funkcji między Apache Drill i innymi interaktywnymi narzędziami do analizy danych. Następnie uczestnicy przechodzą szereg interaktywnych sesji praktycznych, które obejmują instalację, konfigurację, ocenę wydajności, optymalizację zapytań, partycjonowanie danych i debugowanie instancji Apache Drill w środowisku na żywo.
Pod koniec tego szkolenia uczestnicy będą mogli:
- Zainstaluj i skonfiguruj Apache Drill
- Poznaj architekturę i funkcje Apache Drill
- Dowiedz się, w jaki sposób Apache Drill odbiera i wykonuje zapytania
- Zoptymalizuj zapytania Wiertła pod kątem rozproszonego wykonywania SQL
- Debuguj Apache Drill
Publiczność
- Deweloperzy
- Administratorzy systemów
- Analitycy danych
Format kursu
- Część wykładu, część dyskusji, ćwiczenia i ciężka praktyka
Notatki
- Aby poprosić o niestandardowe szkolenie dla tego kursu, skontaktuj się z nami w celu umówienia się.
W tym instruktażowym szkoleniu na żywo uczestnicy poznają podstawy Apache Drill , a następnie wykorzystają moc i wygodę SQL aby interaktywnie wyszukiwać duże dane w wielu źródłach danych, bez pisania kodu. Uczestnicy dowiedzą się również, jak zoptymalizować swoje zapytania dotyczące ćwiczeń w celu wykonania rozproszonego SQL .
Pod koniec tego szkolenia uczestnicy będą mogli:
- Przeprowadź „samoobsługową” eksplorację ustrukturyzowanych i częściowo ustrukturyzowanych danych w Hadoop
- Zapytania znane i nieznane za pomocą zapytań SQL
- Dowiedz się, w jaki sposób Apache Drill odbiera i wykonuje zapytania
- Napisz SQL kwerendy do analizowania różnych typów danych, w tym danych strukturyzowanych w Hive , pół-strukturę danych w HBase lub tabel MapR-DB i danych zapisanych w plikach, takich jak Parkiet i JSON.
- Użyj Apache Drill aby wykonać wykrywanie schematu w locie, omijając potrzebę skomplikowanych operacji ETL i schematu
- Zintegruj Apache Drill z narzędziami BI ( Business Intelligence ), takimi jak Tableau , Qlikview, MicroStrategy i Excel
Publiczność
- Analitycy danych
- Badacze danych
- Programiści SQL
Format kursu
- Część wykładu, część dyskusji, ćwiczenia i ciężka praktyka
W tym prowadzonym przez instruktora szkoleniu na żywo uczestnicy dowiedzą się, jak używać Sqoop do importowania danych z tradycyjnej relacyjnej bazy danych do pamięci Hadoop takiej jak HDFS lub Hive i odwrotnie.
Pod koniec tego szkolenia uczestnicy będą mogli:
- Zainstaluj i skonfiguruj Sqoop
- Importuj dane z My SQL do HDFS i Hive
- Importuj dane z HDFS i Hive do My SQL
Publiczność
- Administratorzy systemu
- Inżynierowie danych
Format kursu
- Wykład częściowy, dyskusja częściowa, ćwiczenia i ciężka praktyka praktyczna
Uwaga
- Aby poprosić o niestandardowe szkolenie na ten kurs, skontaktuj się z nami w celu umówienia.
W tym prowadzonym przez instruktora szkoleniu na żywo uczestnicy dowiedzą się, jak korzystać z MonetDB i jak uzyskać z niego jak najwięcej korzyści.
Pod koniec tego szkolenia uczestnicy będą mogli:
- Zrozumieć MonetDB i jego funkcje
- Zainstaluj i zacznij korzystać z MonetDB
- Przeglądaj i wykonuj różne funkcje i zadania w MonetDB
- Przyspiesz realizację projektu, maksymalizując możliwości MonetDB
Publiczność
- Deweloperzy
- Eksperci techniczni
Format kursu
- Wykład częściowy, dyskusja częściowa, ćwiczenia i ciężka praktyka praktyczna
W tym prowadzonym przez instruktora szkoleniu na żywo uczestnicy poznają podstawy Mem SQL dla rozwoju i administracji.
Pod koniec tego szkolenia uczestnicy będą mogli:
- Zrozumienie kluczowych pojęć i cech Mem SQL
- Instaluj, projektuj, utrzymuj i obsługuj Mem SQL
- Optymalizuj schematy w Mem SQL
- Popraw zapytania w Mem SQL
- Test wydajności w Mem SQL
- Twórz aplikacje danych w czasie rzeczywistym za pomocą Mem SQL
Publiczność
- Deweloperzy
- Administratorzy
- Inżynierowie operacji
Format kursu
- Wykład częściowy, dyskusja częściowa, ćwiczenia i ciężka praktyka praktyczna
W tym instruktażowym szkoleniu na żywo uczestnicy dowiedzą się, jak pracować z Hadoop , MapReduce, Pig i Spark za pomocą Python , przechodząc przez wiele przykładów i przypadków użycia.
Pod koniec tego szkolenia uczestnicy będą mogli:
- Zapoznaj się z podstawowymi koncepcjami Hadoop , MapReduce, Pig i Spark
- Używaj Python z rozproszonym Hadoop plików Hadoop (HDFS), MapReduce, Pig i Spark
- Użyj Snakebite, aby programowo uzyskać dostęp do HDFS w Python
- Użyj mrjob do napisania zadań MapReduce w Python
- Pisz programy Spark w Python
- Rozszerz funkcjonalność świni za pomocą Python UDF
- Zarządzaj zadaniami MapReduce i skryptami Pig za pomocą Luigi
Publiczność
- Deweloperzy
- Specjaliści IT
Format kursu
- Część wykładu, część dyskusji, ćwiczenia i ciężka praktyka
Podczas tego prowadzonego przez instruktora szkolenia na żywo uczestnicy dowiedzą się, jak używać Python i Sparka do analizowania dużych zbiorów danych podczas pracy nad ćwiczeniami praktycznymi.
Pod koniec tego szkolenia uczestnicy będą mogli:
- Dowiedz się, jak używać Sparka z Python do analizowania Big Data .
- Pracuj nad ćwiczeniami, które naśladują rzeczywiste okoliczności.
- Użyj różnych narzędzi i technik do analizy dużych danych za pomocą PySpark .
Format kursu
- Wykład częściowy, dyskusja częściowa, ćwiczenia i ciężka praktyka praktyczna
W tym prowadzonym przez instruktora szkoleniu na żywo uczestnicy poznają sposób podejścia do technologii Big Data , oceny ich wpływu na istniejące procesy i zasady oraz wdrożenia tych technologii w celu identyfikacji działalności przestępczej i zapobiegania przestępczości. Studia przypadków z organów ścigania na całym świecie zostaną przeanalizowane w celu uzyskania wglądu w ich podejścia do przyjmowania, wyzwania i wyniki.
Pod koniec tego szkolenia uczestnicy będą mogli:
- Połącz technologię Big Data z tradycyjnymi procesami gromadzenia danych, aby poskładać historię podczas dochodzenia
- Wdrożenie przemysłowych rozwiązań do przechowywania i przetwarzania dużych zbiorów danych do analizy danych
- Przygotuj propozycję przyjęcia najbardziej odpowiednich narzędzi i procesów umożliwiających oparte na danych podejście do dochodzenia karnego
Publiczność
- Specjaliści organów ścigania z wykształceniem technicznym
Format kursu
- Część wykładu, część dyskusji, ćwiczenia i ciężka praktyka
Kurs składa się z 8 modułów (4 w dniu 1 i 4 w dniu 2)
W tym instruktażowym szkoleniu na żywo uczestnicy dowiedzą się o ofertach technologicznych i podejściach wdrożeniowych do przetwarzania danych graficznych. Celem jest identyfikacja rzeczywistych obiektów, ich cech i relacji, a następnie modelowanie tych relacji i przetwarzanie ich jako danych przy użyciu metody Graph Computing (znanej również jako Graph Analytics). Zaczynamy od ogólnego przeglądu i zawężamy do konkretnych narzędzi, przechodząc przez serię studiów przypadków, ćwiczeń praktycznych i wdrożeń na żywo.
Pod koniec tego szkolenia uczestnicy będą mogli:
- Dowiedz się, jak dane wykresu są utrwalane i przetwarzane.
- Wybierz najlepszą strukturę dla danego zadania (od baz danych wykresów po ramy przetwarzania wsadowego).
- Zaimplementuj Hadoop , Spark, GraphX i Pregel, aby równolegle wykonywać obliczenia graficzne na wielu komputerach.
- Zobacz rzeczywiste problemy z dużymi danymi w postaci wykresów, procesów i przejść.
Format kursu
- Część wykładu, część dyskusji, ćwiczenia i ciężka praktyka
W tym prowadzonym przez instruktora szkoleniu na żywo uczestnicy poznają podstawy programowania opartego na przepływach, ponieważ opracowują szereg rozszerzeń demonstracyjnych, komponentów i procesorów wykorzystujących Apache NiFi .
Pod koniec tego szkolenia uczestnicy będą mogli:
- Zrozumienie koncepcji architektury i przepływu danych NiFi.
- Twórz rozszerzenia za pomocą NiFi i interfejsów API innych firm.
- Niestandardowe opracowanie własnego procesora Apache Nifi.
- Odbieraj i przetwarzaj dane w czasie rzeczywistym z różnych i nietypowych formatów plików i źródeł danych.
Format kursu
- Interaktywny wykład i dyskusja.
- Wiele ćwiczeń i ćwiczeń.
- Praktyczne wdrożenie w środowisku laboratoryjnym na żywo.
Opcje dostosowywania kursu
- Aby poprosić o niestandardowe szkolenie na ten kurs, skontaktuj się z nami w celu umówienia.
W tym prowadzonym przez instruktora szkoleniu na żywo (na miejscu lub zdalnie) uczestnicy dowiedzą się, jak wdrożyć i zarządzać Apache NiFi w środowisku laboratoryjnym.
Pod koniec tego szkolenia uczestnicy będą mogli:
- Zainstaluj i skonfiguruj Apachi NiFi.
- Źródło, transformacja i zarządzanie danymi z różnych rozproszonych źródeł danych, w tym baz danych i jezior dużych zbiorów danych.
- Automatyzuj przepływ danych.
- Włącz analizę strumieniową.
- Zastosuj różne podejścia do przyjmowania danych.
- Przekształć Big Data i spostrzeżenia biznesowe.
Format kursu
- Interaktywny wykład i dyskusja.
- Wiele ćwiczeń i ćwiczeń.
- Praktyczne wdrożenie w środowisku laboratoryjnym na żywo.
Opcje dostosowywania kursu
- Aby poprosić o niestandardowe szkolenie na ten kurs, skontaktuj się z nami w celu umówienia.
W tym instruktażowym szkoleniu na żywo uczestnicy dowiedzą się, jak zintegrować Apache Arrow z różnymi platformami Data Science , aby uzyskać dostęp do danych z różnych źródeł danych.
Pod koniec tego szkolenia uczestnicy będą mogli:
- Zainstaluj i skonfiguruj Apache Arrow w rozproszonym środowisku klastrowym
- Użyj Apache Arrow aby uzyskać dostęp do danych z różnych źródeł danych
- Użyj Apache Arrow aby ominąć potrzebę konstruowania i utrzymywania złożonych potoków ETL
- Analizuj dane z różnych źródeł danych bez konieczności konsolidacji ich w scentralizowanym repozytorium
Publiczność
- Badacze danych
- Inżynierowie danych
Format kursu
- Część wykładu, część dyskusji, ćwiczenia i ciężka praktyka
Uwaga
- Aby poprosić o niestandardowe szkolenie dla tego kursu, skontaktuj się z nami w celu umówienia się.
By the end of this training, participants will be able to:
- Address processing needs with Greenplum.
- Perform ETL operations for data processing.
- Leverage existing query processing infrastructures.