Szkolenia Big Data

Szkolenia Big Data

BigData to termin używany w odniesieniu do rozwiązań przeznaczonych do przechowywania i przetwarzania dużych zbiorów danych. Rozwiązania typu BigData zostały zainicjowane przez firmę Google, jakkolwiek obecnie dostępnych jest wiele rozwiązań typu open-source takich jak Apache Hadoop, Cassandra czy Cloudera Impala. Zgodnie z raportami publikowanymi przez firmę Gartner BigData jest kolejnym wielkim krokiem w branży IT, zaraz po rozwiązaniach opartych na chmurze obliczeniowej, i będzie wiodącym trendem przez kilka najbliższych lat.

Szkolenia z tematu Big Data mogą być realizowane w siedzibie klienta - lokalizacja w Polsce lub centrach szkoleniowych w lokalizacji w Polsce Szkolenie zdalne realizowane są przy użyciu interaktywnego, zdalnego pulpitu.

Opinie uczestników

★★★★★
★★★★★

Plany szkoleń z technologii Big Data

Title
Czas trwania
Opis
Title
Czas trwania
Opis
14 godziny
Opis
Cel:

Opanowanie umiejętności pracy z programem SPSS na poziomie samodzielności

Adresaci:

Analitycy, Badacze, Naukowcy, studenci i wszyscy, którzy chcą pozyskać umiejętność posługiwania się pakietem SPSS oraz poznać popularne techniki eksploracji danych.
21 godziny
Opis
Apache NiFi (Hortonworks DataFlow) to zintegrowana logistyka danych w czasie rzeczywistym i prosta platforma przetwarzania zdarzeń, która umożliwia przenoszenie, śledzenie i automatyzację danych między systemami. Jest napisany przy użyciu programowania opartego na przepływach i zapewnia interfejs użytkownika oparty na sieci WWW do zarządzania przepływami danych w czasie rzeczywistym.

W tym prowadzonym przez instruktora szkoleniu na żywo (na miejscu lub zdalnie) uczestnicy dowiedzą się, jak wdrożyć i zarządzać Apache NiFi w środowisku laboratoryjnym.

Pod koniec tego szkolenia uczestnicy będą mogli:

- Zainstaluj i skonfiguruj Apachi NiFi.
- Źródło, transformacja i zarządzanie danymi z różnych rozproszonych źródeł danych, w tym baz danych i jezior dużych zbiorów danych.
- Automatyzuj przepływ danych.
- Włącz analizę strumieniową.
- Zastosuj różne podejścia do przyjmowania danych.
- Przekształć Big Data i spostrzeżenia biznesowe.

Format kursu

- Interaktywny wykład i dyskusja.
- Wiele ćwiczeń i ćwiczeń.
- Praktyczne wdrożenie w środowisku laboratoryjnym na żywo.

Opcje dostosowywania kursu

- Aby poprosić o niestandardowe szkolenie na ten kurs, skontaktuj się z nami w celu umówienia.
21 godziny
Opis
Apache Drill to pozbawiony schematów, rozproszony, kolumnowy silnik zapytań SQL dla Hadoop , No SQL i innych systemów przechowywania w chmurze i plikach. Moc Apache Drill polega na możliwości łączenia danych z wielu magazynów danych za pomocą pojedynczego zapytania. Apache Drill obsługuje wiele SQL danych i systemów plików bez SQL , w tym HBase, MongoDB , MapR-DB, HDFS, MapR-FS, Amazon S3, Azure Blob Storage, Go ogle Cloud Storage, Swift , NAS i pliki lokalne. Apache Drill to wersja Open Source systemu Dremel firmy Go ogle, która jest dostępna jako usługa infrastruktury o nazwie Go ogle BigQuery.

W tym prowadzonym przez instruktora szkoleniu na żywo uczestnicy poznają podstawy Apache Drill , a następnie wykorzystają moc i wygodę SQL do interaktywnego wyszukiwania dużych danych w wielu źródłach danych, bez konieczności pisania kodu. Uczestnicy dowiedzą się również, jak zoptymalizować swoje zapytania Drill dla rozproszonego wykonywania SQL .

Pod koniec tego szkolenia uczestnicy będą mogli:

- Wykonaj eksplorację „samoobsługową” na ustrukturyzowanych i częściowo ustrukturyzowanych danych na Hadoop
- Zapytanie znane i nieznane dane przy użyciu zapytań SQL
- Zrozum, jak Apache Drill s odbiera i wykonuje zapytania
- Pisz zapytania SQL celu analizy różnych typów danych, w tym danych strukturalnych w Hive , danych półstrukturalnych w tabelach HBase lub MapR-DB oraz danych zapisanych w plikach takich jak Parquet i JSON.
- Użyj Apache Drill aby wykonać wykrywanie schematu w locie, pomijając potrzebę skomplikowanych operacji ETL i schematów
- Zintegruj Apache Drill z narzędziami BI ( Business Intelligence ), takimi jak Tableau , Qlikview, MicroStrategy i Excel

Publiczność

- Analitycy danych
- Dane naukowców
- Programiści SQL

Format kursu

- Wykład częściowy, dyskusja częściowa, ćwiczenia i ciężka praktyka praktyczna
28 godziny
Opis
MonetDB to baza danych o otwartym kodzie źródłowym, która zapoczątkowała podejście oparte na technologii przechowywania kolumn.

W tym prowadzonym przez instruktora szkoleniu na żywo uczestnicy dowiedzą się, jak korzystać z MonetDB i jak uzyskać z niego jak najwięcej korzyści.

Pod koniec tego szkolenia uczestnicy będą mogli:

- Zrozumieć MonetDB i jego funkcje
- Zainstaluj i zacznij korzystać z MonetDB
- Przeglądaj i wykonuj różne funkcje i zadania w MonetDB
- Przyspiesz realizację projektu, maksymalizując możliwości MonetDB

Publiczność

- Deweloperzy
- Eksperci techniczni

Format kursu

- Wykład częściowy, dyskusja częściowa, ćwiczenia i ciężka praktyka praktyczna
28 godziny
Opis
Mem SQL to rozproszony system zarządzania bazami danych SQL w pamięci w chmurze i lokalnie. Jest to hurtownia danych działająca w czasie rzeczywistym, która natychmiast zapewnia wgląd w dane bieżące i historyczne.

W tym prowadzonym przez instruktora szkoleniu na żywo uczestnicy poznają podstawy Mem SQL dla rozwoju i administracji.

Pod koniec tego szkolenia uczestnicy będą mogli:

- Zrozumienie kluczowych pojęć i cech Mem SQL
- Instaluj, projektuj, utrzymuj i obsługuj Mem SQL
- Optymalizuj schematy w Mem SQL
- Popraw zapytania w Mem SQL
- Test wydajności w Mem SQL
- Twórz aplikacje danych w czasie rzeczywistym za pomocą Mem SQL

Publiczność

- Deweloperzy
- Administratorzy
- Inżynierowie operacji

Format kursu

- Wykład częściowy, dyskusja częściowa, ćwiczenia i ciężka praktyka praktyczna
28 godziny
Opis
Hadoop to popularna struktura przetwarzania Big Data . Python to język programowania wysokiego poziomu, znany ze swojej jasnej składni i czytelności kodu.

Podczas tego prowadzonego przez instruktora szkolenia na żywo uczestnicy dowiedzą się, jak pracować z Hadoop , MapReduce, Pig i Spark przy użyciu Python , przechodząc przez wiele przykładów i przypadków użycia.

Pod koniec tego szkolenia uczestnicy będą mogli:

- Poznaj podstawowe pojęcia związane z Hadoop , MapReduce, Pig i Spark
- Użyj Python z Hadoop Distributed File System (HDFS), MapReduce, Pig i Spark
- Użyj Snakebite do programowego dostępu do HDFS w Python
- Użyj mrjob, aby napisać zadania MapReduce w Python
- Napisz programy Spark za pomocą Python
- Rozszerz funkcjonalność świni za pomocą UDF Python
- Zarządzanie zadaniami MapReduce i skryptami Pig za pomocą Luigi

Publiczność

- Deweloperzy
- Specjaliści IT

Format kursu

- Wykład częściowy, dyskusja częściowa, ćwiczenia i ciężka praktyka praktyczna
21 godziny
Opis
Python to język programowania wysokiego poziomu, znany ze swojej jasnej składni i czytelności kodu. Spark to mechanizm przetwarzania danych wykorzystywany do kwerend, analizowania i przekształcania dużych danych. PySpark pozwala użytkownikom na interfejs Sparka z Python .

Podczas tego prowadzonego przez instruktora szkolenia na żywo uczestnicy dowiedzą się, jak używać Python i Sparka do analizowania dużych zbiorów danych podczas pracy nad ćwiczeniami praktycznymi.

Pod koniec tego szkolenia uczestnicy będą mogli:

- Dowiedz się, jak używać Sparka z Python do analizowania Big Data .
- Pracuj nad ćwiczeniami, które naśladują rzeczywiste okoliczności.
- Użyj różnych narzędzi i technik do analizy dużych danych za pomocą PySpark .

Format kursu

- Wykład częściowy, dyskusja częściowa, ćwiczenia i ciężka praktyka praktyczna
35 godziny
Opis
Postępy technologiczne i rosnąca ilość informacji zmieniają sposób egzekwowania prawa. Wyzwania, jakie stwarza Big Data są niemal tak samo zniechęcające jak obietnica Big Data . Skuteczne przechowywanie danych jest jednym z tych wyzwań; skuteczne analizowanie tego jest kolejnym.

Podczas tego prowadzonego przez instruktora szkolenia na żywo uczestnicy poznają sposób myślenia o podejściu do technologii Big Data , oceniają ich wpływ na istniejące procesy i polityki oraz wdrażają te technologie w celu identyfikacji działalności przestępczej i zapobiegania przestępczości. Studia przypadków z organów ścigania na całym świecie zostaną przeanalizowane, aby uzyskać informacje na temat ich podejścia do adopcji, wyzwań i wyników.

Pod koniec tego szkolenia uczestnicy będą mogli:

- Połącz technologię Big Data z tradycyjnymi procesami gromadzenia danych, aby zebrać historię podczas dochodzenia
- Wdrożenie przemysłowych rozwiązań do przechowywania i przetwarzania dużych danych do analizy danych
- Przygotuj propozycję przyjęcia najbardziej odpowiednich narzędzi i procesów umożliwiających podejście oparte na danych do dochodzenia karnego

Publiczność

- Specjaliści ds. Egzekwowania prawa z zapleczem technicznym

Format kursu

- Wykład częściowy, dyskusja częściowa, ćwiczenia i ciężka praktyka praktyczna
14 godziny
Opis
Aby spełnić wymogi organów regulacyjnych, dostawcy CSP (dostawcy usług Communication ) mogą skorzystać z Big Data Analytics, które nie tylko pomagają im spełnić wymogi zgodności, ale w ramach tego samego projektu mogą zwiększyć zadowolenie klientów, a tym samym zmniejszyć odejście. W rzeczywistości, ponieważ zgodność jest związana z jakością usług związaną z umową, każda inicjatywa zmierzająca do spełnienia wymogów poprawi „przewagę konkurencyjną” CSP. Dlatego ważne jest, aby organy regulacyjne były w stanie doradzić / poprowadzić zestaw praktyk analitycznych Big Data dla CSP, które przyniosą obopólne korzyści między organami regulacyjnymi i CSP.

Kurs składa się z 8 modułów (4 w dniu 1 i 4 w dniu 2)
28 godziny
Opis
Wiele problemów świata rzeczywistego można opisać za pomocą wykresów. Na przykład wykres internetowy, wykres sieci społecznościowej, wykres sieci pociągów i wykres języka. Te wykresy są zwykle bardzo duże; ich przetwarzanie wymaga wyspecjalizowanego zestawu narzędzi i procesów - te narzędzia i procesy można określić jako Graph Computing (znany również jako Graph Analytics).

W tym prowadzonym przez instruktora szkoleniu na żywo uczestnicy dowiedzą się o ofertach technologii i podejściach do implementacji przetwarzania danych graficznych. Celem jest zidentyfikowanie rzeczywistych obiektów, ich charakterystyk i relacji, a następnie modelowanie tych relacji i przetwarzanie ich jako danych przy użyciu metody Graph Computing (znanej również jako Graph Analytics). Zaczynamy od szerokiego przeglądu i zawężamy szczegółowe narzędzia, przechodząc przez serię studiów przypadku, ćwiczeń praktycznych i wdrożeń na żywo.

Pod koniec tego szkolenia uczestnicy będą mogli:

- Zrozum, w jaki sposób dane wykresu są zachowywane i przechodzą.
- Wybierz najlepszą strukturę dla danego zadania (od baz danych wykresów do ram przetwarzania wsadowego).
- Zaimplementuj Hadoop , Spark, GraphX i Pregel, aby równolegle wykonywać obliczenia graficzne na wielu maszynach.
- Zobacz rzeczywiste problemy z dużymi danymi w kategoriach wykresów, procesów i przejść.

Format kursu

- Wykład częściowy, dyskusja częściowa, ćwiczenia i ciężka praktyka praktyczna
7 godziny
Opis
Apache NiFi (Hortonworks DataFlow) to zintegrowana logistyka danych w czasie rzeczywistym i prosta platforma przetwarzania zdarzeń, która umożliwia przenoszenie, śledzenie i automatyzację danych między systemami. Jest napisany przy użyciu programowania opartego na przepływach i zapewnia interfejs użytkownika oparty na sieci WWW do zarządzania przepływami danych w czasie rzeczywistym.

W tym prowadzonym przez instruktora szkoleniu na żywo uczestnicy poznają podstawy programowania opartego na przepływach, ponieważ opracowują szereg rozszerzeń demonstracyjnych, komponentów i procesorów wykorzystujących Apache NiFi .

Pod koniec tego szkolenia uczestnicy będą mogli:

- Zrozumienie koncepcji architektury i przepływu danych NiFi.
- Twórz rozszerzenia za pomocą NiFi i interfejsów API innych firm.
- Niestandardowe opracowanie własnego procesora Apache Nifi.
- Odbieraj i przetwarzaj dane w czasie rzeczywistym z różnych i nietypowych formatów plików i źródeł danych.

Format kursu

- Interaktywny wykład i dyskusja.
- Wiele ćwiczeń i ćwiczeń.
- Praktyczne wdrożenie w środowisku laboratoryjnym na żywo.

Opcje dostosowywania kursu

- Aby poprosić o niestandardowe szkolenie na ten kurs, skontaktuj się z nami w celu umówienia.
14 godziny
Opis
Apache SolrCloud jest rozproszonym mechanizmem przetwarzania danych, który ułatwia wyszukiwanie i indeksowanie plików w sieci rozproszonej W tym instruktażowym szkoleniu na żywo uczestnicy dowiedzą się, jak skonfigurować instancję SolrCloud na Amazon AWS Pod koniec tego szkolenia uczestnicy będą mogli: Zapoznaj się z funkcjami SolCloud i ich porównaniem do tradycyjnych klastrów masterslave Skonfiguruj centralny klaster SolCloud Zautomatyzuj procesy, takie jak komunikowanie się ze skorupami, dodawanie dokumentów do odłamków itp Użyj Zookeepera w połączeniu z SolrCloud, aby dalej automatyzować procesy Użyj interfejsu do zarządzania raportowaniem błędów Load balance to instalacja SolrCloud Skonfiguruj SolrCloud do ciągłego przetwarzania i przełączania awaryjnego Publiczność Deweloperzy Solr Menadżerowie projektu Administratorzy systemu Analitycy wyszukiwania Format kursu Wykład częściowy, dyskusja częściowa, ćwiczenia i ciężka praktyka handson .
7 godziny
Opis
Podczas tego prowadzonego przez instruktora szkolenia na żywo uczestnicy poznają podstawowe pojęcia związane z architekturą Stream MapR podczas opracowywania aplikacji do strumieniowania w czasie rzeczywistym.

Pod koniec tego szkolenia uczestnicy będą mogli tworzyć aplikacje producentów i konsumentów do przetwarzania danych strumieniowych w czasie rzeczywistym.

Publiczność

- Deweloperzy
- Administratorzy

Format kursu

- Wykład częściowy, dyskusja częściowa, ćwiczenia i ciężka praktyka praktyczna

Uwaga

- Aby poprosić o niestandardowe szkolenie na ten kurs, skontaktuj się z nami w celu umówienia.
28 godziny
Opis
Modelowanie skarbca danych to technika modelowania baz danych, która zapewnia długoterminowe archiwalne przechowywanie danych pochodzących z wielu źródeł Przechowalnia danych przechowuje pojedynczą wersję faktów lub "wszystkie dane, cały czas" Jego elastyczny, skalowalny, spójny i dostosowujący się projekt obejmuje najlepsze aspekty trzeciej normalnej formy (3NF) i schematu gwiazdy W tym instruktażowym szkoleniu na żywo uczestnicy dowiedzą się, jak zbudować skarbiec danych Pod koniec tego szkolenia uczestnicy będą mogli: Zapoznaj się z koncepcjami architektury i projektowania kryjącymi się za Data Vault 20 oraz jego interakcją z Big Data, NoSQL i AI Użyj technik przechwytywania danych, aby umożliwić inspekcję, śledzenie i przeglądanie danych historycznych w hurtowni danych Opracuj spójny i powtarzalny proces ETL (Extract, Transform, Load) Buduj i wdrażaj wysoce skalowalne i powtarzalne magazyny Publiczność Modelarze danych Specjalista ds Hurtowni danych Specjaliści Business Intelligence Inżynierowie danych Administratorzy baz danych Format kursu Wykład częściowy, dyskusja częściowa, ćwiczenia i ciężka praktyka handson .
14 godziny
Opis
Datameer to platforma analizy biznesowej i analitycznej zbudowana na platformie Hadoop Umożliwia on użytkownikom dostępu, odkrywania i korelowania dużych, uporządkowanych, semistrukturalnych i niestrukturalnych danych w łatwy sposób W tym instruktażowym szkoleniu na żywo uczestnicy dowiedzą się, jak używać Datameer do pokonywania stromych krzywych uczenia się Hadoop, kiedy przechodzą przez proces konfiguracji i analizy szeregu dużych źródeł danych Pod koniec tego szkolenia uczestnicy będą mogli: Twórz, kurators i interaktywnie eksploruj jezioro danych przedsiębiorstwa Dostęp do hurtowni danych biznesowych, transakcyjnych baz danych i innych magazynów analitycznych Użyj interfejsu użytkownika arkusza kalkulacyjnego do zaprojektowania końcowych potoków przetwarzania danych Uzyskaj dostęp do gotowych funkcji, aby poznać złożone relacje danych Użyj kreatorów draganddrop do wizualizacji danych i tworzenia pulpitów Użyj tabel, wykresów i map do analizy wyników zapytania Publiczność Analitycy danych Format kursu Wykład częściowy, dyskusja częściowa, ćwiczenia i ciężka praktyka handson .
14 godziny
Opis
Tigon jest open source, w czasie rzeczywistym, lowlatency, highthroughput, native YARN, framework przetwarzania strumienia, który znajduje się na szczycie HDFS i HBase dla trwałości Aplikacje Tygon adresują przypadki użycia, takie jak wykrywanie włamań i analiz sieciowych, analiza rynku mediów społecznościowych, analiza lokalizacji i zalecenia w czasie rzeczywistym dla użytkowników Ten instruktażowy trening na żywo wprowadza podejście Tigona do mieszania przetwarzania w czasie rzeczywistym i przetwarzania wsadowego, gdy przechodzi uczestników przez tworzenie przykładowej aplikacji Pod koniec tego szkolenia uczestnicy będą mogli: Twórz wydajne aplikacje do przetwarzania strumieniowego do obsługi dużych ilości danych Przetwarzaj źródła strumieniowe, takie jak Twitter i dzienniki serwera WWW Użyj Tigona do szybkiego łączenia, filtrowania i agregowania strumieni Publiczność Deweloperzy Format kursu Wykład częściowy, dyskusja częściowa, ćwiczenia i ciężka praktyka handson .
14 godziny
Opis
Apache Ignite jest platformą komputerową w pamięci, która znajduje się między warstwą aplikacji i danych w celu zwiększenia szybkości, skali i dostępności.

w tym instruktorem, szkolenia na żywo, uczestnicy będą uczyć się zasad za trwałe i czyste przechowywanie w pamięci, ponieważ krok poprzez stworzenie próbki w pamięci projektu komputerowego.

do końca tego szkolenia uczestnicy będą mogli:

- Użyj Ignite dla w pamięci, trwałości na dysku, a także czysto rozproszonej bazy danych w pamięci.
- osiągnąć trwałość bez synchronizowania danych z powrotem do relacyjnej bazy danych.
- Użyj Ignite do wykonywania SQL i rozproszonych sprzężenia.
- zwiększyć wydajność, przenosząc dane bliżej procesora, przy użyciu pamięci RAM jako magazynu.
- Spread zestawów danych w klastrze w celu osiągnięcia skalowalności poziomej.
- zintegrować Ignite z RDBMS, NoSQL, Hadoop i Machine Learning procesorów.

Format kursu

- Interactive wykładu i dyskusji.
- wiele ćwiczeń i praktyk.
- praktyczne wdrożenie w środowisku laboratorium na żywo.

Opcje dostosowywania kursu

- Aby poprosić o szkolenia dostosowane do tego kursu, skontaktuj się z nami, aby zorganizować.
14 godziny
Opis
Vespa to silnik przetwarzania i udostępniania dużych zbiorów danych typu open source stworzony przez Yahoo. Służy do odpowiadania na zapytania użytkowników, formułowania rekomendacji oraz dostarczania spersonalizowanych treści i reklam w czasie rzeczywistym.

Szkolenie na żywo prowadzone przez instruktora wprowadza wyzwania związane z udostępnianiem danych na dużą skalę i prowadzi uczestników przez tworzenie aplikacji, która może obliczać odpowiedzi na żądania użytkowników w dużych zbiorach danych w czasie rzeczywistym.

Pod koniec tego szkolenia uczestnicy będą mogli:

- Użyj Vespa, aby szybko obliczyć dane (przechowywać, wyszukiwać, klasyfikować, organizować) w czasie wyświetlania, gdy użytkownik czeka
- Zaimplementuj Vespa w istniejących aplikacjach obejmujących wyszukiwanie funkcji, rekomendacje i personalizację
- Zintegruj i wdróż Vespa z istniejącymi systemami big data, takimi jak Hadoop i Storm.

Publiczność

- Deweloperzy

Format kursu

- Część wykładu, część dyskusji, ćwiczenia i ciężka praktyka
21 godziny
Opis
Apache Apex jest platformą YARNnative, która jednoczy przetwarzanie strumieniowe i wsadowe Przetwarza on dużą pamięć danych w sposób skalowalny, wydajny, odporny na błędy, stanowy, bezpieczny, rozproszony i łatwy w obsłudze Ten instruktażowy trening na żywo wprowadza zunifikowaną architekturę przetwarzania Apache Apex i prowadzi uczestników przez stworzenie rozproszonej aplikacji wykorzystującej Apex na Hadoop Pod koniec tego szkolenia uczestnicy będą mogli: Rozumieć pojęcia potoku przetwarzania danych, takie jak konektory dla źródeł i pochłaniaczy, powszechne transformacje danych itp Buduj, skaluj i optymalizuj aplikację Apex Przetwarzaj w czasie rzeczywistym strumienie danych niezawodnie iz minimalnym opóźnieniem Użyj Apex Core i biblioteki Apex Malhar, aby umożliwić szybkie tworzenie aplikacji Użyj API Apex do napisania i ponownego użycia istniejącego kodu Java Zintegruj Apex z innymi aplikacjami jako mechanizmem przetwarzania Dostrój, przetestuj i skaluj aplikacje Apex Publiczność Deweloperzy Architekci korporacyjni Format kursu Wykład częściowy, dyskusja częściowa, ćwiczenia i ciężka praktyka handson .
7 godziny
Opis
Alluxio to wirtualny rozproszony system pamięci masowej typu open source, który ujednolica różne systemy pamięci masowej i umożliwia aplikacjom interakcję z danymi z prędkością pamięci. Korzystają z niego takie firmy jak Intel, Baidu i Alibaba.

W tym instruktażowym szkoleniu na żywo uczestnicy dowiedzą się, jak używać Alluxio do łączenia różnych struktur obliczeniowych z systemami pamięci masowej i efektywnego zarządzania danymi w skali wielu petabajtów podczas przechodzenia przez proces tworzenia aplikacji za pomocą Alluxio .

Pod koniec tego szkolenia uczestnicy będą mogli:

- Opracuj aplikację za pomocą Alluxio
- Połącz systemy i aplikacje Big Data, zachowując jedną przestrzeń nazw
- Skutecznie wydobywaj wartość z dużych zbiorów danych w dowolnym formacie przechowywania
- Popraw wydajność obciążenia
- Wdróż i zarządzaj Alluxio samodzielny lub klastrowany

Publiczność

- Naukowiec
- Deweloper
- Administrator systemu

Format kursu

- Część wykładu, część dyskusji, ćwiczenia i ciężka praktyka
28 godziny
Opis
Apache Flink to platforma open-source do skalowalnego przetwarzania strumienia i danych wsadowych.

Ten prowadzony przez instruktora trening na żywo wprowadza zasady i podejście do rozproszonego przetwarzania danych strumieniowych i wsadowych, a także wprowadza uczestników w tworzenie aplikacji strumieniowania danych w czasie rzeczywistym w Apache Flink .

Pod koniec tego szkolenia uczestnicy będą mogli:

- Skonfiguruj środowisko do tworzenia aplikacji do analizy danych.
- Pakuj, wykonuj i monitoruj Aplikacje strumieniowego przesyłania danych oparte na flinkach, odporne na błędy.
- Zarządzaj różnorodnymi obciążeniami.
- Wykonuj zaawansowane analizy za pomocą Flink ML.
- Skonfiguruj wielowęzłowy klaster Flink.
- Zmierz i zoptymalizuj wydajność.
- Zintegruj Flink z różnymi systemami Big Data .
- Porównaj możliwości Flink z możliwościami innych struktur przetwarzania dużych danych.

Format kursu

- Interaktywny wykład i dyskusja.
- Wiele ćwiczeń i ćwiczeń.
- Praktyczne wdrożenie w środowisku laboratoryjnym na żywo.

Opcje dostosowywania kursu

- Aby poprosić o indywidualne szkolenie na ten kurs, skontaktuj się z nami, aby umówić się na spotkanie.
14 godziny
Opis
Apache Samza jest asynchronicznym szkieletem obliczeniowym typu open-source, działającym w czasie rzeczywistym, do przetwarzania strumieniowego. Wykorzystuje Apache Kafka do przesyłania wiadomości, a Apache Hadoop YARN do odporności na błędy, izolacji procesora, bezpieczeństwa i zarządzania zasobami.

Ten prowadzony przez instruktora trening na żywo wprowadza zasady dotyczące systemów przesyłania wiadomości i przetwarzania rozproszonego strumienia, podczas gdy uczestnicy chodzą poprzez tworzenie przykładowego projektu opartego na Samzie i realizacji zadań.

Pod koniec tego szkolenia uczestnicy będą mogli:

- Użyj Samzy, aby uprościć kod potrzebny do tworzenia i konsumowania wiadomości.
- Oddziel obsługę wiadomości od aplikacji.
- Użyj Samza do implementacji obliczeń asynchronicznych w czasie zbliżonym do rzeczywistego.
- Użyj przetwarzania strumieniowego, aby zapewnić wyższy poziom abstrakcji w systemach przesyłania wiadomości.

Publiczność

- Deweloperzy

Format kursu

- Wykład częściowy, dyskusja częściowa, ćwiczenia i ciężka praktyka praktyczna
14 godziny
Opis
Apache Zeppelin to webowy notes do przechwytywania, eksplorowania, wizualizacji i udostępniania danych opartych na Hadoop i Spark To instruktażowe szkolenie na żywo wprowadza koncepcje kryjące się za interaktywną analizą danych i przeprowadza uczestników przez wdrożenie i używanie Zeppelin w środowisku singleuser lub wielu użytkowników Pod koniec tego szkolenia uczestnicy będą mogli: Zainstaluj i skonfiguruj Zeppelin Twórz, organizuj, uruchamiaj i udostępniaj dane w interfejsie opartym na przeglądarce Wizualizuj wyniki bez odwoływania się do szczegółów wiersza poleceń lub szczegółów klastra Wykonuj i współpracuj przy długich przepływach pracy Pracuj z dowolnym językiem plugin / przetwarzaniem danych, takim jak Scala (z Apache Spark), Python (z Apache Spark), Spark SQL, JDBC, Markdown i Shell Zintegruj Zeppelin ze Spark, Flink i Map Reduce Zabezpiecz instancje wielu użytkowników Zeppelina za pomocą Apache Shiro Publiczność Inżynierowie danych Analitycy danych Data naukowcy Deweloperzy oprogramowania Format kursu Wykład częściowy, dyskusja częściowa, ćwiczenia i ciężka praktyka handson .
14 godziny
Opis
AI to zbiór technologii służących do budowania inteligentnych systemów zdolnych do zrozumienia danych i działań otaczających dane w celu podejmowania „inteligentnych decyzji”. W przypadku dostawców usług telekomunikacyjnych aplikacje i usługi budowlane wykorzystujące sztuczną inteligencję mogą otworzyć drzwi dla ulepszonych operacji i obsługi w takich obszarach, jak konserwacja i optymalizacja sieci.

Podczas tego kursu sprawdzamy różne technologie, które tworzą AI i zestawy umiejętności wymagane do ich wykorzystania. W trakcie kursu badamy specyficzne zastosowania AI w branży telekomunikacyjnej.

Publiczność

- Inżynierowie sieci
- Personel operacyjny sieci
- Kierownicy techniczni telekomunikacji

Format kursu

- Wykład częściowy, dyskusja częściowa, ćwiczenia praktyczne
7 godziny
Opis
Apache Drill to pozbawiony schematów, rozproszony, kolumnowy silnik zapytań SQL dla Hadoop , No SQL i innych systemów przechowywania w chmurze i plikach. Moc Apache Drill polega na możliwości łączenia danych z wielu magazynów danych za pomocą pojedynczego zapytania. Apache Drill obsługuje wiele SQL danych i systemów plików bez SQL , w tym HBase, MongoDB , MapR-DB, HDFS, MapR-FS, Amazon S3, Azure Blob Storage, Go ogle Cloud Storage, Swift , NAS i pliki lokalne. Apache Drill to wersja Open Source systemu Dremel firmy Go ogle, która jest dostępna jako usługa infrastruktury o nazwie Go ogle BigQuery.

W tym prowadzonym przez instruktora szkoleniu na żywo uczestnicy dowiedzą się, jak optymalizować i debugować program Apache Drill aby poprawić wydajność zapytań na bardzo dużych zestawach danych. Kurs rozpoczyna się od przeglądu architektury i porównania funkcji między Apache Drill a innymi interaktywnymi narzędziami do analizy danych. Następnie uczestnicy przechodzą przez serię interaktywnych sesji praktycznych obejmujących instalację, konfigurację, ocenę wydajności, optymalizację zapytań, partycjonowanie danych i debugowanie instancji Apache Drill w środowisku laboratoryjnym.

Pod koniec tego szkolenia uczestnicy będą mogli:

- Zainstaluj i skonfiguruj Apache Drill
- Poznaj architekturę i funkcje Apache Drill
- Zrozum, jak Apache Drill s odbiera i wykonuje zapytania
- Optymalizuj zapytania Drill dla rozproszonego wykonywania SQL
- Debuguj Apache Drill

Publiczność

- Deweloperzy
- Administratorzy systemów
- Analitycy danych

Format kursu

- Wykład częściowy, dyskusja częściowa, ćwiczenia i ciężka praktyka praktyczna

Uwagi

- Aby poprosić o niestandardowe szkolenie na ten kurs, skontaktuj się z nami w celu umówienia.
21 godziny
Opis
Hortonworks Data Platform (HDP) to platforma obsługi Apache Hadoop typu open source, która zapewnia stabilne podstawy do opracowywania rozwiązań Big Data w ekosystemie Apache Hadoop .

Szkolenie na żywo prowadzone przez instruktora (na miejscu lub zdalnie) przedstawia Hortonworks Data Platform (HDP) i prowadzi uczestników przez wdrożenie rozwiązania Spark + Hadoop .

Pod koniec tego szkolenia uczestnicy będą mogli:

- Użyj Hortonworks, aby niezawodnie uruchamiać Hadoop na dużą skalę.
- Ujednolic funkcje bezpieczeństwa, zarządzania i operacji w Hadoop dzięki zwinnym analitycznym przepływom pracy Spark.
- Użyj Hortonworks do zbadania, sprawdzenia, certyfikacji i wsparcia każdego z komponentów w projekcie Spark.
- Przetwarzaj różne rodzaje danych, w tym dane ustrukturyzowane, nieustrukturyzowane, w ruchu i spoczynku.

Format kursu

- Interaktywny wykład i dyskusja.
- Dużo ćwiczeń i ćwiczeń.
- Praktyczne wdrożenie w środowisku na żywo.

Opcje dostosowywania kursu

- Aby poprosić o niestandardowe szkolenie dla tego kursu, skontaktuj się z nami w celu umówienia się.
14 godziny
Opis
Apache Arrow to struktura przetwarzania danych w pamięci typu open-source. Jest często używany wraz z innymi narzędziami do nauki danych do uzyskiwania dostępu do różnych magazynów danych do analizy. Integruje się dobrze z innymi technologiami, takimi jak bazy danych GPU , biblioteki i narzędzia do uczenia maszynowego, silniki wykonawcze i ramy wizualizacji danych.

W tym szkolonym na miejscu szkoleniu prowadzonym przez instruktorów uczestnicy dowiedzą się, jak zintegrować Apache Arrow z różnymi platformami Data Science celu uzyskania dostępu do danych z różnych źródeł danych.

Pod koniec tego szkolenia uczestnicy będą mogli:

- Zainstaluj i skonfiguruj Apache Arrow w rozproszonym środowisku klastrowym
- Użyj Apache Arrow aby uzyskać dostęp do danych z różnych źródeł danych
- Użyj Apache Arrow aby ominąć potrzebę konstruowania i utrzymywania złożonych potoków ETL
- Analizuj dane w różnych źródłach danych bez konieczności konsolidowania ich w scentralizowane repozytorium

Publiczność

- Dane naukowców
- Inżynierowie danych

Format kursu

- Wykład częściowy, dyskusja częściowa, ćwiczenia i ciężka praktyka praktyczna

Uwaga

- Aby poprosić o niestandardowe szkolenie na ten kurs, skontaktuj się z nami w celu umówienia.
7 godziny
Opis
To prowadzone przez instruktora szkolenie na żywo (na miejscu lub zdalnie) skierowane jest do osób technicznych, które chcą nauczyć się implementować strategię uczenia maszynowego, maksymalizując wykorzystanie dużych zbiorów danych.

Pod koniec tego szkolenia uczestnicy:

- Zrozum ewolucję i trendy uczenia maszynowego.
- Dowiedz się, jak uczenie maszynowe jest wykorzystywane w różnych branżach.
- Zapoznaj się z narzędziami, umiejętnościami i usługami dostępnymi do wdrożenia uczenia maszynowego w organizacji.
- Zrozum, w jaki sposób uczenie maszynowe może być wykorzystane do ulepszenia eksploracji i analizy danych.
- Dowiedz się, czym jest środkowy backend danych i jak jest on wykorzystywany przez firmy.
- Zrozum rolę jaką odgrywają duże aplikacje i inteligentne aplikacje w różnych branżach.

Format kursu

- Interaktywny wykład i dyskusja.
- Wiele ćwiczeń i ćwiczeń.
- Praktyczne wdrożenie w środowisku laboratoryjnym na żywo.

Opcje dostosowywania kursu

- Aby poprosić o indywidualne szkolenie na ten kurs, skontaktuj się z nami, aby umówić się na spotkanie.
14 godziny
Opis
Teradata is a popular Relational Database Management System for building large scale data warehousing applications. Teradata achieves this by way of parallelism.

This instructor-led, live training (onsite or remote) is aimed at application developers and engineers who wish to master more sophisticated usages of the Teradata database.

By the end of this training, participants will be able to:

- Manage Teradata space.
- Protect and distribute data in Teradata.
- Read Explain Plan.
- Improve SQL proficiency.
- Use main utilities of Teradata.

Format of the Course

- Interactive lecture and discussion.
- Lots of exercises and practice.
- Hands-on implementation in a live-lab environment.

Course Customization Options

- To request a customized training for this course, please contact us to arrange.
35 godziny
Opis
KNIME to skrócona nazwa Konstanz Information Miner, czyli platformy przeznaczonej do integracji, interaktywnej analizy i raportowania danych, dostępnej na zasadach wolnego i otwartego oprogramowania. KNIME umożliwia integrację wielu różnorodnych komponentów z dziedziny uczenia maszynowego (ang. machine learning) i eksploracji danych (ang. data mining) dzięki koncepcji modułowego przetwarzania potokowego danych. Graficzny interfejs użytkownika oraz wykorzystanie JDBC pozwala na łatwe i szybkie zestawianie węzłów (ang. nodes) w celu łączenia ze sobą różnych źródeł danych z uwzględnieniem procesu wstępnego przetwarzania - ETL oraz modelowania, analizy i wizualizacji danych bez konieczności korzystania z programowania (lub w minimalnym stopniu). KNIME w pewnym stopniu, jako zaawansowane narzędzie analityczne, można uznać za alternatywę SAS.

Od 2006 r. KNIME jest wykorzystywany w badaniach farmaceutycznych, a także w innych dziedzinach, takich jak analiza danych klienta (CRM), business intelligence (BI) i analiza danych finansowych.

Nadchodzące szkolenia z technologii Big Data

Szkolenie Big Data, Big Data boot camp, Szkolenia Zdalne Big Data, szkolenie wieczorowe Big Data, szkolenie weekendowe Big Data, Kurs Big Data,Kursy Big Data, Trener Big Data, instruktor Big Data, kurs zdalny Big Data, edukacja zdalna Big Data, nauczanie wirtualne Big Data, lekcje UML, nauka przez internet Big Data, e-learning Big Data, kurs online Big Data, wykładowca Big Data

Kursy w promocyjnej cenie

Newsletter z promocjami

Zapisz się na nasz newsletter i otrzymuj informacje o aktualnych zniżkach na kursy otwarte.
Szanujemy Twoją prywatność, dlatego Twój e-mail będzie wykorzystywany jedynie w celu wysyłki naszego newslettera, nie będzie udostępniony ani sprzedany osobom trzecim.
W dowolnej chwili możesz zmienić swoje preferencje co do otrzymywanego newslettera bądź całkowicie się z niego wypisać.

Zaufali nam

is growing fast!

We are looking to expand our presence in Poland!

As a Business Development Manager you will:

  • expand business in Poland
  • recruit local talent (sales, agents, trainers, consultants)
  • recruit local trainers and consultants

We offer:

  • Artificial Intelligence and Big Data systems to support your local operation
  • high-tech automation
  • continuously upgraded course catalogue and content
  • good fun in international team

If you are interested in running a high-tech, high-quality training and consulting business.

Apply now!