Big Data Consulting - Plan Szkolenia
[Doradztwo odnosi się do usług świadczonych przez ekspertów, którzy pomagają organizacjom zarządzać, analizować i wykorzystywać duże i złożone zbiory danych w celu poprawy ich działalności biznesowej i procesów decyzyjnych.
To prowadzone przez instruktora szkolenie na żywo (na miejscu lub zdalnie) jest przeznaczone dla średniozaawansowanych specjalistów IT, którzy chcą zwiększyć swoje umiejętności w zakresie architektury danych, zarządzania, przetwarzania w chmurze i technologii Big Data, aby skutecznie zarządzać i analizować duże zbiory danych w celu migracji danych w swoich organizacjach.
Po zakończeniu tego szkolenia uczestnicy będą w stanie
- Zrozumieć podstawowe pojęcia i komponenty różnych architektur danych.
- Uzyskać kompleksowe zrozumienie zasad zarządzania danymi i ich znaczenia w środowiskach regulacyjnych.
- Wdrażać i zarządzać strukturami zarządzania danymi, takimi jak Dama i Togaf.
- Wykorzystanie platform chmurowych do wydajnego przechowywania, przetwarzania i zarządzania danymi.
Format kursu
- Interaktywny wykład i dyskusja.
- Wiele ćwiczeń i praktyki.
- Praktyczne wdrożenie w środowisku laboratoryjnym na żywo.
Opcje dostosowywania kursu
- Aby poprosić o spersonalizowane szkolenie dla tego kursu, skontaktuj się z nami.
Plan Szkolenia
Wprowadzenie
Data Architecture
- Przegląd architektury danych
- Znaczenie w środowiskach regulacji podatkowych i celnych
Architektura magazynu
- Koncepcje i komponenty
- Najlepsze praktyki i przypadki użycia
- Architektura jeziora danych
- Architektura platformy Lakehouse
- Analiza porównawcza i przypadki użycia
Zaawansowane Data Architecture
- Architektura siatki danych
- Architektura struktury danych
- Integracja i praktyczne zastosowania
Nowoczesna Data Architecture
- Architektura zorientowana Microservices
- Architektura bezserwerowa
- Strategie wdrażania
Zarządzanie danymi Go
- Przegląd zarządzania danymi
- Znaczenie w środowiskach regulacyjnych
Ramy zarządzania danymi Go
- Struktura Dama
- Struktura Togaf
- Analiza porównawcza
Streaming Go
- Koncepcje i praktyki
- Integracja z istniejącymi zasadami zarządzania danymi
Cloud Computing
- Wprowadzenie do Cloud Computing
- Korzyści i wyzwania dla firm regulacyjnych
[Platformy
- Kluczowe usługi i funkcje platformy AWS Cloud
- Kluczowe usługi i funkcje platformy w chmurze Azure
- Kluczowe usługi i funkcje platformy GCP Cloud
- Studia przypadków w zakresie podatków i ceł
Przetwarzanie Big Data
- Wprowadzenie do Apache Spark
- Przegląd Databricks
- Integracja z platformami w chmurze
Strumieniowe przesyłanie danych w czasie rzeczywistym
- Wprowadzenie do Apache Kafka
- Przypadki użycia i strategie wdrażania
Rozwój Microservices
- Wprowadzenie do Microservices
- Najlepsze praktyki programistyczne
DevOps i FinOps
- Przegląd praktyk DevOps
- Wprowadzenie do FinOps
- Strategie wdrażania zarządzania kosztami
Podsumowanie i kolejne kroki
Wymagania
- Podstawowe zrozumienie koncepcji i struktur danych
- Znajomość zasad zarządzania i przechowywania danych
Odbiorcy
- Inżynierowie danych
- Architekci danych
- Administratorzy systemów
- [Analitycy
- Specjaliści IT
Szkolenia otwarte są realizowane w przypadku uzbierania się grupy szkoleniowej liczącej co najmniej 5 osób na dany termin.
Big Data Consulting - Plan Szkolenia - Booking
Big Data Consulting - Plan Szkolenia - Enquiry
Big Data Consulting - Zapytanie o Konsultacje
Zapytanie o Konsultacje
Opinie uczestników (4)
Trener dobrze zrozumiał koncepty
Josheel - Verizon Connect
Szkolenie - Amazon Redshift
Przetłumaczone przez sztuczną inteligencję
funkcje analityczne
khusboo dassani - Tech Northwest Skillnet
Szkolenie - SQL Advanced
Przetłumaczone przez sztuczną inteligencję
jak trener prezentuje swoją wiedzę z tematu, który uczy
john ernesto ii fernandez - Philippine AXA Life Insurance Corporation
Szkolenie - Data Vault: Building a Scalable Data Warehouse
Przetłumaczone przez sztuczną inteligencję
zakres wiedzy szkolącego
Marcin Szymkowiak - SoftForYou Sp. z o.o. Sp. k.
Szkolenie - Greenplum Database
Propozycje terminów
Szkolenia Powiązane
SQL Advanced
14 godzinThis instructor-led, live training in Polsce (online or onsite) is aimed at intermediate-level database administrators, developers, and analysts who wish to master advanced SQL functionalities for complex data operations and database management.
By the end of this training, participants will be able to:
- Perform advanced querying techniques using unions, subqueries, and complex joins.
- Add, update, and delete data, tables, views, and indexes with precision.
- Ensure data integrity through transactions and manipulate database structures.
- Create and manage databases efficiently for robust data storage and retrieval.
Amazon Redshift
21 godzinAmazon Redshift to oparta na chmurze usługa hurtowni danych w skali petabajtów w AWS.
W tym prowadzonym przez instruktora szkoleniu na żywo uczestnicy poznają podstawy Amazon Redshift.
Pod koniec tego szkolenia uczestnicy będą mogli
- Zainstalować i skonfigurować Amazon Redshift
- Ładować, konfigurować, wdrażać, wysyłać zapytania i wizualizować dane za pomocą Amazon Redshift.
Uczestnicy
- Programiści
- Specjaliści IT
Format kursu
- Część wykładu, część dyskusji, ćwiczenia i ciężka praktyka praktyczna
Uwaga
- Aby poprosić o niestandardowe szkolenie dla tego kursu, skontaktuj się z nami.
Advanced Apache Iceberg
21 godzinTo prowadzone przez instruktora szkolenie na żywo w Polsce (na miejscu lub zdalnie) jest przeznaczone dla zaawansowanych specjalistów ds. danych, którzy chcą zoptymalizować przepływy pracy przetwarzania danych, zapewnić integralność danych i wdrożyć solidne rozwiązania data lakehouse, które mogą obsługiwać złożoność nowoczesnych aplikacji big data.
Pod koniec tego szkolenia uczestnicy będą mogli
- Uzyskać dogłębne zrozumienie architektury Iceberg, w tym zarządzania metadanymi i układu plików.
- Skonfigurować Iceberg dla optymalnej wydajności w różnych środowiskach i zintegrować go z wieloma silnikami przetwarzania danych.
- Zarządzać wielkoskalowymi tabelami Iceberg, wykonywać złożone zmiany schematu i obsługiwać ewolucję partycji.
- Opanowanie technik optymalizacji wydajności zapytań i wydajności skanowania danych dla dużych zbiorów danych.
- Wdrożenie mechanizmów zapewniających spójność danych, zarządzanie gwarancjami transakcyjnymi i obsługę awarii w środowiskach rozproszonych.
Apache Iceberg Fundamentals
14 godzinTo prowadzone przez instruktora szkolenie na żywo w Polsce (na miejscu lub zdalnie) jest przeznaczone dla początkujących specjalistów od danych, którzy chcą zdobyć wiedzę i umiejętności niezbędne do efektywnego wykorzystania Apache Iceberg do zarządzania dużymi zbiorami danych, zapewnienia integralności danych i optymalizacji przepływów pracy przetwarzania danych.
Pod koniec tego szkolenia uczestnicy będą mogli
- Dokładnie zrozumieć architekturę, funkcje i zalety Apache Iceberg.
- Dowiedzieć się o formatach tabel, partycjonowaniu, ewolucji schematów i możliwościach podróży w czasie.
- Zainstalować i skonfigurować Apache Iceberg w różnych środowiskach.
- Tworzenie, zarządzanie i manipulowanie tabelami Iceberg.
- Zrozumienie procesu migracji danych z innych formatów tabel do Iceberg.
Big Data & Database Systems Fundamentals
14 godzinKurs jest częścią zestawu umiejętności Data Scientist (Domena: Dane i technologia).
Azure Data Lake Storage Gen2
14 godzinThis instructor-led, live training in Polsce (online or onsite) is aimed at intermediate-level data engineers who wish to learn how to use Azure Data Lake Storage Gen2 for effective data analytics solutions.
By the end of this training, participants will be able to:
- Understand the architecture and key features of Azure Data Lake Storage Gen2.
- Optimize data storage and access for cost and performance.
- Integrate Azure Data Lake Storage Gen2 with other Azure services for analytics and data processing.
- Develop solutions using the Azure Data Lake Storage Gen2 API.
- Troubleshoot common issues and optimize storage strategies.
Data Vault: Building a Scalable Data Warehouse
28 godzinW tym prowadzonym przez instruktora szkoleniu na żywo w Polsce uczestnicy dowiedzą się, jak zbudować Data Vault.
Pod koniec tego szkolenia uczestnicy będą mogli:
- Zrozumieć architekturę i koncepcje projektowe stojące za Data Vault 2.0 oraz jego interakcję z Big Data, NoSQL i AI.
- Korzystać z technik przechowywania danych w celu umożliwienia audytu, śledzenia i inspekcji danych historycznych w hurtowni danych.
- Opracowanie spójnego i powtarzalnego procesu ETL (Extract, Transform, Load).
- Tworzenie i wdrażanie wysoce skalowalnych i powtarzalnych hurtowni.
Apache Druid for Real-Time Data Analysis
21 godzinApache Druid to open-source'owy, kolumnowy, rozproszony magazyn danych napisany w języku Java. Został zaprojektowany do szybkiego pozyskiwania ogromnych ilości danych o zdarzeniach i wykonywania zapytań OLAP o niskim opóźnieniu na tych danych. Druid jest powszechnie stosowany w aplikacjach analityki biznesowej do analizowania dużych ilości danych w czasie rzeczywistym i danych historycznych. Doskonale nadaje się również do zasilania szybkich, interaktywnych, analitycznych pulpitów nawigacyjnych dla użytkowników końcowych. Druid jest używany przez takie firmy jak Alibaba, Airbnb, Cisco, eBay, Netflix, Paypal i Yahoo.
W tym prowadzonym przez instruktora kursie na żywo badamy niektóre ograniczenia rozwiązań hurtowni danych i omawiamy, w jaki sposób Druid może uzupełniać te technologie, tworząc elastyczny i skalowalny stos analityki strumieniowej. Przechodzimy przez wiele przykładów, oferując uczestnikom możliwość wdrożenia i przetestowania rozwiązań opartych na Druidzie w środowisku laboratoryjnym.
Format kursu
- Część wykładu, część dyskusji, ciężka praktyka praktyczna, okazjonalne testy w celu oceny zrozumienia
Greenplum Database
14 godzinSzkolenie na żywo prowadzone przez instruktora (na miejscu lub zdalnie) jest przeznaczone dla administratorów, którzy chcą skonfigurować Greenplum Database dla rozwiązań Business Intelligence i hurtowni danych.
Po zakończeniu tego szkolenia uczestnicy będą w stanie
- Zaspokajaj potrzeby związane z przetwarzaniem za pomocą Greenplum.
- Wykonywanie operacji ETL w celu przetwarzania danych.
- Wykorzystanie istniejącej infrastruktury przetwarzania zapytań.
IBM Datastage For Administrators and Developers
35 godzinTo prowadzone przez instruktora szkolenie na żywo w Polsce (na miejscu lub zdalnie) jest przeznaczone dla średniozaawansowanych specjalistów IT, którzy chcą mieć kompleksową wiedzę na temat IBM DataStage zarówno z perspektywy administracyjnej, jak i programistycznej, umożliwiając im efektywne zarządzanie i wykorzystywanie tego narzędzia w swoich miejscach pracy.
Po zakończeniu tego szkolenia uczestnicy będą w stanie
- Zrozumieć podstawowe koncepcje DataStage.
- Dowiedz się, jak skutecznie instalować, konfigurować i zarządzać środowiskami DataStage.
- Łączyć się z różnymi źródłami danych i skutecznie wyodrębniać dane z baz danych, plików płaskich i źródeł zewnętrznych.
- Wdrożyć skuteczne techniki ładowania danych.
Apache Kylin: Real-Time OLAP on Big Data
14 godzinTo szkolenie prowadzone przez instruktora w trybie Polsce (online lub na miejscu) jest skierowane do profesjonalistów big data o poziomie średnim, którzy chcą wykorzystywać Apache Kylin do budowy magazynów danych w czasie rzeczywistym i wykonywania wielowymiarowej analizy na dużych zbiorach danych.
Po zakończeniu tego szkolenia uczestnicy będą w stanie:
- Konfigurować i uruchamiać Apache Kylin z źródłami strumieniowymi danych w czasie rzeczywistym.
- Projektować i budować sześciany OLAP dla danych zarówno paczkowych, jak i strumieniowych.
- Wykonywać złożone zapytania z opóźnieniem mniejszym niż sekundę za pomocą interfejsu SQL Kylin.
- Integrować Kylin z narzędziami BI do interaktywnej wizualizacji danych.
- Optymalizować wydajność i zarządzać zasobami w Kylin.
Snowflake - poziom zaawansowany
14 godzinSnowflake to platforma przechowywania danych w chmurze, która oferuje szerokie możliwości przetwarzania i analizy dużych zbiorów danych. Jest to rozwiązanie typu Software-as-a-Service (SaaS), które łączy w sobie elastyczność i skalowalność chmury z możliwościami zaawansowanego magazynu danych. Kluczowe cechy i funkcje Snowflake obejmują:
Architektura oparta na chmurze: Snowflake jest zbudowany w chmurze i zoptymalizowany pod kątem elastyczności i wydajności, co pozwala na łatwą skalowalność zasobów do przechowywania i przetwarzania danych.
Rozdzielenie obciążenia magazynowania i przetwarzania: Unikalna architektura Snowflake rozdziela obciążenie magazynowania danych od obciążenia przetwarzania, co pozwala na niezależne skalowanie i optymalizację tych dwóch aspektów.
Wsparcie dla różnorodnych danych: Snowflake umożliwia przechowywanie i analizę różnorodnych typów danych, w tym danych strukturalnych, półstrukturalnych (np. JSON, XML) i niestrukturalnych.
Wysoka wydajność i optymalizacja zapytań: System oferuje szybkie przetwarzanie zapytań i automatyczną optymalizację, co pozwala na efektywne wykonywanie złożonych analiz na dużych zbiorach danych.
Zabezpieczenia i zarządzanie dostępem: Snowflake zapewnia zaawansowane funkcje bezpieczeństwa, w tym szyfrowanie danych, zarządzanie dostępem na poziomie ról i audytowanie.
Łatwość integracji: Platforma łatwo integruje się z popularnymi narzędziami i usługami ETL, BI oraz analizy danych, co pozwala na tworzenie kompleksowych rozwiązań analitycznych.
Elastyczność i skalowalność kosztów: Model płatności oparty na użyciu pozwala na optymalizację kosztów i płacenie tylko za faktycznie wykorzystane zasoby.
Uniwersalność zastosowań: Snowflake jest odpowiedni dla różnych przypadków użycia, od prostych analiz BI po zaawansowane przetwarzanie danych, w tym analizy big data, machine learning i inne.
Snowflake jest popularnym wyborem wśród organizacji każdej wielkości ze względu na swoją elastyczność, wydajność, łatwość obsługi i możliwość dostosowania do różnych potrzeb biznesowych i technologicznych.