Prowadzone przez instruktorów kursy szkoleniowe na żywo z zakresu hurtowni danych pokazują poprzez dyskusję i praktyczne ćwiczenia, jak zrozumieć, zaplanować i skonfigurować hurtownię danych.
Szkolenie Data Warehouse jest dostępne jako "szkolenie online na żywo" lub "szkolenie stacjonarne na żywo". Szkolenie na żywo online (inaczej "zdalne szkolenie na żywo") odbywa się za pośrednictwem interaktywnego, zdalnego pulpitu. Szkolenie na żywo na miejscu może być prowadzone lokalnie w siedzibie klienta w Trójmiasto lub w korporacyjnych centrach szkoleniowych NobleProg w Trójmiasto.
Hurtownia danych jest również znana jako Enterprise Data Warehouse (EDW) lub Data Warehousing.
NobleProg - lokalny dostawca usług szkoleniowych
Gdynia
Hotel Nadmorski, Ejsmonda 2, Gdynia, Polska, 81-409
Sala szkoleniowa znajduje się zaledwie 3 kilometry od Dworca PKP/PKS w Gdyni, co sprawia, że jest łatwo dostępna dla uczestników podróżujących pociągiem lub autobusem. Dodatkowo, jest oddalona tylko o 400 metrów od przystanku autobusowego, ułatwiając dojazd nawet tym, którzy podróżują komunikacją miejską. Wyposażona jest w niezbędne narzędzia do prowadzenia szkoleń, takie jak rzutnik, ekran oraz flipchart, co zapewnia komfortowe warunki dla uczestników i prowadzącego zajęcia.
Gdańsk
Hotel Fahrenheit, Grodzka 19, Gdańsk, Polska, 80-841
Sala szkoleniowa znajduje się w samym sercu malowniczej gdańskiej starówki, co sprawia, że otoczenie jest nie tylko inspirujące, ale także wyjątkowo atrakcyjne dla uczestników. W niedalekiej odległości można znaleźć dworzec PKP oraz PKS, ułatwiając przyjazd zarówno tym podróżującym pociągiem, jak i autobusem. Dodatkowo, lotnisko i port są również w zasięgu ręki, co czyni tę lokalizację wygodną dla osób przybywających z dalszych miejscowości, zarówno z kraju, jak i spoza jego granic.
To prowadzone przez instruktora szkolenie na żywo w Trójmiasto (na miejscu lub zdalnie) jest przeznaczone dla zaawansowanych specjalistów ds. danych, którzy chcą zoptymalizować przepływy pracy przetwarzania danych, zapewnić integralność danych i wdrożyć solidne rozwiązania data lakehouse, które mogą obsługiwać złożoność nowoczesnych aplikacji big data.
Pod koniec tego szkolenia uczestnicy będą mogli
Uzyskać dogłębne zrozumienie architektury Iceberg, w tym zarządzania metadanymi i układu plików.
Skonfigurować Iceberg dla optymalnej wydajności w różnych środowiskach i zintegrować go z wieloma silnikami przetwarzania danych.
Zarządzać wielkoskalowymi tabelami Iceberg, wykonywać złożone zmiany schematu i obsługiwać ewolucję partycji.
Opanowanie technik optymalizacji wydajności zapytań i wydajności skanowania danych dla dużych zbiorów danych.
Wdrożenie mechanizmów zapewniających spójność danych, zarządzanie gwarancjami transakcyjnymi i obsługę awarii w środowiskach rozproszonych.
To prowadzone przez instruktora szkolenie na żywo w Trójmiasto (na miejscu lub zdalnie) jest przeznaczone dla początkujących specjalistów od danych, którzy chcą zdobyć wiedzę i umiejętności niezbędne do efektywnego wykorzystania Apache Iceberg do zarządzania dużymi zbiorami danych, zapewnienia integralności danych i optymalizacji przepływów pracy przetwarzania danych.
Pod koniec tego szkolenia uczestnicy będą mogli
Dokładnie zrozumieć architekturę, funkcje i zalety Apache Iceberg.
Dowiedzieć się o formatach tabel, partycjonowaniu, ewolucji schematów i możliwościach podróży w czasie.
Zainstalować i skonfigurować Apache Iceberg w różnych środowiskach.
Tworzenie, zarządzanie i manipulowanie tabelami Iceberg.
Zrozumienie procesu migracji danych z innych formatów tabel do Iceberg.
To prowadzone przez instruktora szkolenie na żywo w Trójmiasto (na miejscu lub zdalnie) jest przeznaczone dla średniozaawansowanych specjalistów IT, którzy chcą podnieść swoje umiejętności w zakresie architektury danych, zarządzania, przetwarzania w chmurze i technologii Big Data, aby skutecznie zarządzać i analizować duże zbiory danych w celu migracji danych w swoich organizacjach.
Po zakończeniu tego szkolenia uczestnicy będą w stanie
Zrozumieć podstawowe pojęcia i komponenty różnych architektur danych.
Uzyskać kompleksowe zrozumienie zasad zarządzania danymi i ich znaczenia w środowiskach regulacyjnych.
Wdrażać i zarządzać strukturami zarządzania danymi, takimi jak Dama i Togaf.
Wykorzystać platformy chmurowe do wydajnego przechowywania, przetwarzania i zarządzania danymi.
This instructor-led, live training in Trójmiasto (online or onsite) is aimed at intermediate-level data engineers who wish to learn how to use Azure Data Lake Storage Gen2 for effective data analytics solutions.
By the end of this training, participants will be able to:
Understand the architecture and key features of Azure Data Lake Storage Gen2.
Optimize data storage and access for cost and performance.
Integrate Azure Data Lake Storage Gen2 with other Azure services for analytics and data processing.
Develop solutions using the Azure Data Lake Storage Gen2 API.
Troubleshoot common issues and optimize storage strategies.
To prowadzone przez instruktora szkolenie na żywo w Trójmiasto (na miejscu lub zdalnie) jest przeznaczone dla średniozaawansowanych specjalistów IT, którzy chcą mieć kompleksową wiedzę na temat IBM DataStage zarówno z perspektywy administracyjnej, jak i programistycznej, umożliwiając im efektywne zarządzanie i wykorzystywanie tego narzędzia w swoich miejscach pracy.
Po zakończeniu tego szkolenia uczestnicy będą w stanie
Zrozumieć podstawowe koncepcje DataStage.
Dowiedz się, jak skutecznie instalować, konfigurować i zarządzać środowiskami DataStage.
Łączyć się z różnymi źródłami danych i skutecznie wyodrębniać dane z baz danych, plików płaskich i źródeł zewnętrznych.
To szkolenie prowadzone przez instruktora w trybie Trójmiasto (online lub na miejscu) jest skierowane do profesjonalistów big data o poziomie średnim, którzy chcą wykorzystywać Apache Kylin do budowy magazynów danych w czasie rzeczywistym i wykonywania wielowymiarowej analizy na dużych zbiorach danych.Po zakończeniu tego szkolenia uczestnicy będą w stanie:
Konfigurować i uruchamiać Apache Kylin z źródłami strumieniowymi danych w czasie rzeczywistym.
Projektować i budować sześciany OLAP dla danych zarówno paczkowych, jak i strumieniowych.
Wykonywać złożone zapytania z opóźnieniem mniejszym niż sekundę za pomocą interfejsu SQL Kylin.
Integrować Kylin z narzędziami BI do interaktywnej wizualizacji danych.
Optymalizować wydajność i zarządzać zasobami w Kylin.
This instructor-led, live training in Trójmiasto (online or onsite) is aimed at intermediate-level database administrators, developers, and analysts who wish to master advanced SQL functionalities for complex data operations and database management.
By the end of this training, participants will be able to:
Perform advanced querying techniques using unions, subqueries, and complex joins.
Add, update, and delete data, tables, views, and indexes with precision.
Ensure data integrity through transactions and manipulate database structures.
Create and manage databases efficiently for robust data storage and retrieval.
Amazon Redshift to oparta na chmurze usługa hurtowni danych w skali petabajtów w AWS.
W tym prowadzonym przez instruktora szkoleniu na żywo uczestnicy poznają podstawy Amazon Redshift.
Pod koniec tego szkolenia uczestnicy będą mogli
Zainstalować i skonfigurować Amazon Redshift
Ładować, konfigurować, wdrażać, wysyłać zapytania i wizualizować dane za pomocą Amazon Redshift.
Uczestnicy
Programiści
Specjaliści IT
Format kursu
Część wykładu, część dyskusji, ćwiczenia i ciężka praktyka praktyczna
Uwaga
Aby poprosić o niestandardowe szkolenie dla tego kursu, skontaktuj się z nami.
W tym prowadzonym przez instruktora szkoleniu na żywo w Trójmiasto uczestnicy dowiedzą się, jak zbudować Data Vault.
Pod koniec tego szkolenia uczestnicy będą mogli:
Zrozumieć architekturę i koncepcje projektowe stojące za Data Vault 2.0 oraz jego interakcję z Big Data, NoSQL i AI.
Korzystać z technik przechowywania danych w celu umożliwienia audytu, śledzenia i inspekcji danych historycznych w hurtowni danych.
Opracowanie spójnego i powtarzalnego procesu ETL (Extract, Transform, Load).
Tworzenie i wdrażanie wysoce skalowalnych i powtarzalnych hurtowni.
Apache Druid to open-source'owy, kolumnowy, rozproszony magazyn danych napisany w języku Java. Został zaprojektowany do szybkiego pozyskiwania ogromnych ilości danych o zdarzeniach i wykonywania zapytań OLAP o niskim opóźnieniu na tych danych. Druid jest powszechnie stosowany w aplikacjach analityki biznesowej do analizowania dużych ilości danych w czasie rzeczywistym i danych historycznych. Doskonale nadaje się również do zasilania szybkich, interaktywnych, analitycznych pulpitów nawigacyjnych dla użytkowników końcowych. Druid jest używany przez takie firmy jak Alibaba, Airbnb, Cisco, eBay, Netflix, Paypal i Yahoo.
W tym prowadzonym przez instruktora kursie na żywo badamy niektóre ograniczenia rozwiązań hurtowni danych i omawiamy, w jaki sposób Druid może uzupełniać te technologie, tworząc elastyczny i skalowalny stos analityki strumieniowej. Przechodzimy przez wiele przykładów, oferując uczestnikom możliwość wdrożenia i przetestowania rozwiązań opartych na Druidzie w środowisku laboratoryjnym.
Format kursu
Część wykładu, część dyskusji, ciężka praktyka praktyczna, okazjonalne testy w celu oceny zrozumienia
Szkolenie na żywo prowadzone przez instruktora (na miejscu lub zdalnie) jest przeznaczone dla administratorów, którzy chcą skonfigurować Greenplum Database dla rozwiązań Business Intelligence i hurtowni danych.
Po zakończeniu tego szkolenia uczestnicy będą w stanie
Zaspokajaj potrzeby związane z przetwarzaniem za pomocą Greenplum.
Wykonywanie operacji ETL w celu przetwarzania danych.
Snowflake to platforma przechowywania danych w chmurze, która oferuje szerokie możliwości przetwarzania i analizy dużych zbiorów danych. Jest to rozwiązanie typu Software-as-a-Service (SaaS), które łączy w sobie elastyczność i skalowalność chmury z możliwościami zaawansowanego magazynu danych. Kluczowe cechy i funkcje Snowflake obejmują:Architektura oparta na chmurze: Snowflake jest zbudowany w chmurze i zoptymalizowany pod kątem elastyczności i wydajności, co pozwala na łatwą skalowalność zasobów do przechowywania i przetwarzania danych.Rozdzielenie obciążenia magazynowania i przetwarzania: Unikalna architektura Snowflake rozdziela obciążenie magazynowania danych od obciążenia przetwarzania, co pozwala na niezależne skalowanie i optymalizację tych dwóch aspektów.Wsparcie dla różnorodnych danych: Snowflake umożliwia przechowywanie i analizę różnorodnych typów danych, w tym danych strukturalnych, półstrukturalnych (np. JSON, XML) i niestrukturalnych.Wysoka wydajność i optymalizacja zapytań: System oferuje szybkie przetwarzanie zapytań i automatyczną optymalizację, co pozwala na efektywne wykonywanie złożonych analiz na dużych zbiorach danych.Zabezpieczenia i zarządzanie dostępem: Snowflake zapewnia zaawansowane funkcje bezpieczeństwa, w tym szyfrowanie danych, zarządzanie dostępem na poziomie ról i audytowanie.Łatwość integracji: Platforma łatwo integruje się z popularnymi narzędziami i usługami ETL, BI oraz analizy danych, co pozwala na tworzenie kompleksowych rozwiązań analitycznych.Elastyczność i skalowalność kosztów: Model płatności oparty na użyciu pozwala na optymalizację kosztów i płacenie tylko za faktycznie wykorzystane zasoby.Uniwersalność zastosowań: Snowflake jest odpowiedni dla różnych przypadków użycia, od prostych analiz BI po zaawansowane przetwarzanie danych, w tym analizy big data, machine learning i inne.Snowflake jest popularnym wyborem wśród organizacji każdej wielkości ze względu na swoją elastyczność, wydajność, łatwość obsługi i możliwość dostosowania do różnych potrzeb biznesowych i technologicznych.
Więcej...
Ostatnia aktualizacja:
Opinie uczestników (4)
Trener dobrze zrozumiał koncepty
Josheel - Verizon Connect
Szkolenie - Amazon Redshift
Przetłumaczone przez sztuczną inteligencję
funkcje analityczne
khusboo dassani - Tech Northwest Skillnet
Szkolenie - SQL Advanced
Przetłumaczone przez sztuczną inteligencję
jak trener prezentuje swoją wiedzę z tematu, który uczy
john ernesto ii fernandez - Philippine AXA Life Insurance Corporation
Szkolenie - Data Vault: Building a Scalable Data Warehouse