Data Vault: Building a Scalable Data Warehouse - Plan Szkolenia
Data Vault Modelowanie to technika modelowania baz danych, która zapewnia długoterminowe historyczne przechowywanie danych pochodzących z wielu źródeł. Skarbiec danych przechowuje pojedynczą wersję faktów lub "wszystkie dane, przez cały czas". Jego elastyczna, skalowalna, spójna i adaptowalna konstrukcja obejmuje najlepsze aspekty trzeciej postaci normalnej (3NF) i schematu gwiazdy.
W tym prowadzonym przez instruktora szkoleniu na żywo uczestnicy dowiedzą się, jak zbudować Data Vault.
Pod koniec tego szkolenia uczestnicy będą mogli
- Zrozumieć architekturę i koncepcje projektowe stojące za Data Vault 2.0 oraz jego interakcję z Big Data, NoSQL i AI.
- Korzystać z technik przechowywania danych w celu umożliwienia audytu, śledzenia i inspekcji danych historycznych w hurtowni danych.
- Opracowanie spójnego i powtarzalnego procesu ETL (Extract, Transform, Load).
- Budowanie i wdrażanie wysoce skalowalnych i powtarzalnych hurtowni.
Format kursu
- Część wykładu, część dyskusji, ćwiczenia i ciężka praktyka praktyczna
Plan Szkolenia
Wprowadzenie
- Wady istniejących architektur modelowania danych hurtowni danych
- Korzyści z modelowania Data Vault
Przegląd architektury Data Vault i zasad projektowania
- SEI / CMM / Zgodność
Aplikacje Data Vault
- Dynamiczne hurtownie danych
- Hurtownie eksploracyjne
- In-Database Data Mining
- Szybkie łączenie informacji zewnętrznych
Data Vault komponenty
- Huby, łącza, satelity
Budowanie Data Vault
Modelowanie koncentratorów, łączy i satelitów
Reguły referencyjne Data Vault
Jak komponenty współdziałają ze sobą
Modelowanie i wypełnianie Data Vault
Konwersja 3NF OLTP do Data Vault Enterprise Data Warehouse (EDW)
Zrozumienie dat ładowania, dat końcowych i operacji łączenia
Klucze, relacje, tabele łączące i techniki łączenia Business
Techniki zapytań
Przetwarzanie obciążeń i zapytań
Przegląd metodologii Matrix
Pobieranie danych do jednostek danych
Ładowanie jednostek centrum
Ładowanie jednostek Link
Ładowanie satelitów
Korzystanie z szablonów SEI/CMM poziomu 5 w celu uzyskania powtarzalnych, wiarygodnych i wymiernych wyników
Opracowanie spójnego i powtarzalnego procesu ETL (Extract, Transform, Load)
Budowanie i wdrażanie wysoce skalowalnych i powtarzalnych magazynów
Uwagi końcowe
Wymagania
- Zrozumienie koncepcji hurtowni danych
- Zrozumienie koncepcji baz danych i modelowania danych
Uczestnicy
- Osoby zajmujące się modelowaniem danych
- Specjaliści ds. hurtowni danych
- [Specjaliści ds. inteligencji
- Inżynierowie danych
- Database Administratorzy
Szkolenia otwarte są realizowane w przypadku uzbierania się grupy szkoleniowej liczącej co najmniej 5 osób na dany termin.
Data Vault: Building a Scalable Data Warehouse - Plan Szkolenia - Booking
Data Vault: Building a Scalable Data Warehouse - Plan Szkolenia - Enquiry
Data Vault: Building a Scalable Data Warehouse - Zapytanie o Konsultacje
Zapytanie o Konsultacje
Opinie uczestników (1)
jak trener prezentuje swoją wiedzę z tematu, który uczy
john ernesto ii fernandez - Philippine AXA Life Insurance Corporation
Szkolenie - Data Vault: Building a Scalable Data Warehouse
Przetłumaczone przez sztuczną inteligencję
Propozycje terminów
Szkolenia Powiązane
Cluster Analysis with R and SAS
14 godzinSzkolenie na żywo prowadzone przez instruktora (na miejscu lub zdalnie) jest przeznaczone dla analityków danych, którzy chcą programować z R w SAS do analizy skupień.
Po zakończeniu tego szkolenia uczestnicy będą w stanie
- Wykorzystanie analizy skupień do eksploracji danych
- Opanowanie składni języka R dla rozwiązań klastrowania.
- Wdrażanie hierarchicznego i niehierarchicznego klastrowania.
- Podejmowanie decyzji opartych na danych w celu usprawnienia operacji biznesowych.
From Data to Decision with Big Data and Predictive Analytics
21 godzinUczestnicy
Jeśli próbujesz nadać sens danym, do których masz dostęp lub chcesz analizować nieustrukturyzowane dane dostępne w sieci (takie jak Twitter, LinkedIn itp.), ten kurs jest dla Ciebie.
Jest on skierowany głównie do decydentów i osób, które muszą wybrać, jakie dane warto gromadzić i co warto analizować.
Nie jest on skierowany do osób konfigurujących rozwiązanie, jednak osoby te skorzystają z szerszej perspektywy.
Tryb dostawy
Podczas kursu delegaci zostaną zapoznani z działającymi przykładami głównie technologii open source.
Po krótkich wykładach odbędzie się prezentacja i proste ćwiczenia dla uczestników.
Używana zawartość i oprogramowanie
Całe używane oprogramowanie jest aktualizowane za każdym razem, gdy kurs jest uruchamiany, więc sprawdzamy najnowsze możliwe wersje.
Obejmuje proces pozyskiwania, formatowania, przetwarzania i analizowania danych, aby wyjaśnić, jak zautomatyzować proces podejmowania decyzji za pomocą uczenia maszynowego.
Data Mining and Analysis
28 godzinCel:
Uczestnicy będą w stanie analizować duże zbiory danych, wyodrębniać wzorce, wybierać odpowiednią zmienną wpływającą na wyniki, tak aby nowy model był prognozowany z wynikami predykcyjnymi.
Data Mining
21 godzinKurs może być prowadzony przy użyciu dowolnych narzędzi, w tym bezpłatnego oprogramowania i aplikacji do eksploracji danych typu open source.
Data Mining with Python
14 godzinTo prowadzone przez instruktora szkolenie na żywo (na miejscu lub zdalnie) jest przeznaczone dla analityków danych i naukowców zajmujących się danymi, którzy chcą wdrożyć bardziej zaawansowane techniki analizy danych do eksploracji danych przy użyciu Python.
Po zakończeniu tego szkolenia uczestnicy będą w stanie
- Zrozumieć kluczowe obszary eksploracji danych, w tym analizę reguł asocjacyjnych, analizę sentymentu tekstu, automatyczne streszczanie tekstu oraz wykrywanie anomalii w danych.
- Porównać i wdrożyć różne strategie rozwiązywania problemów eksploracji danych w realnych scenariuszach.
- Zrozumieć i interpretować wyniki.
Format kursu
- Interaktywny wykład i dyskusja.
- Duża ilość ćwiczeń i praktycznych zadań.
- Praktyczna implementacja w środowisku live-lab.
Opcje dostosowywania kursu
- Aby poprosić o dostosowane szkolenie w ramach tego kursu, prosimy o kontakt w celu ustalenia szczegółów.
Data Mining z wykorzystaniem R
14 godzinR to darmowy język programowania o otwartym kodzie źródłowym do obliczeń statystycznych, analizy danych i grafiki. R jest używany przez rosnącą liczbę menedżerów i analityków danych w korporacjach i środowiskach akademickich. R posiada szeroką gamę pakietów do eksploracji danych.
Data Visualization
28 godzinTen kurs jest przeznaczony dla inżynierów i decydentów pracujących w eksploracji danych i odkrywaniu wiedzy.
Dowiesz się, jak tworzyć efektywne wykresy oraz sposoby prezentowania i przedstawiania danych w sposób, który spodoba się decydentom i pomoże im zrozumieć ukryte informacje.
Data Mining with Excel
14 godzinSzkolenie na żywo prowadzone przez instruktora (na miejscu lub zdalnie) jest przeznaczone dla analityków danych, którzy chcą używać Excel do eksploracji danych.
- Pod koniec tego szkolenia uczestnicy będą w stanie:
- Eksplorować dane za pomocą programu Excel w celu eksploracji i analizy danych.
- Używać Microsoft algorytmów do eksploracji danych.
- Zrozumieć koncepcje eksploracji danych w programie Excel.
Data Mining with Weka
14 godzinTo prowadzone przez instruktora szkolenie na żywo w Polsce (na miejscu lub zdalnie) jest przeznaczone dla początkujących i średnio zaawansowanych analityków danych i naukowców zajmujących się danymi, którzy chcą używać Weka do wykonywania zadań eksploracji danych.
Pod koniec tego szkolenia uczestnicy będą mogli
- Zainstalować i skonfigurować Weka.
- Zrozumieć środowisko Weka i środowisko pracy.
- Wykonywać zadania eksploracji danych przy użyciu Weka.
Data Mining & Machine Learning with R
14 godzinR to darmowy język programowania o otwartym kodzie źródłowym do obliczeń statystycznych, analizy danych i grafiki. R jest używany przez rosnącą liczbę menedżerów i analityków danych w korporacjach i środowiskach akademickich. R posiada szeroką gamę pakietów do eksploracji danych.
Data Science for Big Data Analytics
35 godzinBig data to zbiory danych, które są tak obszerne i złożone, że tradycyjne aplikacje do przetwarzania danych nie są w stanie sobie z nimi poradzić. Wyzwania związane z dużymi zbiorami danych obejmują przechwytywanie danych, przechowywanie danych, analizę danych, wyszukiwanie, udostępnianie, przesyłanie, wizualizację, zapytania, aktualizację i prywatność informacji.
Foundation R
7 godzinTa instruktorzycka szkolenie na żywo w Polsce (online lub stacjonarnie) jest skierowane do profesjonalistów poziomu początkującego, którzy chcą zasilić się podstawami R i naukę pracy z danymi.
Do końca szkolenia uczestnicy będą mogli:
- Zrozumieć środowisko programistyczne R oraz interfejs RStudio.
- Importować, manipulować i badać zestawy danych przy użyciu poleceń i pakietów R.
- Wykonywać podstawową analizę statystyczną i podsumowanie danych.
- Tworzyć wizualizacje zarówno za pomocą bazowego R, jak i ggplot2.
- Efektywnie zarządzać przestrzeniami roboczymi, skryptami i pakietami.
KNIME Analytics Platform for BI
21 godzinKNIME Analytics Platform to wiodąca opcja open source dla innowacji opartych na danych, pomagająca odkryć potencjał ukryty w danych, wydobywać nowe spostrzeżenia lub przewidywać nowe przyszłości. Dzięki ponad 1000 modułom, setkom gotowych do uruchomienia przykładów, szerokiej gamie zintegrowanych narzędzi i najszerszemu dostępnemu wyborowi zaawansowanych algorytmów, KNIME Analytics Platform jest idealnym zestawem narzędzi dla każdego analityka danych i analityka biznesowego.
Ten kurs dla KNIME Analytics Platform to idealna okazja dla początkujących, zaawansowanych użytkowników i ekspertów KNIME, aby zapoznać się z KNIME, dowiedzieć się, jak korzystać z niego bardziej efektywnie i jak tworzyć przejrzyste, kompleksowe raporty oparte na przepływach pracy KNIME
Platforma analityczna KNIME - szkolenie kompleksowe
35 godzinSzkolenie "Platforma analityczna KNIME" oferuje kompleksowy przegląd tej bezpłatnej platformy analizy danych. Program obejmuje wprowadzenie do przetwarzania i analizy danych, instalację i konfigurację KNIME, budowanie workflow, metodologię tworzenia modeli biznesowych i modelowania danych. Kurs również omawia narzędzia zaawansowanej analizy danych, import i eksport workflow, integrację narzędzi, procesy ETL, eksplorację danych, wizualizację, rozszerzenia i integracje z narzędziami takimi jak R, Java, Python, Gephi, Neo4j. Zakończenie obejmuje omówienie raportowania, integracji z BIRT i KNIME WebPortal.