Plan Szkolenia
Wprowadzenie
Instalacja i konfiguracja Dataiku Data Science Studio (DSS)
- Wymagania systemowe dla Dataiku DSS
- Konfiguracja integracji Apache Hadoop i Apache Spark
- Konfiguracja Dataiku DSS z serwerami proxy sieci Web
- Migracja z innych platform do Dataiku DSS
Przegląd funkcji i architektury Dataiku DSS
- Podstawowe obiekty i wykresy fundamentalne dla Dataiku DSS
- Czym jest przepis w Dataiku DSS?
- Rodzaje zbiorów danych obsługiwanych przez Dataiku DSS
Tworzenie projektu Dataiku DSS
Definiowanie zestawów danych w celu połączenia z zasobami danych w Dataiku DSS
- Praca z konektorami DSS i formatami plików
- Standardowe formaty DSS kontra formaty specyficzne dla Hadoop
- Przesyłanie plików do projektu Dataiku DSS
Przegląd systemu plików serwera w Dataiku DSS
Tworzenie i używanie folderów zarządzanych
- Przepis Dataiku DSS na scalanie folderów
- Lokalne i nielokalne foldery zarządzane
Konstruowanie zestawu danych systemu plików przy użyciu zawartości folderu zarządzanego
- Wykonywanie czyszczenia za pomocą receptury kodu DSS
Praca z zestawem danych metryk i zestawem danych statystyk wewnętrznych
Wdrażanie przepisu pobierania DSS dla zestawu danych HTTP
Przenoszenie SQL zbiorów danych i zbiorów danych HDFS przy użyciu DSS
Porządkowanie zbiorów danych w Dataiku DSS
- Kolejność zapisu kontra kolejność odczytu
Eksplorowanie i przygotowywanie wizualizacji danych dla projektu Dataiku DSS
Przegląd schematów, typów pamięci masowej i znaczeń Dataiku
Wykonywanie skryptów oczyszczania, normalizacji i wzbogacania danych w Dataiku DSS
Praca z interfejsem wykresów Dataiku DSS i typami agregacji wizualnych
Wykorzystanie interaktywnej Statistics funkcji DSS
- Analiza jednoczynnikowa kontra analiza dwuczynnikowa
- Korzystanie z narzędzia Principal Component Analysis (PCA) DSS
Przegląd Machine Learning z Dataiku DSS
- ML nadzorowane kontra ML nienadzorowane
- Referencje dotyczące algorytmów i obsługi funkcji DSS ML
- Deep Learning z Dataiku DSS
Przegląd przepływu uzyskanego z zestawów danych i przepisów DSS
Przekształcanie istniejących zestawów danych w DSS za pomocą receptur wizualnych
Wykorzystanie receptur DSS opartych na kodzie zdefiniowanym przez użytkownika
Optymalizacja eksploracji kodu i eksperymentowania z notatnikami kodu DSS
Pisanie zaawansowanych wizualizacji DSS i niestandardowych funkcji interfejsu użytkownika za pomocą aplikacji internetowych
Praca z funkcją raportów kodów Dataiku DSS
Udostępnianie danych projektu Element i zapoznanie się z pulpitem nawigacyjnym DSS
Projektowanie i pakowanie projektu Dataiku DSS jako aplikacji wielokrotnego użytku
Przegląd zaawansowanych metod w Dataiku DSS
- Wdrażanie zoptymalizowanego partycjonowania zbiorów danych przy użyciu DSS
- Wykonywanie określonych części przetwarzania DSS poprzez obliczenia w kontenerach Kubernetes
Przegląd Collaboration i kontrola wersji w Dataiku DSS
Wdrażanie scenariuszy automatyzacji, metryk i kontroli na potrzeby testowania projektów DSS
Wdrażanie i aktualizacja projektu za pomocą węzła DSS Automation i pakietów
Praca z interfejsami API czasu rzeczywistego w Dataiku DSS
- Dodatkowe interfejsy API i Rest API w DSS
Analiza i Forecasting szeregi czasowe Dataiku DSS
Zabezpieczanie projektu w Dataiku DSS
- Zarządzanie uprawnieniami do projektów i pulpitu nawigacyjnego
- Wdrażanie zaawansowanych opcji zabezpieczeń
Integracja Dataiku DSS z chmurą
Rozwiązywanie problemów
Podsumowanie i wnioski
Wymagania
- Doświadczenie z językami programowania Python, SQL i R
- Podstawowa znajomość przetwarzania danych przy użyciu Apache Hadoop i Spark
- Zrozumienie koncepcji uczenia maszynowego i modeli danych
- Doświadczenie w analizach statystycznych i koncepcjach nauki o danych
- Doświadczenie w wizualizacji i komunikacji danych
Uczestnicy
- Inżynierowie
- Naukowcy danych
- Analitycy danych