Plan Szkolenia

Wprowadzenie

Instalacja i konfiguracja Dataiku Data Science Studio (DSS)

  • Wymagania systemowe dla Dataiku DSS
  • Konfiguracja integracji Apache Hadoop i Apache Spark
  • Konfiguracja Dataiku DSS z serwerami proxy sieci Web
  • Migracja z innych platform do Dataiku DSS

Przegląd funkcji i architektury Dataiku DSS

  • Podstawowe obiekty i wykresy fundamentalne dla Dataiku DSS
  • Czym jest przepis w Dataiku DSS?
  • Rodzaje zbiorów danych obsługiwanych przez Dataiku DSS

Tworzenie projektu Dataiku DSS

Definiowanie zestawów danych w celu połączenia z zasobami danych w Dataiku DSS

  • Praca z konektorami DSS i formatami plików
  • Standardowe formaty DSS kontra formaty specyficzne dla Hadoop
  • Przesyłanie plików do projektu Dataiku DSS

Przegląd systemu plików serwera w Dataiku DSS

Tworzenie i używanie folderów zarządzanych

  • Przepis Dataiku DSS na scalanie folderów
  • Lokalne i nielokalne foldery zarządzane

Konstruowanie zestawu danych systemu plików przy użyciu zawartości folderu zarządzanego

  • Wykonywanie czyszczenia za pomocą receptury kodu DSS

Praca z zestawem danych metryk i zestawem danych statystyk wewnętrznych

Wdrażanie przepisu pobierania DSS dla zestawu danych HTTP

Przenoszenie SQL zbiorów danych i zbiorów danych HDFS przy użyciu DSS

Porządkowanie zbiorów danych w Dataiku DSS

  • Kolejność zapisu kontra kolejność odczytu

Eksplorowanie i przygotowywanie wizualizacji danych dla projektu Dataiku DSS

Przegląd schematów, typów pamięci masowej i znaczeń Dataiku

Wykonywanie skryptów oczyszczania, normalizacji i wzbogacania danych w Dataiku DSS

Praca z interfejsem wykresów Dataiku DSS i typami agregacji wizualnych

Wykorzystanie interaktywnej Statistics funkcji DSS

  • Analiza jednoczynnikowa kontra analiza dwuczynnikowa
  • Korzystanie z narzędzia Principal Component Analysis (PCA) DSS

Przegląd Machine Learning z Dataiku DSS

  • ML nadzorowane kontra ML nienadzorowane
  • Referencje dotyczące algorytmów i obsługi funkcji DSS ML
  • Deep Learning z Dataiku DSS

Przegląd przepływu uzyskanego z zestawów danych i przepisów DSS

Przekształcanie istniejących zestawów danych w DSS za pomocą receptur wizualnych

Wykorzystanie receptur DSS opartych na kodzie zdefiniowanym przez użytkownika

Optymalizacja eksploracji kodu i eksperymentowania z notatnikami kodu DSS

Pisanie zaawansowanych wizualizacji DSS i niestandardowych funkcji interfejsu użytkownika za pomocą aplikacji internetowych

Praca z funkcją raportów kodów Dataiku DSS

Udostępnianie danych projektu Element i zapoznanie się z pulpitem nawigacyjnym DSS

Projektowanie i pakowanie projektu Dataiku DSS jako aplikacji wielokrotnego użytku

Przegląd zaawansowanych metod w Dataiku DSS

  • Wdrażanie zoptymalizowanego partycjonowania zbiorów danych przy użyciu DSS
  • Wykonywanie określonych części przetwarzania DSS poprzez obliczenia w kontenerach Kubernetes

Przegląd Collaboration i kontrola wersji w Dataiku DSS

Wdrażanie scenariuszy automatyzacji, metryk i kontroli na potrzeby testowania projektów DSS

Wdrażanie i aktualizacja projektu za pomocą węzła DSS Automation i pakietów

Praca z interfejsami API czasu rzeczywistego w Dataiku DSS

  • Dodatkowe interfejsy API i Rest API w DSS

Analiza i Forecasting szeregi czasowe Dataiku DSS

Zabezpieczanie projektu w Dataiku DSS

  • Zarządzanie uprawnieniami do projektów i pulpitu nawigacyjnego
  • Wdrażanie zaawansowanych opcji zabezpieczeń

Integracja Dataiku DSS z chmurą

Rozwiązywanie problemów

Podsumowanie i wnioski

Wymagania

  • Doświadczenie z językami programowania Python, SQL i R
  • Podstawowa znajomość przetwarzania danych przy użyciu Apache Hadoop i Spark
  • Zrozumienie koncepcji uczenia maszynowego i modeli danych
  • Doświadczenie w analizach statystycznych i koncepcjach nauki o danych
  • Doświadczenie w wizualizacji i komunikacji danych

Uczestnicy

  • Inżynierowie
  • Naukowcy danych
  • Analitycy danych
 21 godzin

Liczba uczestników


cena netto za uczestnika

Propozycje terminów

Powiązane Kategorie