Plan Szkolenia

Wprowadzenie

Instalowanie i konfigurowanie Dataiku Data Science Studio (DSS)

  • Wymagania systemowe dla Dataiku DSS
  • Konfiguracja integracji z Apache Hadoop i Apache Spark
  • Konfigurowanie Dataiku DSS z proxy serwerowymi
  • Migrowanie z innych platform na Dataiku DSS

Przegląd funkcji i architektury Dataiku DSS

  • Obiekty i grafy podstawowe dla Dataiku DSS
  • Co to jest przepis w Dataiku DSS?
  • Typy zestawów danych obsługiwanych przez Dataiku DSS

Tworzenie projektu Dataiku DSS

Definiowanie zestawów danych do połączenia z zasobami danych w Dataiku DSS

  • Praca z połączeniami DSS i formatami plików
  • Standardowe formaty DSS wobec formatów specyficznych dla Hadoop
  • Wgrywanie plików do projektu Dataiku DSS

Przegląd systemu plików serwera w Dataiku DSS

Tworzenie i używanie zarządzanych folderów

  • Przepis Dataiku DSS dla folderu scalania
  • Lokalne wobec nie-lokalnych zarządzanych folderów

Budowanie zestawu danych systemu plików za pomocą zawartości zarządzanych folderów

  • Wykonywanie czyszczenia za pomocą przepisu kodu DSS

Praca z zestawem danych metryk i zestawem danych statystyk wewnętrznych

Implementowanie przepisu DSS Download dla zestawu danych HTTP

Przesuwanie zestawów danych SQL i HDFS za pomocą DSS

Sortowanie zestawów danych w Dataiku DSS

  • Sortowanie pisarza wobec sortowania w czasie odczytu

Przeglądanie i przygotowywanie wizualizacji danych dla projektu Dataiku DSS

Przegląd schematów Dataiku, typów przechowywania i znaczeń

Wykonywanie skryptów czyszczenia, normalizacji i wzbogacania danych w Dataiku DSS

Praca z interfejsem wykresów Dataiku DSS i typami wizualizacji agregacji

Korzystanie z funkcji interaktywnych statystyk DSS

  • Jednowymiarowa analiza wobec dwuwymiarowej analizy
  • Korzystanie z narzędzia DSS Principal Component Analysis (PCA)

Przegląd uczenia maszynowego z Dataiku DSS

  • Nadzorowane uczenie maszynowe wobec nienadzorowanego uczenia maszynowego
  • Odniesienia do algorytmów ML DSS i obsługi funkcji
  • Uczenie głębokie z Dataiku DSS

Przegląd przepływu pochodzącego z zestawów danych i przepisów DSS

Przekształcanie istniejących zestawów danych w DSS za pomocą wizualnych przepisów

Korzystanie z przepisów DSS oparte na kodzie zdefiniowanym przez użytkownika

Optymalizowanie eksploracji i eksperymentowania z kodem za pomocą notatników DSS

Pisanie zaawansowanych wizualizacji DSS i funkcji niestandardowych frontendu za pomocą webappów

Praca z funkcją raportów kodu Dataiku DSS

Udostępnianie elementów projektu danych i zapoznawanie się z panelami DSS

Projektowanie i pakowanie projektu Dataiku DSS jako powtarzalnej aplikacji

Przegląd zaawansowanych metod w Dataiku DSS

  • Implementowanie optymalnego podziału zestawów danych za pomocą DSS
  • Wykonywanie określonych części przetwarzania DSS poprzez obliczenia w kontenerach Kubernetes

Przegląd współpracy i kontroli wersji w Dataiku DSS

Implementowanie scenariuszy automatyzacji, metryk i sprawdzania dla testowania projektu DSS

Wdrażanie i aktualizowanie projektu za pomocą węzła automatyzacji DSS i pakietów

Praca z API czasu rzeczywistego w Dataiku DSS

  • Dodatkowe API i API Rest w DSS

Analizowanie i prognozowanie serii czasowych Dataiku DSS

Zabezpieczanie projektu w Dataiku DSS

  • Zarządzanie uprawnieniami do projektu i autoryzacjami panelu
  • Implementowanie zaawansowanych opcji bezpieczeństwa

Integrowanie Dataiku DSS z chmurą

Rozwiązywanie problemów

Podsumowanie i wnioski

Wymagania

  • Doświadczenie w programowaniu w językach Python, SQL i R
  • Podstawowa wiedza o przetwarzaniu danych z użyciem Apache Hadoop i Spark
  • Zrozumienie pojęć uczenia maszynowego i modeli danych
  • Tło w analizach statystycznych i pojęciach nauki o danych
  • Doświadczenie w wizualizacji i komunikacji danych

Grupa docelowa

  • Inżynierowie
  • Specjaliści ds. danych
  • Analitycy danych
 21 godzin

Liczba uczestników


cena netto za uczestnika

Propozycje terminów

Powiązane Kategorie