Plan Szkolenia

Wprowadzenie

  • Apache Spark vs Hadoop MapReduce

Przegląd funkcji i architektury Apache Spark

Wybór języka Programming

Ustawienie Apache Spark

Tworzenie przykładowej aplikacji

Wybór zestawu danych

Uruchamianie Data Analysis na danych

Przetwarzanie danych strukturalnych za pomocą Spark SQL

Przetwarzanie danych strumieniowych za pomocą Spark Streaming

Integracja Apache Spark z narzędziami 3rd Part Machine Learning

Używanie Apache Spark do przetwarzania wykresów

Optymalizacja Apache Spark

Rozwiązywanie problemów

Podsumowanie i wnioski

Wymagania

  • Doświadczenie z linią poleceń systemu Linux
  • Ogólne zrozumienie przetwarzania danych
  • Doświadczenie w programowaniu w języku Java, Scala, Python lub R

Uczestnicy

  • Deweloperzy
 21 godzin

Liczba uczestników


cena netto za uczestnika

Opinie uczestników (2)

Propozycje terminów

Powiązane Kategorie