Plan Szkolenia

Wprowadzenie

  • Apache Spark vs Hadoop MapReduce

Przegląd funkcji i architektury Apache Spark

Wybór języka programowania

Konfiguracja Apache Spark

Tworzenie przykładowej aplikacji

Wybór zbioru danych

Przeprowadzanie analizy danych

Przetwarzanie danych strukturalnych za pomocą Spark SQL

Przetwarzanie danych strumieniowych za pomocą Spark Streaming

Integracja Apache Spark z narzędziami do uczenia maszynowego innych firm

Wykorzystanie Apache Spark do przetwarzania grafów

Optymalizacja Apache Spark

Rozwiązywanie problemów

Podsumowanie i zakończenie

Wymagania

  • Doświadczenie w pracy z linią poleceń Linux
  • Ogólne zrozumienie przetwarzania danych
  • Doświadczenie w programowaniu w Java, Scala, Python lub R

Odbiorcy

  • Deweloperzy
 21 godzin

Liczba uczestników


Cena za uczestnika

Opinie uczestników (2)

Propozycje terminów

Powiązane Kategorie