Plan Szkolenia
Wprowadzenie
- Apache Spark vs Hadoop MapReduce
Przegląd funkcji i architektury Apache Spark
Wybór języka programowania
Konfiguracja Apache Spark
Tworzenie przykładowej aplikacji
Wybór zbioru danych
Przeprowadzanie analizy danych
Przetwarzanie danych strukturalnych za pomocą Spark SQL
Przetwarzanie danych strumieniowych za pomocą Spark Streaming
Integracja Apache Spark z narzędziami do uczenia maszynowego innych firm
Wykorzystanie Apache Spark do przetwarzania grafów
Optymalizacja Apache Spark
Rozwiązywanie problemów
Podsumowanie i zakończenie
Wymagania
- Doświadczenie w pracy z linią poleceń Linux
- Ogólne zrozumienie przetwarzania danych
- Doświadczenie w programowaniu w Java, Scala, Python lub R
Odbiorcy
- Deweloperzy
Opinie uczestników (2)
Zaangażowanie i chęć wyjaśnienia tematów pobocznych.
Marek - Krajowy Rejestr Dlugow Biuro Informacji Gospodarczej S.A.
Szkolenie - Apache Spark Fundamentals
Doświadczenie praktyczne trenera, nie koloryzowanie omawianego rozwiązania ale też nie wprowadzanie negatywnego nacechowania. Mam poczucie, że trener przygotowuje mnie do realnego i praktycznego wykorzystania narzędzia - tych cennych szczegółów nie ma zazwyczaj w książkach.