Plan Szkolenia
Wprowadzenie
- Apache Spark vs Hadoop MapReduce
Przegląd funkcji i architektury Apache Spark
Wybór języka Programming
Ustawienie Apache Spark
Tworzenie przykładowej aplikacji
Wybór zestawu danych
Uruchamianie Data Analysis na danych
Przetwarzanie danych strukturalnych za pomocą Spark SQL
Przetwarzanie danych strumieniowych za pomocą Spark Streaming
Integracja Apache Spark z narzędziami 3rd Part Machine Learning
Używanie Apache Spark do przetwarzania wykresów
Optymalizacja Apache Spark
Rozwiązywanie problemów
Podsumowanie i wnioski
Wymagania
- Doświadczenie z linią poleceń systemu Linux
- Ogólne zrozumienie przetwarzania danych
- Doświadczenie w programowaniu w języku Java, Scala, Python lub R
Uczestnicy
- Deweloperzy
Opinie uczestników (2)
Zaangażowanie i chęć wyjaśnienia tematów pobocznych.
Marek - Krajowy Rejestr Dlugow Biuro Informacji Gospodarczej S.A.
Szkolenie - Apache Spark Fundamentals
Doświadczenie praktyczne trenera, nie koloryzowanie omawianego rozwiązania ale też nie wprowadzanie negatywnego nacechowania. Mam poczucie, że trener przygotowuje mnie do realnego i praktycznego wykorzystania narzędzia - tych cennych szczegółów nie ma zazwyczaj w książkach.