Plan Szkolenia
-
Wprowadzenie do Scala
- Krótki wprowadzenie do Scala
- Laboratoria: Poznanie Scala
-
Podstawy Spark
- Tło i historia
- Spark i Hadoop
- Koncepcje i architektura Spark
- Ekosystem Spark (core, Spark SQL, MLib, streaming)
- Laboratoria: Instalowanie i uruchamianie Spark
-
Pierwsze spojrzenie na Spark
- Uruchamianie Spark w trybie lokalnym
- Interfejs webowy Spark
- Spark shell
- Analiza zestawu danych – część 1
- Inspekcja RDD
- Laboratoria: Eksploracja Spark shell
-
RDD
- Koncepcje RDD
- Partitiony
- Operacje/transformacje RDD
- Typy RDD
- RDD par klucz-wartość
- MapReduce na RDD
- Buforowanie i persystencja
- Laboratoria: Tworzenie i inspekcja RDD; Buforowanie RDD
-
Programowanie API Spark
- Wprowadzenie do API Spark / API RDD
- Wysyłanie pierwszego programu do Spark
- Debugowanie / logowanie
- Własności konfiguracyjne
- Laboratoria: Programowanie w API Spark, Wysyłanie zadań
-
Spark SQL
- Obsługa SQL w Spark
- Dataframes
- Definiowanie tabel i importowanie zestawów danych
- Zapytanie do dataframes za pomocą SQL
- Formaty przechowywania: JSON / Parquet
- Laboratoria: Tworzenie i zapytanie do dataframes; Ocena formatów danych
-
MLlib
- Wprowadzenie do MLib
- Algorithmy MLib
- Laboratoria: Pisanie aplikacji MLib
-
GraphX
- Przegląd biblioteki GraphX
- API GraphX
- Laboratoria: Przetwarzanie danych grafu za pomocą Spark
-
Spark Streaming
- Przegląd strumieniowego przetwarzania
- Ocena platform strumieniowych
- Operacje strumieniowe
- Operacje okienkowe
- Laboratoria: Pisanie aplikacji strumieniowych Spark
-
Spark i Hadoop
- Wprowadzenie do Hadoop (HDFS / YARN)
- Architektura Hadoop + Spark
- Uruchamianie Spark na Hadoop YARN
- Przetwarzanie plików HDFS za pomocą Spark
-
Wydajność i optymalizacja Spark
- Zmienne rozgłaszane
- Akumulatory
- Zarządzanie pamięcią i buforowanie
-
Operacje Spark
- Wdrażanie Spark w produkcji
- Szablony wdrażania
- Konfiguracje
- Monitorowanie
- Diagnostyka
Wymagania
WYMAGANIA WSTĘPNE
znajomość języka Java / Scala / Python (nasze laboratoria w Scala i Python)
podstawowa znajomość środowiska rozwoju Linux (nawigacja w wierszu polecenia / edytowanie plików za pomocą VI lub nano)
Opinie uczestników (7)
Wszystko ok.
Marek Siodmiak - Santander Bank Polska
Szkolenie - Spark for Developers
Doing similar exercises different ways really help understanding what each component (Hadoop/Spark, standalone/cluster) can do on its own and together. It gave me ideas on how I should test my application on my local machine when I develop vs when it is deployed on a cluster.
Thomas Carcaud - IT Frankfurt GmbH
Szkolenie - Spark for Developers
Ajay was very friendly, helpful and also knowledgable about the topic he was discussing.
Biniam Guulay - ICE International Copyright Enterprise Germany GmbH
Szkolenie - Spark for Developers
Ernesto did a great job explaining the high level concepts of using Spark and its various modules.
Michael Nemerouf
Szkolenie - Spark for Developers
The trainer made the class interesting and entertaining which helps quite a bit with all day training.
Ryan Speelman
Szkolenie - Spark for Developers
We know a lot more about the whole environment.
John Kidd
Szkolenie - Spark for Developers
Richard is very calm and methodical, with an analytic insight - exactly the qualities needed to present this sort of course.