Plan Szkolenia
-
Wprowadzenie do Scala
- Krótki wprowadzenie do Scala
- Laboratoria: Poznanie Scala
-
Podstawy Spark
- Tło i historia
- Spark i Hadoop
- Koncepcje i architektura Spark
- Ekosystem Spark (core, Spark SQL, MLib, streaming)
- Laboratoria: Instalowanie i uruchamianie Spark
-
Pierwsze spojrzenie na Spark
- Uruchamianie Spark w trybie lokalnym
- Interfejs webowy Spark
- Spark shell
- Analiza zestawu danych – część 1
- Inspekcja RDD
- Laboratoria: Eksploracja Spark shell
-
RDD
- Koncepcje RDD
- Partitiony
- Operacje/transformacje RDD
- Typy RDD
- RDD par klucz-wartość
- MapReduce na RDD
- Buforowanie i persystencja
- Laboratoria: Tworzenie i inspekcja RDD; Buforowanie RDD
-
Programowanie API Spark
- Wprowadzenie do API Spark / API RDD
- Wysyłanie pierwszego programu do Spark
- Debugowanie / logowanie
- Własności konfiguracyjne
- Laboratoria: Programowanie w API Spark, Wysyłanie zadań
-
Spark SQL
- Obsługa SQL w Spark
- Dataframes
- Definiowanie tabel i importowanie zestawów danych
- Zapytanie do dataframes za pomocą SQL
- Formaty przechowywania: JSON / Parquet
- Laboratoria: Tworzenie i zapytanie do dataframes; Ocena formatów danych
-
MLlib
- Wprowadzenie do MLib
- Algorithmy MLib
- Laboratoria: Pisanie aplikacji MLib
-
GraphX
- Przegląd biblioteki GraphX
- API GraphX
- Laboratoria: Przetwarzanie danych grafu za pomocą Spark
-
Spark Streaming
- Przegląd strumieniowego przetwarzania
- Ocena platform strumieniowych
- Operacje strumieniowe
- Operacje okienkowe
- Laboratoria: Pisanie aplikacji strumieniowych Spark
-
Spark i Hadoop
- Wprowadzenie do Hadoop (HDFS / YARN)
- Architektura Hadoop + Spark
- Uruchamianie Spark na Hadoop YARN
- Przetwarzanie plików HDFS za pomocą Spark
-
Wydajność i optymalizacja Spark
- Zmienne rozgłaszane
- Akumulatory
- Zarządzanie pamięcią i buforowanie
-
Operacje Spark
- Wdrażanie Spark w produkcji
- Szablony wdrażania
- Konfiguracje
- Monitorowanie
- Diagnostyka
Wymagania
WYMAGANIA WSTĘPNE
znajomość języka Java / Scala / Python (nasze laboratoria w Scala i Python)
podstawowa znajomość środowiska rozwoju Linux (nawigacja w wierszu polecenia / edytowanie plików za pomocą VI lub nano)
Opinie uczestników (7)
Wszystko ok.
Marek Siodmiak - Santander Bank Polska
Szkolenie - Spark for Developers
Wykonywanie podobnych ćwiczeń na różne sposoby naprawdę pomaga zrozumieć, co każdy komponent (Hadoop/Spark, samodzielny/klaster) może zrobić samodzielnie i wspólnie. Dało mi to pomysły, jak powinienem testować moją aplikację na lokalnym maszynie podczas jej tworzenia w porównaniu do wdrożenia na klastrze.
Thomas Carcaud - IT Frankfurt GmbH
Szkolenie - Spark for Developers
Przetłumaczone przez sztuczną inteligencję
Ajay był bardzo przyjazny, pomocny i również dobrze orientował się w temacie, o którym mówił.
Biniam Guulay - ICE International Copyright Enterprise Germany GmbH
Szkolenie - Spark for Developers
Przetłumaczone przez sztuczną inteligencję
Ernesto did a great job explaining the high level concepts of using Spark and its various modules.
Michael Nemerouf
Szkolenie - Spark for Developers
Przetłumaczone przez sztuczną inteligencję
The trainer made the class interesting and entertaining which helps quite a bit with all day training.
Ryan Speelman
Szkolenie - Spark for Developers
Przetłumaczone przez sztuczną inteligencję
We know a lot more about the whole environment.
John Kidd
Szkolenie - Spark for Developers
Przetłumaczone przez sztuczną inteligencję
Richard is very calm and methodical, with an analytic insight - exactly the qualities needed to present this sort of course.
Kieran Mac Kenna
Szkolenie - Spark for Developers
Przetłumaczone przez sztuczną inteligencję