Dziękujemy za wysłanie zapytania! Jeden z członków naszego zespołu skontaktuje się z Państwem wkrótce.
Dziękujemy za wysłanie rezerwacji! Jeden z członków naszego zespołu skontaktuje się z Państwem wkrótce.
Plan Szkolenia
Wstęp:
- Apache Spark w Hadoop Ekosystem
- Krótkie wprowadzenie do Pythona, Scala
Podstawy (teoria):
- Architektura
- RDD
- Transformacja i działania
- Etap, zadanie, zależności
Korzystanie ze środowiska Databricks pozwala zrozumieć podstawy (warsztat praktyczny):
- Ćwiczenia z wykorzystaniem RDD API
- Podstawowe funkcje akcji i transformacji
- ParaRDD
- Dołączyć
- Strategie buforowania
- Ćwiczenia z wykorzystaniem DataFrame API
- IskraSQL
- DataFrame: wybierz, filtruj, grupuj, sortuj
- UDF (funkcja zdefiniowana przez użytkownika)
- Patrząc na API DataSet
- Transmisja strumieniowa
Korzystanie ze środowiska AWS obejmuje zrozumienie wdrożenia (warsztat praktyczny):
- Podstawy kleju AWS
- Poznaj różnice między AWS EMR i AWS Glue
- Przykładowe zadania w obu środowiskach
- Zrozum zalety i wady
Dodatkowy:
- Wprowadzenie do orkiestracji Apache Airflow.
Wymagania
Umiejętność programowania (najlepiej w języku python, scala)
Podstawy SQL
21 godzin
Opinie uczestników (3)
Having hands on session / assignments
Poornima Chenthamarakshan - Intelligent Medical Objects
Szkolenie - Apache Spark in the Cloud
1. Right balance between high level concepts and technical details. 2. Andras is very knowledgeable about his teaching. 3. Exercise
Steven Wu - Intelligent Medical Objects
Szkolenie - Apache Spark in the Cloud
Get to learn spark streaming , databricks and aws redshift