Dziękujemy za wysłanie zapytania! Jeden z członków naszego zespołu skontaktuje się z Państwem wkrótce.
Dziękujemy za wysłanie rezerwacji! Jeden z członków naszego zespołu skontaktuje się z Państwem wkrótce.
Plan Szkolenia
Wprowadzenie:
- Apache Spark w ekosystemie Hadoop
- Krótkie wprowadzenie do Pythona i Scali
Podstawy (teoria):
- Architektura
- RDD
- Transformacje i akcje
- Etapy, zadania, zależności
Poznanie podstaw w środowisku Databricks (warsztaty praktyczne):
- Ćwiczenia z użyciem API RDD
- Podstawowe funkcje akcji i transformacji
- PairRDD
- Join
- Strategie buforowania
- Ćwiczenia z użyciem API DataFrame
- SparkSQL
- DataFrame: select, filter, group, sort
- UDF (User Defined Function)
- Zapoznanie się z API DataSet
- Przetwarzanie strumieniowe
Poznanie wdrożenia w środowisku AWS (warsztaty praktyczne):
- Podstawy AWS Glue
- Zrozumienie różnic między AWS EMR a AWS Glue
- Przykładowe zadania w obu środowiskach
- Zrozumienie zalet i wad
Dodatkowo:
- Wprowadzenie do orkiestracji Apache Airflow
Wymagania
Umiejętności programistyczne (najlepiej Python, Scala)
Podstawy SQL
21 godzin
Opinie uczestników (3)
Posiadanie sesji praktycznych / zadań
Poornima Chenthamarakshan - Intelligent Medical Objects
Szkolenie - Apache Spark in the Cloud
Przetłumaczone przez sztuczną inteligencję
1. Odpowiednia równowaga między poziomem konceptualnym a szczegółami technicznymi. 2. András bardzo dobrze zna się na swoim nauczaniu. 3. Ćwiczenie
Steven Wu - Intelligent Medical Objects
Szkolenie - Apache Spark in the Cloud
Przetłumaczone przez sztuczną inteligencję
Dowiedz się o strumieniowaniu Spark, Databricks i AWS Redshift
Lim Meng Tee - Jobstreet.com Shared Services Sdn. Bhd.
Szkolenie - Apache Spark in the Cloud
Przetłumaczone przez sztuczną inteligencję