Plan Szkolenia
Wprowadzenie
- Przegląd funkcji i architektury Spark i Hadoop
- Zrozumienie dużych zbiorów danych
- Podstawy programowania Python
Pierwsze kroki
- Konfiguracja Python, Spark i Hadoop
- Zrozumienie struktur danych w Python
- Zrozumienie interfejsu API PySpark
- Zrozumienie HDFS i MapReduce
Integracja Sparka i Hadoop z Python
- Wdrażanie Spark RDD w Python
- Przetwarzanie danych przy użyciu MapReduce
- Tworzenie rozproszonych zbiorów danych w HDFS
Przetwarzanie Machine Learning za pomocą Spark MLlib
Przetwarzanie Big Data z Spark Streaming
Praca z systemami rekomendacji
Praca z Kafką, Sqoop, Kafką i Flume
Apache Mahout ze Spark i Hadoop
Rozwiązywanie problemów
Podsumowanie i kolejne kroki
Wymagania
- Doświadczenie ze Sparkiem i Hadoop
- Python doświadczenie w programowaniu
Uczestnicy
- Naukowcy zajmujący się danymi
- Programiści
Opinie uczestników (3)
Tozsamość tego, że udało nam się zabrać większość informacji/zawartości/prezentacji/cwiczeń, abyśmy mogli je przejrzeć i możliwe redokonać to, co nie było nam początkowo jasne, lub poprawić to, co już wykonaliśmy.
Raul Mihail Rat - Accenture Industrial SS
Szkolenie - Python, Spark, and Hadoop for Big Data
Przetłumaczone przez sztuczną inteligencję
Podobało mi się, że udało mu się ułożyć fundamenty tematu i przejść do znacznie zaawansowanych ćwiczeń. Ponadto udostępnił łatwe sposoby na pisanie i testowanie kodu.
Ionut Goga - Accenture Industrial SS
Szkolenie - Python, Spark, and Hadoop for Big Data
Przetłumaczone przez sztuczną inteligencję
Przykłady w czasie rzeczywistym
Ahmet Bolat - Accenture Industrial SS
Szkolenie - Python, Spark, and Hadoop for Big Data
Przetłumaczone przez sztuczną inteligencję