Plan Szkolenia

Wprowadzenie

  • Przegląd funkcji i architektury Spark i Hadoop
  • Zrozumienie dużych zbiorów danych
  • Podstawy programowania Python

Pierwsze kroki

  • Konfiguracja Python, Spark i Hadoop
  • Zrozumienie struktur danych w Python
  • Zrozumienie interfejsu API PySpark
  • Zrozumienie HDFS i MapReduce

Integracja Sparka i Hadoop z Python

  • Wdrażanie Spark RDD w Python
  • Przetwarzanie danych przy użyciu MapReduce
  • Tworzenie rozproszonych zbiorów danych w HDFS

Przetwarzanie Machine Learning za pomocą Spark MLlib

Przetwarzanie Big Data z Spark Streaming

Praca z systemami rekomendacji

Praca z Kafką, Sqoop, Kafką i Flume

Apache Mahout ze Spark i Hadoop

Rozwiązywanie problemów

Podsumowanie i kolejne kroki

Wymagania

  • Doświadczenie ze Sparkiem i Hadoop
  • Python doświadczenie w programowaniu

Uczestnicy

  • Naukowcy zajmujący się danymi
  • Programiści
 21 godzin

Liczba uczestników


cena netto za uczestnika

Opinie uczestników (3)

Propozycje terminów

Powiązane Kategorie