Plan Szkolenia

Wprowadzenie

  • Przegląd funkcji i architektury Spark i Hadoop
  • Zrozumienie dużych zbiorów danych
  • Podstawy programowania w Pythonie

Rozpoczęcie pracy

  • Konfiguracja Python, Spark i Hadoop
  • Zrozumienie struktur danych w Pythonie
  • Zrozumienie interfejsu PySpark API
  • Zrozumienie HDFS i MapReduce

Integracja Spark i Hadoop z Pythonem

  • Implementacja Spark RDD w Pythonie
  • Przetwarzanie danych za pomocą MapReduce
  • Tworzenie rozproszonych zbiorów danych w HDFS

Uczenie maszynowe z Spark MLlib

Przetwarzanie dużych zbiorów danych z Spark Streaming

Praca z systemami rekomendacyjnymi

Praca z Kafka, Sqoop, Kafka i Flume

Apache Mahout z Spark i Hadoop

Rozwiązywanie problemów

Podsumowanie i kolejne kroki

Wymagania

  • Doświadczenie w pracy z Spark i Hadoop
  • Doświadczenie w programowaniu w Pythonie

Grupa docelowa

  • Naukowcy zajmujący się danymi
  • Programiści
 21 godzin

Liczba uczestników


Cena za uczestnika

Opinie uczestników (3)

Propozycje terminów

Powiązane Kategorie