Plan Szkolenia

Wprowadzenie do Google Colab i Apache Spark

  • Przegląd programu Google Colab
  • Wprowadzenie do Apache Spark
  • Konfiguracja Sparka w Google Colab

Przetwarzanie danych za pomocą Apache Spark

  • Praca z RDD i DataFrames
  • Ładowanie i przetwarzanie dużych zbiorów danych
  • Używanie Spark SQL do tworzenia zapytań dotyczących danych strukturalnych

Zaawansowana analityka z wykorzystaniem Sparka

  • Uczenie maszynowe za pomocą Spark MLlib
  • Przeprowadzanie analizy danych w czasie rzeczywistym
  • Obliczenia rozproszone z wykorzystaniem Spark

Wizualizacja i Collaboration w Google Colab

  • Integracja programu Colab z popularnymi bibliotekami wizualizacji
  • Wspólne przepływy pracy z notatnikami Colab
  • Udostępnianie i eksportowanie wyników

Optymalizacja Big Data przepływów pracy

  • Dostrajanie Sparka pod kątem wydajności
  • Optymalizacja wykorzystania pamięci i magazynu
  • Skalowanie przepływów pracy dla dużych zbiorów danych

Big Data w chmurze

  • Integracja Google Colab z narzędziami opartymi na chmurze
  • Korzystanie z pamięci masowej w chmurze dla dużych zbiorów danych
  • Praca ze Sparkiem w rozproszonych środowiskach chmurowych

Studia przypadków i najlepsze praktyki

  • Przegląd rzeczywistych aplikacji big data
  • Studia przypadków z wykorzystaniem Apache Spark i Colab
  • Najlepsze praktyki w zakresie analizy dużych zbiorów danych

Podsumowanie i kolejne kroki

Wymagania

  • Podstawowa znajomość koncepcji nauki o danych
  • Znajomość Apache Spark
  • Python umiejętności programowania

Uczestnicy

  • Naukowcy zajmujący się danymi
  • Inżynierowie danych
  • Badacze pracujący z dużymi zbiorami danych
 14 godzin

Liczba uczestników


cena netto za uczestnika

Opinie uczestników (5)

Propozycje terminów

Powiązane Kategorie