Plan Szkolenia

Wprowadzenie do Google Colab i Apache Spark

  • Przegląd Google Colab
  • Wprowadzenie do Apache Spark
  • Konfiguracja Spark w Google Colab

Przetwarzanie danych z Apache Spark

  • Praca z RDD i DataFrames
  • Ładowanie i przetwarzanie dużych zbiorów danych
  • Używanie Spark SQL do zapytań na danych strukturalnych

Zaawansowana analiza z Spark

  • Uczenie maszynowe z Spark MLlib
  • Analiza danych w czasie rzeczywistym
  • Obliczenia rozproszone z Spark

Wizualizacja i współpraca w Google Colab

  • Integracja Colab z popularnymi bibliotekami do wizualizacji
  • Współpraca z wykorzystaniem notatników Colab
  • Udostępnianie i eksportowanie wyników

Optymalizacja przepływów pracy z dużymi danymi

  • Dostrajanie Spark pod kątem wydajności
  • Optymalizacja wykorzystania pamięci i przestrzeni dyskowej
  • Skalowanie przepływów pracy dla dużych zbiorów danych

Duże dane w chmurze

  • Integracja Google Colab z narzędziami chmurowymi
  • Korzystanie z chmury do przechowywania dużych zbiorów danych
  • Praca z Spark w rozproszonych środowiskach chmurowych

Studia przypadków i najlepsze praktyki

  • Przegląd rzeczywistych zastosowań dużych zbiorów danych
  • Studia przypadków z wykorzystaniem Apache Spark i Colab
  • Najlepsze praktyki w analizie dużych zbiorów danych

Podsumowanie i kolejne kroki

Wymagania

  • Podstawowa znajomość koncepcji związanych z nauką o danych
  • Znajomość Apache Spark
  • Umiejętności programowania w Pythonie

Odbiorcy

  • Naukowcy zajmujący się danymi
  • Inżynierowie danych
  • Badacze pracujący z dużymi zbiorami danych
 14 godzin

Liczba uczestników


Cena za uczestnika (netto)

Opinie uczestników (2)

Propozycje terminów

Powiązane Kategorie