Plan Szkolenia

Wprowadzenie do Google Colab i Apache Spark

  • Przegląd Google Colab
  • Wprowadzenie do Apache Spark
  • Konfiguracja Spark w Google Colab

Przetwarzanie danych za pomocą Apache Spark

  • Praca z RDD i DataFrames
  • Wczytywanie i przetwarzanie dużych zbiorów danych
  • Używanie Spark SQL do zapytywania strukturowanych danych

Zaawansowana analiza z użyciem Spark

  • Maszynowe uczenie się z użyciem Spark MLlib
  • Przeprowadzanie analizy danych w czasie rzeczywistym
  • Obliczenia rozproszone z użyciem Spark

Wizualizacja i Collaboration w Google Colab

  • Integracja Colab z popularnymi bibliotekami wizualizacyjnymi
  • Współpracownicze przepływy pracy z notebookami Colab
  • Udostępnianie i eksportowanie wyników

Optymalizacja przepływów pracy Big Data

  • Dostosowywanie Spark do osiągnięcia optymalnej wydajności
  • Optymalizacja zużycia pamięci i przestrzeni dyskowej
  • Skalowanie przepływów pracy do dużych zbiorów danych

Big Data w Chmurze

  • Integracja Google Colab z narzędziami opartymi na chmurze
  • Używanie chmurowego przechowywania dla dużych danych
  • Praca z Spark w rozproszonym środowisku chmurowym

Studia przypadków i najlepsze praktyki

  • Przegląd realnych zastosowań dużych danych
  • Studia przypadków z użyciem Apache Spark i Colab
  • Najlepsze praktyki dla analizy dużych danych

Podsumowanie i kolejne kroki

Wymagania

  • Podstawowa wiedza na temat pojęć nauki o danych
  • Znajomość Apache Spark
  • Umiejętności programowania Python

Grupa docelowa

  • Naukowcy danych
  • Inżynierowie danych
  • Badacze pracujący z big data
 14 godzin

Liczba uczestników


cena netto za uczestnika

Opinie uczestników (5)

Propozycje terminów

Powiązane Kategorie