Plan Szkolenia

Szybki przegląd

  • Źródła danych
  • Przetwarzanie danych
  • Systemy rekomendacyjne
  • Targetowanie marketingowe

Typy danych

  • Strukturyzowane vs nieustrukturyzowane
  • Statyczne vs strumieniowe
  • Dane behawioralne, demograficzne i postawowe
  • Analityka oparta na danych vs oparta na użytkownikach
  • Ważność danych
  • Objętość, szybkość i różnorodność danych

Modele

  • Tworzenie modeli
  • Modele statystyczne
  • Uczenie maszynowe

Klasyfikacja danych

  • Grupowanie
  • kGrupy, k-średnie, najbliżsi sąsiedzi
  • Kolonie mrówek, stada ptaków

Modele predykcyjne

  • Drzewa decyzyjne
  • Maszyny wektorów nośnych
  • Klasyfikacja Naive Bayes
  • Sieci neuronowe
  • Model Markowa
  • Regresja
  • Metody zespołowe

ROI

  • Stosunek korzyści do kosztów
  • Koszt oprogramowania
  • Koszt rozwoju
  • Potencjalne korzyści

Tworzenie modeli

  • Przygotowanie danych (MapReduce)
  • Czyszczenie danych
  • Wybór metod
  • Rozwijanie modelu
  • Testowanie modelu
  • Ocena modelu
  • Wdrażanie i integracja modelu

Przegląd oprogramowania open source i komercyjnego

  • Wybór pakietów R-project
  • Biblioteki Pythona
  • Hadoop i Mahout
  • Wybrane projekty Apache związane z Big Data i analityką
  • Wybrane rozwiązania komercyjne
  • Integracja z istniejącym oprogramowaniem i źródłami danych

Wymagania

Zrozumienie tradycyjnych metod zarządzania i analizy danych, takich jak SQL, hurtownie danych, business intelligence, OLAP itp. Zrozumienie podstaw statystyki i prawdopodobieństwa (średnia, wariancja, prawdopodobieństwo, prawdopodobieństwo warunkowe itp.).

 21 godzin

Liczba uczestników


Cena za uczestnika

Opinie uczestników (4)

Propozycje terminów

Powiązane Kategorie