Plan Szkolenia

Wprowadzenie do zastosowanego uczenia maszynowego

  • Statystyczne uczenie vs. Uczenie maszynowe
  • Iteracja i ewaluacja
  • Zestawienie błędu i zróżnicowania (bias-variance trade-off)
  • Nadzorowane vs. Nienadzorowane uczenie
  • Problemy rozwiązane za pomocą uczenia maszynowego
  • Trening, walidacja i testowanie – workflow uczenia maszynowego w celu uniknięcia przetrenowania (overfitting)
  • Workflow uczenia maszynowego
  • Algorytmy uczenia maszynowego
  • Wybór odpowiedniego algorytmu dla problemu

Ewaluacja algorytmów

  • Ocena numerycznych przewidywań
    • Miary dokładności: ME, MSE, RMSE, MAPE
    • Stabilność parametrów i przewidywań
  • Ocena algorytmów klasyfikacyjnych
    • Dokładność i jej problemy
    • Macierz pomyłek (confusion matrix)
    • Problem niezbalansowanych klas
  • Wizualizacja wydajności modelu
    • Krzywa zysku (profit curve)
    • Krzywa ROC
    • Krzywa podniesienia (lift curve)
  • Wybór modelu
  • Optymalizacja modelu – strategie przeszukiwania siatki (grid search)

Przygotowanie danych do modelowania

  • Import i przechowywanie danych
  • Zrozumienie danych – podstawowe eksploracje
  • Manipulacja danymi za pomocą biblioteki pandas
  • Transformacje danych – praca z danymi (data wrangling)
  • Analiza eksploracyjna
  • Brakujące obserwacje – wykrywanie i rozwiązania
  • Odchylenia – wykrywanie i strategie
  • Standaryzacja, normalizacja, binarność (binarization)
  • Kodyfikacja danych jakościowych

Algorytmy uczenia maszynowego do wykrywania odstępstw (outliers)

  • Algorytmy nadzorowane
    • KNN (K-Nearest Neighbors)
    • Ensemble Gradient Boosting
    • SVM (Support Vector Machine)
  • Algorytmy nienadzorowane
    • Metody oparte na odległości
    • Metody oparte na gęstości
    • Metody probabilistyczne
    • Metody oparte na modelu

Zrozumienie głębokiego uczenia

  • Przegląd podstawowych koncepcji głębokiego uczenia
  • Różnica między uczeniem maszynowym a głębokim uczeniem
  • Przegląd zastosowań głębokiego uczenia

Przegląd sieci neuronowych

  • Co to są sieci neuronowe?
  • Sieci neuronowe vs. Modele regresyjne
  • Zrozumienie podstaw matematycznych i mechanizmów uczenia
  • Budowanie sztucznej sieci neuronowej
  • Zrozumienie węzłów neuralnych i połączeń
  • Praca z neuronami, warstwami i danymi wejściowymi oraz wyjściowymi
  • Zrozumienie perceptronów jednowarstwowych
  • Różnica między nadzorowanym a nienadzorowanym uczeniem
  • Uczenie sieci neuronowych typu feedforward i feedback
  • Zrozumienie propagacji w przód (forward propagation) i propagacji wstecznej (back propagation)

Tworzenie prostych modeli głębokiego uczenia za pomocą Kerasa

  • Tworzenie modelu w Kerasie
  • Zrozumienie swoich danych
  • Określenie modelu głębokiego uczenia
  • Kompilacja modelu
  • Dopasowanie modelu
  • Praca z danymi klasyfikacyjnymi
  • Praca z modelami klasyfikacyjnymi
  • Używanie modeli

Praca z TensorFlow w głębokim uczeniu

  • Przygotowanie danych
    • Pobieranie danych
    • Przygotowanie danych treningowych
    • Przygotowanie danych testowych
    • Skalowanie wejść (inputs)
    • Używanie zmiennych i placeholderów
  • Określenie architektury sieci
  • Używanie funkcji kosztu (cost function)
  • Używanie optymalizatora
  • Używanie inicializatorów
  • Dopasowanie sieci neuronowej
  • Budowanie grafu (graph)
    • Inferencja (inference)
    • Koszt (loss)
    • Trening
  • Trening modelu
    • Graf (graph)
    • Sesja (session)
    • Pętla treningowa (train loop)
  • Ocena modelu
    • Budowanie grafu oceny (eval graph)
    • Ocena z wyników oceny (eval output)
  • Trening modeli w skali
  • Wizualizacja i ocena modeli za pomocą TensorBoard

Zastosowanie głębokiego uczenia w wykrywaniu anomalii (anomaly detection)

  • Autoenkoder
    • Architektura enkodera-dekodera
    • Błąd rekonstrukcji (reconstruction loss)
  • Wariacyjny autoenkoder
    • Wariacyjna inferencja (variational inference)
  • Generatywna sieć wroga (Generative Adversarial Network, GAN)
    • Architektura generatora i dyskryminatora
    • Metody wykrywania anomalii za pomocą GAN

Ramy enseble'owe (ensemble frameworks)

  • Kombinacja wyników z różnych metod
  • Bootstrap Aggregating
  • Średnia ocena odstępstw (outlier score)

Wymagania

  • Doświadczenie w programowaniu Pythona
  • Podstawowa znajomość statystyki i matematycznych koncepcji

Publiczność

  • Programiści
  • Data scientists
 28 godzin

Liczba uczestników


Cena za uczestnika

Opinie uczestników (6)

Propozycje terminów

Powiązane Kategorie