Plan Szkolenia

Nauczanie maszynowe

Wprowadzenie do Machine Learning

    Zastosowania uczenia maszynowego Uczenie nadzorowane i nienadzorowane Uczenie maszynowe Algorytmy Regresja Klasyfikacja Klastrowanie Zalecanie Wykrywanie anomalii systemowych Reinforcement Learning

Regresja

    Regresja prosta i wielokrotna Metoda najmniejszych kwadratów Estymacja współczynników Ocena dokładności estymacji współczynników Ocena dokładności modelu Analiza po estymacji Inne rozważania w modelach regresji Predyktory jakościowe Rozszerzenia modeli liniowych Potencjalne problemy Kompromis wariancji błędu systematycznego [niedopasowanie /over-fitting] dla modeli regresji

Metody ponownego próbkowania

    Walidacja krzyżowa Podejście zbioru walidacyjnego Pomiń jeden wynik Walidacja krzyżowa k-krotnie Walidacja krzyżowa Kompromis błędu systematycznego i wariancji dla k-krotnie Bootstrap

Wybór modelu i regularyzacja

    Wybór podzbioru [Wybór najlepszego podzbioru, Wybór krokowy, Wybór modelu optymalnego] Metody skurczu/regularyzacja [Regresja grzbietowa, Lasso i siatka elastyczna] Wybór parametru dostrajania Metody redukcji wymiarów Główne składowe Regresja Częściowe metodą najmniejszych kwadratów

Klasyfikacja

    Regresja logistyczna Funkcja kosztu modelu logistycznego Oszacowanie współczynników Dokonywanie prognoz Iloraz szans Macierze oceny wydajności [Czułość/specyficzność/PPV/NPV, precyzja, krzywa ROC itp.] Regresja wielokrotna logistyczna Regresja logistyczna dla > 2 klas odpowiedzi Uregulowana regresja logistyczna
Liniowa analiza dyskryminacyjna z wykorzystaniem twierdzenia Bayesa do klasyfikacji
  • Liniowa analiza dyskryminacyjna dla p=1
  • Liniowa analiza dyskryminacyjna dla p >1
  • Kwadratowa analiza dyskryminacyjna
  • K-najbliżsi sąsiedzi
  • Klasyfikacja z nieliniowymi granicami decyzyjnymi
  • Cel optymalizacji maszyn wektorowych
  • Klasyfikator maksymalnej marży
  • Jądra
  • Klasyfikacja jeden na jednego
  • Klasyfikacja „jeden kontra wszyscy”.
  • Porównanie metod klasyfikacji
  • Wprowadzenie do Deep Learning
  • Struktura ANN
  • Bioneurony logiczne i neurony sztuczne Nieliniowa hipoteza Reprezentacja modelu Przykłady i intuicje Funkcja transferu/funkcje aktywacji Typowe klasy architektur sieciowych
  • Podaj dalej ANN.

    Struktury wielowarstwowych sieci ze sprzężeniem zwrotnym Algorytm propagacji wstecznej Propagacja wsteczna - uczenie i konwergencja Aproksymacja funkcjonalna z propagacją wsteczną Zagadnienia praktyczne i projektowe uczenia się z propagacją wsteczną

      Deep Learning

    Sztuczna inteligencja i Deep Learning Regresja Softmax Uczenie się samouków Dema i aplikacje w głębokich sieciach

      Laboratorium:

    Pierwsze kroki z R

      Wprowadzenie do podstawowych poleceń i bibliotek języka R Manipulacja danymi Importowanie i eksportowanie danych Podsumowania graficzne i numeryczne Funkcje pisania

    Regresja

    Prosta i wielokrotna regresja liniowa Warunki interakcji Przekształcenia nieliniowe Regresja zmiennych fikcyjnych Walidacja krzyżowa i Bootstrap Metody wyboru podzbioru Penalizacja [Ridge, Lasso, Elastic Net]

      Klasyfikacja

    Regresja logistyczna, LDA, QDA i KNN, obsługa ponownego próbkowania i regularyzacji Ponowne próbkowanie i regularyzacja maszyn wektorowych

      Notatka:

    W przypadku algorytmów ML zostaną wykorzystane studia przypadków w celu omówienia ich zastosowania, zalet i potencjalnych problemów. Analiza różnych zbiorów danych zostanie przeprowadzona przy użyciu R

    Wymagania

    Pożądana jest podstawowa znajomość pojęć statystycznych.

     21 godzin

    Liczba uczestników



    Cena za uczestnika

    Opinie uczestników (5)

    Powiązane Kategorie