Plan Szkolenia

DZIEŃ 1 - SZTUCZNE SIECI NEURONOWE

Wprowadzenie i struktura ANN.

  • Neurony biologiczne i sztuczne neurony.
  • Model ANN.
  • Funkcje aktywacji używane w ANN.
  • Typowe klasy architektur sieciowych.

Podstawy matematyczne i mechanizmy uczenia.

  • Ponowne omówienie algebry wektorów i macierzy.
  • Pojęcia przestrzeni stanów.
  • Pojęcia optymalizacji.
  • Uczenie z korekcją błędów.
  • Uczenie oparte na pamięci.
  • Uczenie Hebbowskie.
  • Uczenie konkurencyjne.

Jednowarstwowe perceptrony.

  • Struktura i uczenie perceptronów.
  • Klasyfikator wzorców - wprowadzenie i klasyfikatory Bayesa.
  • Perceptron jako klasyfikator wzorców.
  • Zbieżność perceptronu.
  • Ograniczenia perceptronów.

Jednokierunkowe ANN.

  • Struktury wielowarstwowych sieci jednokierunkowych.
  • Algorytm propagacji wstecznej.
  • Propagacja wsteczna - trening i zbieżność.
  • Przybliżenie funkcjonalne z propagacją wsteczną.
  • Praktyczne i projektowe kwestie uczenia z propagacją wsteczną.

Sieci z radialnymi funkcjami bazowymi.

  • Separowalność wzorców i interpolacja.
  • Teoria regularyzacji.
  • Regularyzacja i sieci RBF.
  • Projektowanie i trening sieci RBF.
  • Właściwości aproksymacyjne RBF.

Uczenie konkurencyjne i samoorganizujące się ANN.

  • Ogólne procedury grupowania.
  • Kwantyzacja wektorów uczących (LVQ).
  • Algorytmy i architektury uczenia konkurencyjnego.
  • Samoorganizujące się mapy cech.
  • Właściwości map cech.

Sztuczne Sieci Neuronowe z elementami rozmytymi.

  • Systemy neuro-rozmyte.
  • Podstawy zbiorów i logiki rozmytej.
  • Projektowanie systemów rozmytych.
  • Projektowanie rozmytych ANN.

Zastosowania

  • Kilka przykładów zastosowań Sieci Neuronowych, ich zalety i problemy zostaną omówione.

DZIEŃ 2 - UCZENIE MASZYNOWE

  • Ramowy model uczenia PAC
    • Gwarancje dla skończonych zbiorów hipotez – przypadek spójny
    • Gwarancje dla skończonych zbiorów hipotez – przypadek niespójny
    • Ogólności
      • Scenariusze deterministyczne vs. stochastyczne
      • Szum błędu Bayesa
      • Błędy estymacji i aproksymacji
      • Wybór modelu
  • Złożoność Radmeachera i wymiar VC
  • Kompromis między błędem a wariancją
  • Regularyzacja
  • Przeuczenie
  • Walidacja
  • Maszyny wektorów nośnych
  • Kriging (regresja procesu Gaussa)
  • PCA i Kernel PCA
  • Samoorganizujące się mapy (SOM)
  • Przestrzenie wektorowe indukowane jądrami
    • Jądra Mercera i metryki podobieństwa indukowane jądrami
  • Uczenie ze wzmocnieniem

DZIEŃ 3 - GŁĘBOKIE UCZENIE SIĘ

Będzie to nauczane w odniesieniu do tematów omówionych w Dniu 1 i Dniu 2

  • Regresja logistyczna i Softmax
  • Rzadkie autoenkodery
  • Wektoryzacja, PCA i wybielanie
  • Uczenie samodzielne
  • Głębokie sieci
  • Liniowe dekodery
  • Konwolucja i łączenie
  • Rzadkie kodowanie
  • Analiza niezależnych składowych
  • Analiza kanonicznej korelacji
  • Demonstracje i zastosowania

Wymagania

Dobra znajomość matematyki.

Dobra znajomość podstaw statystyki.

Podstawowe umiejętności programowania nie są wymagane, ale zalecane.

 21 godzin

Liczba uczestników


Cena za uczestnika (netto)

Opinie uczestników (2)

Propozycje terminów

Powiązane Kategorie