Plan Szkolenia

DZIEŃ 1 - SZTUCZNE SIECI NEURONOWE

Wprowadzenie i struktura SSN.

    Bioneurony logiczne i neurony sztuczne. Model SSN. Funkcje aktywacji stosowane w SSN. Typowe klasy architektur sieciowych.

Mathematical Podstawy i mechanizmy uczenia się.

    Ponowne spojrzenie na algebrę wektorów i macierzy. Koncepcje przestrzeni stanów. Koncepcje optymalizacji. Uczenie się z korekcją błędów. Uczenie się oparte na pamięci. Nauka Hebba. Konkurencyjne uczenie się.

Perceptrony jednowarstwowe.

    Struktura i uczenie się perceptronów. Klasyfikator wzorców - wprowadzenie i klasyfikatory Bayesa. Perceptron jako klasyfikator wzorców. Zbieżność perceptronu. Ograniczenia perceptronów.

Prześlij dalej ANN.

    Struktury wielowarstwowych sieci wyprzedzających. Algorytm propagacji wstecznej. Propagacja wsteczna - uczenie i konwergencja. Aproksymacja funkcjonalna z propagacją wsteczną. Zagadnienia praktyczne i projektowe uczenia się z propagacją wsteczną.

Radialne sieci funkcji bazowych.

    Rozdzielność wzorców i interpolacja. Teoria regularyzacji. Regularyzacja i sieci RBF. Projektowanie i szkolenie sieci RBF. Aproksymacyjne właściwości RBF.

Konkurencyjne uczenie się i samoorganizowanie się ANN.

    Ogólne procedury grupowania. Uczenie się kwantyzacji wektorów (LVQ). Algorytmy i architektury konkurencyjnego uczenia się. Samoorganizujące się mapy obiektów. Właściwości map obiektów.

Rozmyte Neural Networks.

    Systemy neurorozmyte. Tło zbiorów rozmytych i logiki. Projekt rozmytych łodyg. Projektowanie rozmytych SSN.

Aplikacje

    Omówionych zostanie kilka przykładów zastosowań sieci neuronowych, ich zalety i problemy.

DZIEŃ -2 Uczenie maszynowe

    Ramy uczenia się PAC Gwarancje dla skończonego zestawu hipotez – przypadek spójny Gwarancje dla skończonego zestawu hipotez – przypadek niespójny Ogólne Deterministyczne cv. Scenariusze stochastyczne Szum błędu Bayesa Błędy estymacji i aproksymacji Wybór modelu
Złożoność Radmeachera i VC – wymiarOdchylenie – kompromis wariancji
  • Regularyzacja
  • Nadmierne dopasowanie
  • Walidacja
  • Wsparcie maszyn wektorowych
  • Kriging (regresja procesu Gaussa)
  • PCA i Kernel PCA
  • Mapy samoorganizacji (SOM)
  • Przestrzeń wektorowa indukowana przez jądro Mercer Kernels i metryki podobieństwa indukowane przez jądro
  • Reinforcement Learning
  • DZIEŃ 3 - GŁĘBOKA NAUKA
  • Będzie to nauczane w odniesieniu do tematów omawianych w dniu 1 i dniu 2
  • Regresja logistyczna i Softmax Rzadkie autoenkodery Wektoryzacja, PCA i wybielanie Uczenie się samouków Głębokie sieci Dekodery liniowe Splot i łączenie Kodowanie rzadkie Analiza niezależnych komponentów Analiza korelacji kanonicznej Dema i aplikacje
  • Wymagania

    Dobre zrozumienie matematyki.

    Good zrozumienia podstawowych statystyk.

    Podstawowe umiejętności programowania nie są wymagane, ale zalecane.

     21 godzin

    Liczba uczestników



    Cena za uczestnika (netto)

    Opinie uczestników (2)

    Powiązane Kategorie