Plan Szkolenia
DZIEŃ 1 - SZTUCZNE SIECI NEURONOWE
Wprowadzenie i struktura ANN.
- Neurony biologiczne i sztuczne neurony.
- Model ANN.
- Funkcje aktywacji używane w ANN.
- Typowe klasy architektur sieciowych.
Podstawy matematyczne i mechanizmy uczenia.
- Ponowne omówienie algebry wektorów i macierzy.
- Pojęcia przestrzeni stanów.
- Pojęcia optymalizacji.
- Uczenie z korekcją błędów.
- Uczenie oparte na pamięci.
- Uczenie Hebbowskie.
- Uczenie konkurencyjne.
Jednowarstwowe perceptrony.
- Struktura i uczenie perceptronów.
- Klasyfikator wzorców - wprowadzenie i klasyfikatory Bayesa.
- Perceptron jako klasyfikator wzorców.
- Zbieżność perceptronu.
- Ograniczenia perceptronów.
Jednokierunkowe ANN.
- Struktury wielowarstwowych sieci jednokierunkowych.
- Algorytm propagacji wstecznej.
- Propagacja wsteczna - trening i zbieżność.
- Przybliżenie funkcjonalne z propagacją wsteczną.
- Praktyczne i projektowe kwestie uczenia z propagacją wsteczną.
Sieci z radialnymi funkcjami bazowymi.
- Separowalność wzorców i interpolacja.
- Teoria regularyzacji.
- Regularyzacja i sieci RBF.
- Projektowanie i trening sieci RBF.
- Właściwości aproksymacyjne RBF.
Uczenie konkurencyjne i samoorganizujące się ANN.
- Ogólne procedury grupowania.
- Kwantyzacja wektorów uczących (LVQ).
- Algorytmy i architektury uczenia konkurencyjnego.
- Samoorganizujące się mapy cech.
- Właściwości map cech.
Sztuczne Sieci Neuronowe z elementami rozmytymi.
- Systemy neuro-rozmyte.
- Podstawy zbiorów i logiki rozmytej.
- Projektowanie systemów rozmytych.
- Projektowanie rozmytych ANN.
Zastosowania
- Kilka przykładów zastosowań Sieci Neuronowych, ich zalety i problemy zostaną omówione.
DZIEŃ 2 - UCZENIE MASZYNOWE
- Ramowy model uczenia PAC
- Gwarancje dla skończonych zbiorów hipotez – przypadek spójny
- Gwarancje dla skończonych zbiorów hipotez – przypadek niespójny
- Ogólności
- Scenariusze deterministyczne vs. stochastyczne
- Szum błędu Bayesa
- Błędy estymacji i aproksymacji
- Wybór modelu
- Złożoność Radmeachera i wymiar VC
- Kompromis między błędem a wariancją
- Regularyzacja
- Przeuczenie
- Walidacja
- Maszyny wektorów nośnych
- Kriging (regresja procesu Gaussa)
- PCA i Kernel PCA
- Samoorganizujące się mapy (SOM)
- Przestrzenie wektorowe indukowane jądrami
- Jądra Mercera i metryki podobieństwa indukowane jądrami
- Uczenie ze wzmocnieniem
DZIEŃ 3 - GŁĘBOKIE UCZENIE SIĘ
Będzie to nauczane w odniesieniu do tematów omówionych w Dniu 1 i Dniu 2
- Regresja logistyczna i Softmax
- Rzadkie autoenkodery
- Wektoryzacja, PCA i wybielanie
- Uczenie samodzielne
- Głębokie sieci
- Liniowe dekodery
- Konwolucja i łączenie
- Rzadkie kodowanie
- Analiza niezależnych składowych
- Analiza kanonicznej korelacji
- Demonstracje i zastosowania
Wymagania
Dobra znajomość matematyki.
Dobra znajomość podstaw statystyki.
Podstawowe umiejętności programowania nie są wymagane, ale zalecane.
Opinie uczestników (2)
Praca na podstawie pierwszych zasad w skoncentrowany sposób i przenoszenie się do stosowania studiów przypadków w tym samym dniu
Maggie Webb - Department of Jobs, Regions, and Precincts
Szkolenie - Artificial Neural Networks, Machine Learning, Deep Thinking
Przetłumaczone przez sztuczną inteligencję
It was very interactive and more relaxed and informal than expected. We covered lots of topics in the time and the trainer was always receptive to talking more in detail or more generally about the topics and how they were related. I feel the training has given me the tools to continue learning as opposed to it being a one off session where learning stops once you've finished which is very important given the scale and complexity of the topic.
Jonathan Blease
Szkolenie - Artificial Neural Networks, Machine Learning, Deep Thinking
Przetłumaczone przez sztuczną inteligencję