Thank you for sending your enquiry! One of our team members will contact you shortly.
Thank you for sending your booking! One of our team members will contact you shortly.
Plan Szkolenia
DZIEŃ 1 - SZTUCZNE SIECI NEURONOWE
Wprowadzenie i struktura ANN.
- [Neurony logiczne i sztuczne neurony.
- Model sieci neuronowej.
- Funkcje aktywacji stosowane w sieciach neuronowych.
- Typowe klasy architektur sieciowych.
[Podstawy i mechanizmy uczenia się.
- Ponowny przegląd algebry wektorów i macierzy.
- Koncepcje przestrzeni stanów.
- Koncepcje optymalizacji.
- Uczenie z korekcją błędów.
- Uczenie się oparte na pamięci.
- Uczenie hebbowskie.
- Uczenie konkurencyjne.
Perceptrony jednowarstwowe.
- Struktura i uczenie się perceptronów.
- Klasyfikator wzorców - wprowadzenie i klasyfikatory Bayesa.
- Perceptron jako klasyfikator wzorców.
- Zbieżność perceptronów.
- Ograniczenia perceptronów.
Sieci ANN typu feedforward.
- Struktury wielowarstwowych sieci typu feedforward.
- Algorytm wstecznej propagacji.
- Propagacja wsteczna - szkolenie i zbieżność.
- Aproksymacja funkcjonalna z wykorzystaniem propagacji wstecznej.
- Kwestie praktyczne i projektowe uczenia z propagacją wsteczną.
Sieci radialnych funkcji bazowych.
- Separowalność wzorców i interpolacja.
- Teoria regularyzacji.
- Regularyzacja i sieci RBF.
- Projektowanie i uczenie sieci RBF.
- Właściwości aproksymacyjne RBF.
Konkurencyjne uczenie się i samoorganizująca się sieć ANN.
- Ogólne procedury grupowania.
- Kwantyzacja wektorów uczących (LVQ).
- Algorytmy i architektury uczenia konkurencyjnego.
- Samoorganizujące się mapy cech.
- Właściwości map cech.
Fuzzy Neural Networks.
- Systemy neuro-rozmyte.
- Podstawy zbiorów rozmytych i logiki rozmytej.
- Projektowanie łodyg rozmytych.
- Projektowanie rozmytych sieci neuronowych.
Zastosowania
- Omówionych zostanie kilka przykładów zastosowań sieci neuronowych, ich zalety i problemy.
DZIEŃ -2 UCZENIE MASZYNOWE
- Struktura uczenia PAC
- Gwarancje dla skończonego zbioru hipotez - przypadek spójny
- Gwarancje dla skończonego zbioru hipotez - przypadek niespójny
- Uogólnienia
- Scenariusze deterministyczne cv. Scenariusze stochastyczne
- Szum błędu Bayesa
- Błędy estymacji i przybliżenia
- Wybór modelu
- Złożoność i VC Radmeachera - Wymiar
- Kompromis między odchyleniem a wariancją
- Regulacja
- Nadmierne dopasowanie
- Walidacja
- Maszyny wektorów nośnych
- Kriging (regresja procesu gaussowskiego)
- PCA i Kernel PCA
- Samoorganizujące się mapy (SOM)
- Przestrzeń wektorowa indukowana jądrem
- Jądra Mercera i indukowane jądrem metryki podobieństwa
- Reinforcement Learning
DZIEŃ 3 - UCZENIE GŁĘBOKIE
Będzie to nauczane w odniesieniu do tematów omówionych w Dniu 1 i Dniu 2
- Regresja logistyczna i Softmax
- Autokodery rzadkie
- Wektoryzacja, PCA i wybielanie
- Samodzielne uczenie się
- Sieci głębokie
- Dekodery liniowe
- Konwolucja i łączenie
- Kodowanie rzadkie
- Analiza niezależnych komponentów
- Analiza korelacji kanonicznej
- Demonstracje i zastosowania
Wymagania
Good rozumienia matematyki.
Good zrozumienia podstawowych statystyk.
Podstawowe umiejętności programowania nie są wymagane, ale zalecane.
21 godzin