Plan Szkolenia

Wprowadzenie do uczenia wzmacniającego

  • Przegląd uczenia wzmacniającego i jego zastosowań
  • Różnice między uczaniem nadzorowanym, nie nadzorowanym a uczącym wzmacniającym
  • Kluczowe pojęcia: agent, środowisko, nagrody i polityka

Procesy Decyzyjne Markowa (MDPs)

  • Zrozumienie stanów, działań, nagród i przejść stanów
  • Funkcje wartości i równanie Bellmana
  • Programowanie dynamiczne do rozwiązywania MDPs

Podstawowe Algorytmy RL

  • Metody tablicowe: Q-Learning i SARSA
  • Metody opierające się na polityce: algorytm REINFORCE
  • Ramy Actor-Critic i ich zastosowania

Głębokie Uczenie Wzmacniające

  • Wprowadzenie do Deep Q-Networks (DQN)
  • Ponowne wykorzystanie doświadczeń i sieci docelowe
  • Gradienty polityki i zaawansowane metody głębokiego RL

Ramy i Narzędzia RL

  • Wprowadzenie do OpenAI Gym i innych środowisk RL
  • Używanie PyTorch lub TensorFlow do rozwijania modeli RL
  • Trenowanie, testowanie i benchmarkowanie agentów RL

Wyzwania w RL

  • Balansowanie eksploracji i eksploatacji podczas trenowania
  • Radzenie sobie z rzadkimi nagrodami i problemami przypisywania kredytu
  • Skalowalność i wyzwania obliczeniowe w RL

Aktywności Ręczne

  • Implementowanie algorytmów Q-Learning i SARSA od podstaw
  • Trenowanie agenta opierającego się na DQN do grania w prostą grę w OpenAI Gym
  • Dopasowywanie modeli RL dla poprawy wydajności w niestandardowych środowiskach

Podsumowanie i Kolejne Krok

Wymagania

  • Silne zrozumienie zasad uczenia maszynowego i algorytmów
  • Biegłość w programowaniu w języku Python
  • Zapoznanie z sieciami neuronowymi i ramami uczenia głębokiego

Uczestnicy

  • Inżynierowie uczenia maszynowego
  • Specjaliści od sztucznej inteligencji
 14 godzin

Liczba uczestników


cena netto za uczestnika

Opinie uczestników (1)

Propozycje terminów

Powiązane Kategorie