Plan Szkolenia

Wprowadzenie do uczenia przez wzmacnianie

  • Przegląd uczenia przez wzmacnianie i jego zastosowań
  • Różnice między uczeniem nadzorowanym, nienadzorowanym i przez wzmacnianie
  • Kluczowe pojęcia: agent, środowisko, nagrody i polityka

Procesy decyzyjne Markowa (MDPs)

  • Zrozumienie stanów, działań, nagród i przejść między stanami
  • Funkcje wartości i równanie Bellmana
  • Programowanie dynamiczne w rozwiązywaniu MDPs

Podstawowe algorytmy RL

  • Metody tabelaryczne: Q-Learning i SARSA
  • Metody oparte na polityce: algorytm REINFORCE
  • Frameworki Actor-Critic i ich zastosowania

Głębokie uczenie przez wzmacnianie

  • Wprowadzenie do Deep Q-Networks (DQN)
  • Powtórka doświadczeń i sieci docelowe
  • Gradienty polityki i zaawansowane metody głębokiego RL

Frameworki i narzędzia RL

  • Wprowadzenie do OpenAI Gym i innych środowisk RL
  • Użycie PyTorch lub TensorFlow do rozwoju modeli RL
  • Szkolenie, testowanie i benchmarkowanie agentów RL

Wyzwania w RL

  • Równowaga między eksploracją a eksploatacją w szkoleniu
  • Radzenie sobie z rzadkimi nagrodami i problemami przypisania zasług
  • Skalowalność i wyzwania obliczeniowe w RL

Praktyczne ćwiczenia

  • Implementacja algorytmów Q-Learning i SARSA od podstaw
  • Szkolenie agenta opartego na DQN do gry w prostą grę w OpenAI Gym
  • Dostrajanie modeli RL w celu poprawy wydajności w niestandardowych środowiskach

Podsumowanie i kolejne kroki

Wymagania

  • Solidne zrozumienie zasad i algorytmów uczenia maszynowego
  • Znajomość programowania w Pythonie
  • Znajomość sieci neuronowych i frameworków do uczenia głębokiego

Grupa docelowa

  • Inżynierowie uczenia maszynowego
  • Specjaliści AI
 14 godzin

Liczba uczestników


Cena za uczestnika

Propozycje terminów

Powiązane Kategorie