Plan Szkolenia

Wprowadzenie do dużej liczbie językowych modeli (LLMs)

  • Przegląd LLMs
  • Definicja i znaczenie
  • Zastosowania w dzisiejszej sztucznej inteligencji

Architektura Transformerów

  • Co to jest transformer i jak działa?
  • Główne składniki i cechy
  • Zagnieżdżanie i kodowanie pozycyjne
  • Wielogłowe uwaga
  • Sieć neuronowa z przewidywaniem do przodu
  • Normalizacja i połączenia rezidualne

Modele Transformerów

  • Mechanizm samouwagi
  • Architektura kodera-dekodera
  • Zagnieżdżenia pozycyjne
  • BERT (Bidirectional Encoder Representations from Transformers)
  • GPT (Generative Pretrained Transformer)

Optymalizacja wydajności i pułapki

  • Długość kontekstu
  • Modele Mamba i przestrzeni stanowej
  • Błyskawiczna uwaga
  • Rzadkie transformatory
  • Transformatory wizualne
  • Znaczenie kwantyzacji

Poprawianie Transformerów

  • Generowanie tekstu z wzbogaconą pamięcią
  • Mieszanka modeli
  • Drzewo myśli

Dostrajanie

  • Teoria adaptacji o niskim stopniu
  • Dostrajanie z QLora

Prawo skali i optymalizacja w LLMs

  • Znaczenie prawa skali dla LLMs
  • Skalowanie danych i rozmiaru modelu
  • Skalowanie obliczeniowe
  • Skalowanie efektywności parametrów

Optymalizacja

  • Zależność między rozmiarem modelu, rozmiarem danych, budżetem obliczeniowym i wymaganiami wnioskowania
  • Optymalizowanie wydajności i efektywności LLMs
  • Najlepsze praktyki i narzędzia do szkolenia i dostrajania LLMs

Szkolenie i dostrajanie LLMs

  • Kroki i wyzwania związane ze szkoleniem LLMs od podstaw
  • Nabywanie i utrzymywanie danych
  • Wymagania dotyczące dużej ilości danych, CPU i pamięci
  • Wyzwania optymalizacyjne
  • Krajobraz otwartych źródeł LLMs

Podstawy uczenia się przez wzmocnienie (RL)

  • Wprowadzenie do uczenia się przez wzmocnienie
  • Uczenie się poprzez pozytywne wzmocnienie
  • Definicja i podstawowe pojęcia
  • Markov Decision Process (MDP)
  • Programowanie dynamiczne
  • Metody Monte Carlo
  • Uczenie się różnicy czasowej

Głębokie uczenie się przez wzmocnienie

  • Głębokie sieci Q (DQN)
  • Proksymalna optymalizacja polityki (PPO)
  • Elementy uczenia się przez wzmocnienie

Integracja LLMs i uczenia się przez wzmocnienie

  • Łączenie LLMs z uczeniem się przez wzmocnienie
  • Jak RL jest używane w LLMs
  • Uczenie się przez wzmocnienie z opinią człowieka (RLHF)
  • Alternatywy dla RLHF

Przypadki użycia i zastosowania

  • Zastosowania w rzeczywistym świecie
  • Sukcesy i wyzwania

Zaawansowane tematy

  • Zaawansowane techniki
  • Zaawansowane metody optymalizacji
  • Najnowsze badania i rozwój

Podsumowanie i kolejne kroki

Wymagania

  • Podstawowa wiedza o uczeniu maszynowym

Grupa docelowa

  • Naukowcy danych
  • Inżynierowie oprogramowania
 21 godzin

Liczba uczestników


cena netto za uczestnika

Propozycje terminów

Powiązane Kategorie