Plan Szkolenia

Wprowadzenie do dostosowywania modeli DeepSeek LLM

  • Przegląd modeli DeepSeek, np. DeepSeek-R1 i DeepSeek-V3
  • Zrozumienie potrzeby dostosowywania LLMs
  • Porównanie dostosowywania vs. inżynierii promptów

Przygotowanie zestawu danych do dostosowywania

  • Gromadzenie zbiorów danych z określonych dziedzin
  • Techniki przygotowania i czyszczenia danych
  • Tokenizacja i formatowanie zbiorów danych dla DeepSeek LLM

Konfiguracja środowiska do dostosowywania

  • Konfiguracja przyspieszenia GPU i TPU
  • Konfiguracja Hugging Face Transformers z DeepSeek LLM
  • Zrozumienie hiperparametrów do dostosowywania

Dostosowywanie DeepSeek LLM

  • Wdrażanie nadzorowanego dostosowywania
  • Używanie LoRA (Low-Rank Adaptation) i PEFT (Parameter-Efficient Fine-Tuning)
  • Wdrażanie dystrybuowanego dostosowywania dla dużych zbiorów danych

Ocenianie i optymalizowanie dostosowanych modeli

  • Ocenianie wydajności modeli za pomocą metryk
  • Radzenie sobie z przeuczaniem i niedouczaniem
  • Optymalizowanie szybkości inferencji i wydajności modelu

Wdrażanie dostosowanych modeli DeepSeek

  • Pakowanie modeli do wdrażania API
  • Integrowanie dostosowanych modeli w aplikacje
  • Skalowanie wdrażania z chmurą i obliczeniami na krawędzi

Praktyczne zastosowania i aplikacje

  • Dostosowane LLMs dla finansów, opieki zdrowotnej i obsługi klienta
  • Studia przypadku zastosowań przemysłowych
  • Zasadnicze uwagi dotyczące modeli AI specjalistycznych

Podsumowanie i kolejne kroki

Wymagania

  • Doświadczenie z ramami uczenia maszynowego i uczenia głębokiego
  • Znałość transformerów i dużych modeli językowych (LLMs)
  • Zrozumienie technik przetwarzania danych i szkolenia modeli

Grupa docelowa

  • Badacze sztucznej inteligencji badający dopasowanie LLM
  • Inżynierowie uczenia maszynowego rozwijający niestandardowe modele AI
  • Zaawansowani deweloperzy wdrażający rozwiązania napędzane AI
 21 godzin

Liczba uczestników


cena netto za uczestnika

Propozycje terminów

Powiązane Kategorie