Plan Szkolenia

Wprowadzenie do dostrajania DeepSeek LLM

  • Przegląd modeli DeepSeek, np. DeepSeek-R1 i DeepSeek-V3
  • Zrozumienie potrzeby dostrajania LLM
  • Porównanie dostrajania z inżynierią promptów

Przygotowanie zbioru danych do dostrajania

  • Tworzenie zbiorów danych specyficznych dla danej dziedziny
  • Techniki przetwarzania i czyszczenia danych
  • Tokenizacja i formatowanie zbioru danych dla DeepSeek LLM

Konfiguracja środowiska dostrajania

  • Konfiguracja przyspieszenia GPU i TPU
  • Konfiguracja Hugging Face Transformers z DeepSeek LLM
  • Zrozumienie hiperparametrów dostrajania

Dostrajanie DeepSeek LLM

  • Implementacja dostrajania nadzorowanego
  • Wykorzystanie LoRA (Low-Rank Adaptation) i PEFT (Parameter-Efficient Fine-Tuning)
  • Przeprowadzanie dostrajania rozproszonego dla dużych zbiorów danych

Ocena i optymalizacja dostrojonych modeli

  • Ocena wydajności modelu za pomocą metryk ewaluacyjnych
  • Zarządzanie overfittingiem i underfittingiem
  • Optymalizacja prędkości wnioskowania i efektywności modelu

Wdrażanie dostrojonych modeli DeepSeek

  • Pakowanie modeli do wdrożenia za pomocą API
  • Integracja dostrojonych modeli z aplikacjami
  • Skalowanie wdrożeń z wykorzystaniem chmury i edge computing

Praktyczne przypadki użycia i aplikacje

  • Dostrojone LLM dla finansów, opieki zdrowotnej i obsługi klienta
  • Studia przypadków zastosowań w branży
  • Etyczne aspekty modeli AI specyficznych dla danej dziedziny

Podsumowanie i kolejne kroki

Wymagania

  • Doświadczenie w zakresie uczenia maszynowego i frameworków deep learning
  • Znajomość transformerów i dużych modeli językowych (LLM)
  • Zrozumienie technik przetwarzania danych i trenowania modeli

Grupa docelowa

  • Badacze AI zajmujący się dostrajaniem LLM
  • Inżynierowie uczenia maszynowego rozwijający niestandardowe modele AI
  • Zaawansowani programiści implementujący rozwiązania oparte na AI
 21 godzin

Liczba uczestników


Cena za uczestnika

Propozycje terminów

Powiązane Kategorie