Plan Szkolenia

Wprowadzenie do konteneryzacji z akceleracją GPU

  • Zrozumienie wykorzystania GPU w przepływach pracy uczenia głębokiego
  • Jak Docker wspiera obciążenia oparte na GPU
  • Kluczowe zagadnienia dotyczące wydajności

Instalacja i konfiguracja NVIDIA Container Toolkit

  • Konfiguracja sterowników i kompatybilności CUDA
  • Weryfikacja dostępu do GPU w kontenerach
  • Konfiguracja środowiska uruchomieniowego

Budowanie obrazów Docker z obsługą GPU

  • Korzystanie z podstawowych obrazów CUDA
  • Pakowanie frameworków AI w kontenery gotowe do pracy z GPU
  • Zarządzanie zależnościami dla treningu i wnioskowania

Uruchamianie obciążeń AI z akceleracją GPU

  • Wykonywanie zadań treningowych z wykorzystaniem GPU
  • Zarządzanie obciążeniami na wielu GPU
  • Monitorowanie wykorzystania GPU

Optymalizacja wydajności i alokacji zasobów

  • Ograniczanie i izolowanie zasobów GPU
  • Optymalizacja pamięci, rozmiarów partii i rozmieszczenia urządzeń
  • Strojenie wydajności i diagnostyka

Zkonteneryzowane wnioskowanie i obsługa modeli

  • Budowanie kontenerów gotowych do wnioskowania
  • Obsługa dużych obciążeń na GPU
  • Integracja modeli runnerów i API

Skalowanie obciążeń GPU z Dockerem

  • Strategie dla rozproszonego treningu na GPU
  • Skalowanie mikrousług do wnioskowania
  • Koordynacja wielokontenerowych systemów AI

Bezpieczeństwo i niezawodność kontenerów z obsługą GPU

  • Zapewnienie bezpiecznego dostępu do GPU w środowiskach współdzielonych
  • Zabezpieczanie obrazów kontenerów
  • Zarządzanie aktualizacjami, wersjami i kompatybilnością

Podsumowanie i kolejne kroki

Wymagania

  • Zrozumienie podstaw uczenia głębokiego
  • Doświadczenie w Pythonie i popularnych frameworkach AI
  • Znajomość podstawowych pojęć związanych z konteneryzacją

Odbiorcy

  • Inżynierowie uczenia głębokiego
  • Zespoły badawczo-rozwojowe
  • Trenerzy modeli AI
 21 godzin

Liczba uczestników


Cena za uczestnika

Opinie uczestników (5)

Propozycje terminów

Powiązane Kategorie