Plan Szkolenia

Przegląd chińskiego ekosystemu AI GPU

  • Porównanie Huawei Ascend, Biren, Cambricon MLU
  • CUDA vs CANN, Biren SDK i modele BANGPy
  • Trendy branżowe i ekosystemy dostawców

Przygotowanie do Migracji

  • Ocena bazy kodowej CUDA
  • Wybieranie platform docelowych i wersji SDK
  • Instalacja łańcucha narzędzi i konfiguracja środowiska

Techniki translacji kodu

  • Przenoszenie dostępu do pamięci i logiki jądra CUDA
  • Mapowanie modeli siatki obliczeń/wątków
  • Opcje automatycznej vs ręcznej translacji

Implementacje specyficzne dla platformy

  • Używanie operacji Huawei CANN i niestandardowych jądra
  • Przeprowadzanie konwersji za pomocą Biren SDK
  • Ponowne budowanie modeli z BANGPy (Cambricon)

Testowanie i optymalizacja międzyplatformowa

  • Profilowanie wykonania na każdej platformie docelowej
  • Regulacja pamięci i porównywanie równoległego wykonywania
  • Śledzenie wydajności i iteracja

Zarządzanie mieszanymi środowiskami GPU

  • Hybrydowe wdrożenia z wieloma architekturami
  • Strategie awaryjne i wykrywanie urządzeń
  • Warstwy abstrakcji dla łatwości utrzymania kodu

Studia przypadku i najlepsze praktyki

  • Przenoszenie modeli widzenia/NLP do Ascend lub Cambricon
  • Modernizacja ścieżek inferencji na klasterach Biren
  • Radzenie sobie z niezgodnościami wersji i lukami w API

Podsumowanie i następne kroki

Wymagania

  • Doświadczenie w programowaniu z CUDA lub aplikacjami opartymi na GPU
  • Zrozumienie modeli pamięci GPU i jądra obliczeniowych
  • Znałość wdrażania lub przyspieszania modeli AI

Grupa docelowa

  • Programiści GPU
  • Architekci systemów
  • Specjaliści ds. portowania
 21 godzin

Liczba uczestników


cena netto za uczestnika

Propozycje terminów

Powiązane Kategorie