Plan Szkolenia

Przegląd chińskiego ekosystemu GPU AI

  • Porównanie Huawei Ascend, Biren, Cambricon MLU
  • Model CUDA vs CANN, Biren SDK i BANGPy
  • Trendy branżowe i ekosystemy dostawców

Przygotowanie do migracji

  • Ocena Twojej bazy kodu CUDA
  • Identyfikacja docelowych platform i wersji SDK
  • Instalacja łańcucha narzędzi i konfiguracja środowiska

Techniki tłumaczenia kodu

  • Przenoszenie dostępu do pamięci CUDA i logiki jądra
  • Mapowanie modeli siatki/wątków obliczeniowych
  • Opcje automatycznego i ręcznego tłumaczenia

Implementacje specyficzne dla platformy

  • Wykorzystanie operatorów Huawei CANN i niestandardowych jąder
  • Proces konwersji Biren SDK
  • Przebudowa modeli z użyciem BANGPy (Cambricon)

Testowanie i optymalizacja między platformami

  • Profilowanie wykonania na każdej docelowej platformie
  • Dostrajanie pamięci i porównywanie równoległego wykonania
  • Śledzenie wydajności i iteracja

Zarządzanie środowiskami mieszanymi GPU

  • Hybrydowe wdrożenia z wieloma architekturami
  • Strategie awaryjne i wykrywanie urządzeń
  • Warstwy abstrakcji dla utrzymywalności kodu

Studia przypadków i najlepsze praktyki

  • Migracja modeli wizji/NLP na Ascend lub Cambricon
  • Modernizacja potoków wnioskowania na klastrach Biren
  • Radzenie sobie z niezgodnościami wersji i lukami w API

Podsumowanie i kolejne kroki

Wymagania

  • Doświadczenie w programowaniu z wykorzystaniem CUDA lub aplikacji opartych na GPU
  • Zrozumienie modeli pamięci GPU i jąder obliczeniowych
  • Znajomość wdrażania modeli AI lub przepływów pracy związanych z przyspieszaniem

Odbiorcy

  • Programiści GPU
  • Architekci systemów
  • Specjaliści od migracji
 21 godzin

Liczba uczestników


Cena za uczestnika (netto)

Propozycje terminów

Powiązane Kategorie