Plan Szkolenia

Wprowadzenie do architektury Biren GPU

  • Przegląd Biren i przypadki użycia
  • Układ sprzętowy: rdzenie, pamięć, klastry obliczeniowe
  • Porównanie z NVIDIA i AMD GPU

Konfiguracja środowiska Biren Programming

  • Instalowanie SDK i uruchamiania Biren
  • Zrozumienie łańcucha narzędzi i modelu kompilatora
  • Podstawowa struktura projektu i proces budowy

GPU Programming z stosem Biren

  • Modele wątków i bloków
  • Zarządzanie pamięcią i transferami danych
  • Rozwijanie jądra i wzorce uruchamiania

Przenoszenie z CUDA do Biren

  • Techniki tłumaczenia kodu CUDA
  • Wspólne mapowania API i adaptacje
  • Praktyka i laboratoria konwersji kodu

Debugowanie i profilowanie

  • Używanie debuggera i profiler Biren
  • Wykrywanie wąskich gardeł
  • Wzorce dostępu do pamięci i optymalizacja

Techniki optymalizacji

  • Harmonogramowanie wątków i rurociągi instrukcji
  • Rozwijanie pętli i użycie wspólnej pamięci
  • Zaawansowane dostrajanie jądra dla przepustowości

Przykładowe studium przypadku i aplikacje

  • Trenowanie modelu z akceleratorami Biren
  • Przenoszenie i profilowanie modelu wizyjnego lub NLP
  • Porównanie wydajności vs CUDA/NVIDIA

Podsumowanie i następne kroki

Wymagania

  • Zrozumienie architektury GPU i równoległego przetwarzania
  • Doświadczenie z CUDA, OpenCL lub podobnymi środowiskami programowania GPU
  • Znajomość ram frameworków do uczenia głębokiego, takich jak PyTorch lub TensorFlow

Grupa docelowa

  • Developerzy HPC
  • Inżynierowie infrastruktury AI
  • Specjaliści ds. optymalizacji wydajności
 21 godzin

Liczba uczestników


cena netto za uczestnika

Opinie uczestników (1)

Propozycje terminów

Powiązane Kategorie