Plan Szkolenia

Wprowadzenie do architektury Biren GPU

  • Przegląd Biren i przypadki użycia
  • Układ sprzętowy: rdzenie, pamięć, klastry obliczeniowe
  • Porównanie z procesorami NVIDIA i AMD GPU

Konfiguracja środowiska Biren Programming

  • Instalowanie SDK i środowiska uruchomieniowego Biren
  • Zrozumienie modelu narzędziowego i kompilatora
  • Podstawowa struktura projektu i proces budowania

GPU Programming z wykorzystaniem stosu Biren

  • Modele wątków i bloków
  • Zarządzanie pamięcią i transferami danych
  • Rozwijanie jąder i wzorce uruchamiania

Portowanie z CUDA na Biren

  • Techniki tłumaczenia kodu CUDA
  • Wspólne mapowania i adaptacje API
  • Laboratoria i praktyki konwersji kodu

Debugowanie i profilowanie

  • Używanie debuggera i profiler Biren
  • Wykrywanie wąskich gardeł
  • Wzorce dostępu do pamięci i optymalizacja

Techniki optymalizacji

  • Planowanie wątków i pipelining instrukcji
  • Rozwijanie pętli i używanie wspólnej pamięci
  • Zaawansowana dostrajanie jąder do przepustowości

Przypadki użycia i przykłady aplikacji

  • Trenowanie modelu z akceleratorami Biren
  • Portowanie i profilowanie modelu wizji lub NLP
  • Porównanie wydajności vs CUDA/NVIDIA

Podsumowanie i kolejne kroki

Wymagania

  • Znajomość architektury GPU oraz równoległego przetwarzania
  • Doświadczenie z CUDA, OpenCL, lub podobnymi środowiskami programistycznymi GPU
  • Znajomość ram deep learningu, takich jak PyTorch lub TensorFlow

Grupa docelowa

  • Programiści HPC
  • Inżynierowie infrastruktury AI
  • Specjaliści od optymalizacji wydajności
 21 godzin

Liczba uczestników


cena netto za uczestnika

Opinie uczestników (1)

Propozycje terminów

Powiązane Kategorie