Plan Szkolenia

Wprowadzenie do architektury GPU Biren

  • Omówienie Biren i przypadków użycia
  • Układ sprzętowy: rdzenie, pamięć, klastry obliczeniowe
  • Porównanie z GPU NVIDIA i AMD

Konfiguracja środowiska programistycznego Biren

  • Instalacja SDK i środowiska uruchomieniowego Biren
  • Zrozumienie łańcucha narzędzi i modelu kompilatora
  • Podstawowa struktura projektu i proces budowania

Programowanie GPU z wykorzystaniem stosu Biren

  • Modele wątków i bloków
  • Zarządzanie pamięcią i transfery danych
  • Rozwój kerneli i wzorce uruchamiania

Przenoszenie kodu z CUDA na Biren

  • Techniki tłumaczenia kodu CUDA
  • Typowe mapowania i adaptacje API
  • Laboratoria i praktyka konwersji kodu

Debugowanie i profilowanie

  • Korzystanie z debuggera i profilera Biren
  • Identyfikacja wąskich gardeł
  • Wzorce dostępu do pamięci i optymalizacja

Techniki optymalizacji

  • Planowanie wątków i potokowanie instrukcji
  • Rozwijanie pętli i wykorzystanie pamięci współdzielonej
  • Zaawansowane dostrajanie kerneli pod kątem przepustowości

Studium przypadku i przykłady aplikacji

  • Trenowanie modelu z wykorzystaniem akceleratorów Biren
  • Przenoszenie i profilowanie modelu wizyjnego lub NLP
  • Porównanie wydajności z CUDA/NVIDIA

Podsumowanie i kolejne kroki

Wymagania

  • Zrozumienie architektury GPU i przetwarzania równoległego
  • Doświadczenie w programowaniu GPU w środowiskach takich jak CUDA, OpenCL lub podobnych
  • Znajomość frameworków do uczenia głębokiego, takich jak PyTorch lub TensorFlow

Grupa docelowa

  • Programiści HPC
  • Inżynierowie infrastruktury AI
  • Specjaliści od optymalizacji wydajności
 21 godzin

Liczba uczestników


Cena za uczestnika (netto)

Opinie uczestników (2)

Propozycje terminów

Powiązane Kategorie