Thank you for sending your enquiry! One of our team members will contact you shortly.
Thank you for sending your booking! One of our team members will contact you shortly.
Plan Szkolenia
Wprowadzenie do architektury Biren GPU
- Przegląd Biren i przypadki użycia
- Układ sprzętowy: rdzenie, pamięć, klastry obliczeniowe
- Porównanie z procesorami NVIDIA i AMD GPU
Konfiguracja środowiska Biren Programming
- Instalowanie SDK i środowiska uruchomieniowego Biren
- Zrozumienie modelu narzędziowego i kompilatora
- Podstawowa struktura projektu i proces budowania
GPU Programming z wykorzystaniem stosu Biren
- Modele wątków i bloków
- Zarządzanie pamięcią i transferami danych
- Rozwijanie jąder i wzorce uruchamiania
Portowanie z CUDA na Biren
- Techniki tłumaczenia kodu CUDA
- Wspólne mapowania i adaptacje API
- Laboratoria i praktyki konwersji kodu
Debugowanie i profilowanie
- Używanie debuggera i profiler Biren
- Wykrywanie wąskich gardeł
- Wzorce dostępu do pamięci i optymalizacja
Techniki optymalizacji
- Planowanie wątków i pipelining instrukcji
- Rozwijanie pętli i używanie wspólnej pamięci
- Zaawansowana dostrajanie jąder do przepustowości
Przypadki użycia i przykłady aplikacji
- Trenowanie modelu z akceleratorami Biren
- Portowanie i profilowanie modelu wizji lub NLP
- Porównanie wydajności vs CUDA/NVIDIA
Podsumowanie i kolejne kroki
Wymagania
- Znajomość architektury GPU oraz równoległego przetwarzania
- Doświadczenie z CUDA, OpenCL, lub podobnymi środowiskami programistycznymi GPU
- Znajomość ram deep learningu, takich jak PyTorch lub TensorFlow
Grupa docelowa
- Programiści HPC
- Inżynierowie infrastruktury AI
- Specjaliści od optymalizacji wydajności
21 godzin
Opinie uczestników (1)
Szeroki zakres wiedzy oraz przystępne przykłady