Thank you for sending your enquiry! One of our team members will contact you shortly.
Thank you for sending your booking! One of our team members will contact you shortly.
Plan Szkolenia
Wprowadzenie do architektury Biren GPU
- Przegląd Biren i przypadki użycia
- Układ sprzętowy: rdzenie, pamięć, klastry obliczeniowe
- Porównanie z NVIDIA i AMD GPU
Konfiguracja środowiska Biren Programming
- Instalowanie SDK i uruchamiania Biren
- Zrozumienie łańcucha narzędzi i modelu kompilatora
- Podstawowa struktura projektu i proces budowy
GPU Programming z stosem Biren
- Modele wątków i bloków
- Zarządzanie pamięcią i transferami danych
- Rozwijanie jądra i wzorce uruchamiania
Przenoszenie z CUDA do Biren
- Techniki tłumaczenia kodu CUDA
- Wspólne mapowania API i adaptacje
- Praktyka i laboratoria konwersji kodu
Debugowanie i profilowanie
- Używanie debuggera i profiler Biren
- Wykrywanie wąskich gardeł
- Wzorce dostępu do pamięci i optymalizacja
Techniki optymalizacji
- Harmonogramowanie wątków i rurociągi instrukcji
- Rozwijanie pętli i użycie wspólnej pamięci
- Zaawansowane dostrajanie jądra dla przepustowości
Przykładowe studium przypadku i aplikacje
- Trenowanie modelu z akceleratorami Biren
- Przenoszenie i profilowanie modelu wizyjnego lub NLP
- Porównanie wydajności vs CUDA/NVIDIA
Podsumowanie i następne kroki
Wymagania
- Zrozumienie architektury GPU i równoległego przetwarzania
- Doświadczenie z CUDA, OpenCL lub podobnymi środowiskami programowania GPU
- Znajomość ram frameworków do uczenia głębokiego, takich jak PyTorch lub TensorFlow
Grupa docelowa
- Developerzy HPC
- Inżynierowie infrastruktury AI
- Specjaliści ds. optymalizacji wydajności
21 godzin
Opinie uczestników (1)
Szeroki zakres wiedzy oraz przystępne przykłady