Dziękujemy za wysłanie zapytania! Jeden z członków naszego zespołu skontaktuje się z Państwem wkrótce.        
        
        
            Dziękujemy za wysłanie rezerwacji! Jeden z członków naszego zespołu skontaktuje się z Państwem wkrótce.        
    Plan Szkolenia
Wprowadzenie do architektury Biren GPU
- Przegląd Biren i przypadki użycia
- Układ sprzętowy: rdzenie, pamięć, klastry obliczeniowe
- Porównanie z procesorami NVIDIA i AMD GPU
Konfiguracja środowiska Biren Programming
- Instalowanie SDK i środowiska uruchomieniowego Biren
- Zrozumienie modelu narzędziowego i kompilatora
- Podstawowa struktura projektu i proces budowania
GPU Programming z wykorzystaniem stosu Biren
- Modele wątków i bloków
- Zarządzanie pamięcią i transferami danych
- Rozwijanie jąder i wzorce uruchamiania
Portowanie z CUDA na Biren
- Techniki tłumaczenia kodu CUDA
- Wspólne mapowania i adaptacje API
- Laboratoria i praktyki konwersji kodu
Debugowanie i profilowanie
- Używanie debuggera i profiler Biren
- Wykrywanie wąskich gardeł
- Wzorce dostępu do pamięci i optymalizacja
Techniki optymalizacji
- Planowanie wątków i pipelining instrukcji
- Rozwijanie pętli i używanie wspólnej pamięci
- Zaawansowana dostrajanie jąder do przepustowości
Przypadki użycia i przykłady aplikacji
- Trenowanie modelu z akceleratorami Biren
- Portowanie i profilowanie modelu wizji lub NLP
- Porównanie wydajności vs CUDA/NVIDIA
Podsumowanie i kolejne kroki
Wymagania
- Znajomość architektury GPU oraz równoległego przetwarzania
- Doświadczenie z CUDA, OpenCL, lub podobnymi środowiskami programistycznymi GPU
- Znajomość ram deep learningu, takich jak PyTorch lub TensorFlow
Grupa docelowa
- Programiści HPC
- Inżynierowie infrastruktury AI
- Specjaliści od optymalizacji wydajności
             21 godzin
        
        
Opinie uczestników (1)
Szeroki zakres wiedzy oraz przystępne przykłady
 
                    