Dziękujemy za wysłanie zapytania! Jeden z członków naszego zespołu skontaktuje się z Państwem wkrótce.
Dziękujemy za wysłanie rezerwacji! Jeden z członków naszego zespołu skontaktuje się z Państwem wkrótce.
Plan Szkolenia
Wprowadzenie do architektury GPU Biren
- Omówienie Biren i przypadków użycia
- Układ sprzętowy: rdzenie, pamięć, klastry obliczeniowe
- Porównanie z GPU NVIDIA i AMD
Konfiguracja środowiska programistycznego Biren
- Instalacja SDK i środowiska uruchomieniowego Biren
- Zrozumienie łańcucha narzędzi i modelu kompilatora
- Podstawowa struktura projektu i proces budowania
Programowanie GPU z wykorzystaniem stosu Biren
- Modele wątków i bloków
- Zarządzanie pamięcią i transfery danych
- Rozwój kerneli i wzorce uruchamiania
Przenoszenie kodu z CUDA na Biren
- Techniki tłumaczenia kodu CUDA
- Typowe mapowania i adaptacje API
- Laboratoria i praktyka konwersji kodu
Debugowanie i profilowanie
- Korzystanie z debuggera i profilera Biren
- Identyfikacja wąskich gardeł
- Wzorce dostępu do pamięci i optymalizacja
Techniki optymalizacji
- Planowanie wątków i potokowanie instrukcji
- Rozwijanie pętli i wykorzystanie pamięci współdzielonej
- Zaawansowane dostrajanie kerneli pod kątem przepustowości
Studium przypadku i przykłady aplikacji
- Trenowanie modelu z wykorzystaniem akceleratorów Biren
- Przenoszenie i profilowanie modelu wizyjnego lub NLP
- Porównanie wydajności z CUDA/NVIDIA
Podsumowanie i kolejne kroki
Wymagania
- Zrozumienie architektury GPU i przetwarzania równoległego
- Doświadczenie w programowaniu GPU w środowiskach takich jak CUDA, OpenCL lub podobnych
- Znajomość frameworków do uczenia głębokiego, takich jak PyTorch lub TensorFlow
Grupa docelowa
- Programiści HPC
- Inżynierowie infrastruktury AI
- Specjaliści od optymalizacji wydajności
21 godzin
Opinie uczestników (2)
Prawie wszystko!
Rares Ursu - Aeronamic Eastern Europe
Szkolenie - AI Enablement Training for Engineers
Przetłumaczone przez sztuczną inteligencję
Szeroki zakres wiedzy oraz przystępne przykłady