Dziękujemy za wysłanie zapytania! Jeden z członków naszego zespołu skontaktuje się z Państwem wkrótce.
Dziękujemy za wysłanie rezerwacji! Jeden z członków naszego zespołu skontaktuje się z Państwem wkrótce.
Plan Szkolenia
Przegląd możliwości optymalizacji CANN
- Jak jest obsługiwane wydajność inferencji w CANN
- Cele optymalizacji dla systemów AI na krawędzi i wbudowanych
- Zrozumienie wykorzystania AI Core i alokacji pamięci
Używanie Graph Engine do analizy
- Wprowadzenie do Graph Engine i rurociągu wykonywania
- Wizualizowanie grafu operatorów i metryk czasu rzeczywistego
- Modyfikowanie grafów obliczeniowych w celu optymalizacji
Narzędzia profilowania i metryki wydajności
- Używanie narzędzia profilowania CANN (profiler) do analizy obciążenia
- Analiza czasu wykonania jądra i wąskich gardzieli
- Profilowanie dostępu do pamięci i strategie kafelkowania
Rozwijanie niestandardowych operatorów z TIK
- Przegląd TIK i modelu programowania operatorów
- Wdrożenie niestandardowego operatora za pomocą TIK DSL
- Testowanie i benchmarkowanie wydajności operatora
Zaawansowana optymalizacja operatorów z TVM
- Wprowadzenie do integracji TVM z CANN
- Strategie automatycznego dostrajania dla grafów obliczeniowych
- Kiedy i jak przełączać się między TVM a TIK
Techniki optymalizacji pamięci
- Zarządzanie układem pamięci i umiejscowieniem buforów
- Techniki zmniejszania zużycia pamięci na czipie
- Najlepsze praktyki dla wykonywania asynchronicznego i ponownego użycia
Zastosowania w rzeczywistym świecie i studia przypadków
- Studium przypadku: dostrajanie wydajności dla kamery w inteligentnym mieście
- Studium przypadku: optymalizacja stosu inferencji pojazdów autonomicznych
- Wskazówki dotyczące iteracyjnego profilowania i ciągłego doskonalenia
Podsumowanie i kolejne kroki
Wymagania
- Solid understanding of deep learning model architectures and training workflows
- Experience with model deployment using CANN, TensorFlow, or PyTorch
- Familiarity with Linux CLI, shell scripting, and Python programming
Grupa docelowa
- Inżynierowie wydajności AI
- Specjaliści ds. optymalizacji inferencji
- Deweloperzy pracujący z edge AI lub systemami czasu rzeczywistego
14 godzin