Thank you for sending your enquiry! One of our team members will contact you shortly.
Thank you for sending your booking! One of our team members will contact you shortly.
Plan Szkolenia
Przegląd możliwości optymalizacji CANN
- Jak jest obsługiwane wydajność inferencji w CANN
- Cele optymalizacji dla systemów AI na krawędzi i wbudowanych
- Zrozumienie wykorzystania AI Core i alokacji pamięci
Używanie Graph Engine do analizy
- Wprowadzenie do Graph Engine i rurociągu wykonywania
- Wizualizowanie grafu operatorów i metryk czasu rzeczywistego
- Modyfikowanie grafów obliczeniowych w celu optymalizacji
Narzędzia profilowania i metryki wydajności
- Używanie narzędzia profilowania CANN (profiler) do analizy obciążenia
- Analiza czasu wykonania jądra i wąskich gardzieli
- Profilowanie dostępu do pamięci i strategie kafelkowania
Rozwijanie niestandardowych operatorów z TIK
- Przegląd TIK i modelu programowania operatorów
- Wdrożenie niestandardowego operatora za pomocą TIK DSL
- Testowanie i benchmarkowanie wydajności operatora
Zaawansowana optymalizacja operatorów z TVM
- Wprowadzenie do integracji TVM z CANN
- Strategie automatycznego dostrajania dla grafów obliczeniowych
- Kiedy i jak przełączać się między TVM a TIK
Techniki optymalizacji pamięci
- Zarządzanie układem pamięci i umiejscowieniem buforów
- Techniki zmniejszania zużycia pamięci na czipie
- Najlepsze praktyki dla wykonywania asynchronicznego i ponownego użycia
Zastosowania w rzeczywistym świecie i studia przypadków
- Studium przypadku: dostrajanie wydajności dla kamery w inteligentnym mieście
- Studium przypadku: optymalizacja stosu inferencji pojazdów autonomicznych
- Wskazówki dotyczące iteracyjnego profilowania i ciągłego doskonalenia
Podsumowanie i kolejne kroki
Wymagania
- Solid understanding of deep learning model architectures and training workflows
- Experience with model deployment using CANN, TensorFlow, or PyTorch
- Familiarity with Linux CLI, shell scripting, and Python programming
Grupa docelowa
- Inżynierowie wydajności AI
- Specjaliści ds. optymalizacji inferencji
- Deweloperzy pracujący z edge AI lub systemami czasu rzeczywistego
14 godzin