Thank you for sending your enquiry! One of our team members will contact you shortly.
Thank you for sending your booking! One of our team members will contact you shortly.
Plan Szkolenia
Wprowadzenie do tworzenia niestandardowych operatorów
- Dlaczego tworzyć niestandardowe operatory? Przypadek użycia i ograniczenia
- CANN struktura czasu wykonania i punkty integracji operatorów
- Przegląd TBE, TIK i TVM w ekosystemie Huawei AI
Używanie TIK do operacji na poziomie niskopoziomowym Programming
- Zrozumienie modelu programowania TIK i obsługiwanych API
- Zarządzanie pamięcią i strategia pocięcia w TIK
- Tworzenie, kompilowanie i rejestrowanie niestandardowego op z CANN
Testowanie i walidacja niestandardowych op
- Testowanie jednostkowe i integracyjne op w grafie
- Diagnostyka problemów z wydajnością na poziomie jąder
- Wizualizacja wykonania op i zachowania bufora
Planowanie i optymalizacja na podstawie TVM
- Przegląd TVM jako kompilatora dla operacji tensorowych
- Pisanie harmonogramu dla niestandardowego op w TVM
- Optymalizacja TVM, benchmarkowanie i generowanie kodu dla Ascend
Integracja z ramkami i modelami
- Rejestrowanie niestandardowych op dla MindSpore i ONNX
- Weryfikacja integralności modelu i zachowania awaryjnego
- Obsługa grafów z wieloma operatorami z mieszaną precyzją
Studia przypadków i specjalistyczne optymalizacje
- Studium przypadku: wysokowydajna konwolucja dla małych kształtów wejściowych
- Studium przypadku: optymalizacja operatora uwagi z uwzględnieniem pamięci
- Najlepsze praktyki w wdrażaniu niestandardowych op na różnych urządzeniach
Podsumowanie i następne kroki
Wymagania
- Solid knowledge of AI model internals and operator-level computation
- Experience with Python and Linux development environments
- Familiarity with neural network compilers or graph-level optimizers
Grupa docelowa
- Inżynierowie kompilatorów pracujący nad zestawami narzędzi AI
- Programiści systemowi skupieni na optymalizacji AI na niskim poziomie
- Programiści budujący niestandardowe operacje lub kierujący się nowymi obciążeniami AI
14 godzin