Performance Optimization on Ascend, Biren, and Cambricon - Plan Szkolenia
Ascend, Biren i Cambricon są wiodącymi platformami sprzętowymi AI w Chinach, każda z nich oferuje unikalne narzędzia do przyspieszenia i profilowania dla zadań AI na skalę produkcyjną.
Ten szkolenie prowadzone przez instruktora (online lub na miejscu) jest skierowane do zaawansowanych inżynierów infrastruktury AI i wydajności, którzy chcą optymalizować przepływy wnioskowania modeli i uczenia się w różnych chińskich platformach układów scalonych AI.
Po zakończeniu tego szkolenia uczestnicy będą w stanie:
- Benchmarkować modele na platformach Ascend, Biren i Cambricon.
- Wykrywać wąskie gardła systemowe i niedoskonałości w pamięci/obliczeniach.
- Zastosować optymalizacje na poziomie grafu, jądra i operacji.
- Dostosować kanały wdrażania w celu poprawy przepływu i opóźnienia.
Format Kursu
- Interaktywne wykłady i dyskusje.
- Praktyczne używanie narzędzi profilowania i optymalizacji na każdej platformie.
- Wskazówki dotyczące ćwiczeń skupionych na praktycznych scenariuszach dostosowywania.
Opcje dostosowania kursu
- Aby zapytać o dostosowane szkolenie dla tego kursu na podstawie Twojego środowiska wydajności lub typu modelu, skontaktuj się z nami, aby to załatwić.
Plan Szkolenia
Pojęcia i metryki wydajności
- Opóźnienie, przepustowość, zużycie energii, wykorzystanie zasobów
- Uwężenia poziomu systemu vs modelu
- Profilowanie dla inferencji vs treningu
Profilowanie na Huawei Ascend
- Używanie CANN Profiler i MindInsight
- Diagnoza jąder i operatorów
- Wzorce rozładowywania i mapowania pamięci
Profilowanie na Biren GPU
- Funkcje monitorowania wydajności Biren SDK
- Fuzja jąder, wyrównanie pamięci i kolejki wykonania
- Profilowanie z uwzględnieniem mocy i temperatury
Profilowanie na Cambricon MLU
- Narzędzia wydajnościowe BANGPy i Neuware
- Widoczność poziomu jąder i interpretacja logów
- Integracja MLU profiler z ramami wdrażania
Optymalizacja na poziomie grafu i modelu
- Strategie obcinania grafu i kwantyzacji
- Fuzja operatorów i restrukturyzacja grafu obliczeniowego
- Standaryzacja rozmiaru wejścia i dostosowanie partii
Optymalizacja pamięci i jąder
- Optymalizacja układu pamięci i jej ponownego użycia
- Efektywne zarządzanie buforami w różnych zestawach chipów
- Techniki dostrajania poziomu jąder dla poszczególnych platform
Najlepsze praktyki w zakresie wieloplatformowości
- Portowalność wydajności: strategie abstrakcji
- Budowanie wspólnych kanałów dostrajania dla środowisk wielochipowych
- Przykład: dostrajanie modelu wykrywania obiektów na platformach Ascend, Biren i MLU
Podsumowanie i następne kroki
Wymagania
- Doświadczenie w pracy z pipeline'ami trenowania lub wdrażania modeli AI
- Zrozumienie zasad obliczeń i optymalizacji modeli GPU/MLU
- Podstawowa znajomość narzędzi i wskaźników profilowania wydajności
Grupa docelowa
- Inżynierowie wydajności
- Zespoły infrastruktury uczenia maszynowego
- Architekci systemów AI
Szkolenia otwarte są realizowane w przypadku uzbierania się grupy szkoleniowej liczącej co najmniej 5 osób na dany termin.
Performance Optimization on Ascend, Biren, and Cambricon - Plan Szkolenia - Booking
Performance Optimization on Ascend, Biren, and Cambricon - Plan Szkolenia - Enquiry
Performance Optimization on Ascend, Biren, and Cambricon - Zapytanie o Konsultacje
Zapytanie o Konsultacje
Propozycje terminów
Szkolenia Powiązane
Developing AI Applications with Huawei Ascend and CANN
21 godzinHuawei Ascend jest rodziną procesorów AI zaprojektowanych do wysokowydajnej inferencji i szkolenia.
To prowadzone przez instruktora, żywe szkolenie (online lub na miejscu) jest skierowane do inżynierów AI i naukowców danych na poziomie średnim, którzy chcą tworzyć i optymalizować modele sieci neuronowych za pomocą platformy Ascend Huawei i zestawu narzędzi CANN.
Na zakończenie tego szkolenia uczestnicy będą w stanie:
- Konfigurować i ustawiać środowisko CANN development.
- Tworzyć aplikacje AI za pomocą MindSpore i CloudMatrix workflows.
- Optymalizować wydajność na Ascend NPUs za pomocą operatorów niestandardowych i podziału.
- Wdrażać modele w środowiskach krawędziowych lub chmurowych.
Format kursu
- Interaktywne wykłady i dyskusje.
- Ręczne używanie Huawei Ascend i zestawu narzędzi CANN w przykładowych aplikacjach.
- Wykonywanie zadań pod kierunkiem, skupionych na budowaniu, szkoleniu i wdrażaniu modeli.
Opcje dostosowywania kursu
- Aby zapytać o dostosowane szkolenie dla tego kursu zgodnie z Twoją infrastrukturą lub zbiory danych, skontaktuj się z nami w celu zorganizowania.
Deploying AI Models with CANN and Ascend AI Processors
14 godzinCANN (Compute Architecture for Neural Networks) is Huawei’s AI compute stack for deploying and optimizing AI models on Ascend AI processors.
This instructor-led, live training (online or onsite) is aimed at intermediate-level AI developers and engineers who wish to deploy trained AI models efficiently to Huawei Ascend hardware using the CANN toolkit and tools such as MindSpore, TensorFlow, or PyTorch.
By the end of this training, participants will be able to:
- Understand the CANN architecture and its role in the AI deployment pipeline.
- Convert and adapt models from popular frameworks to Ascend-compatible formats.
- Use tools like ATC, OM model conversion, and MindSpore for edge and cloud inference.
- Diagnose deployment issues and optimize performance on Ascend hardware.
Format of the Course
- Interactive lecture and demonstration.
- Hands-on lab work using CANN tools and Ascend simulators or devices.
- Practical deployment scenarios based on real-world AI models.
Course Customization Options
- To request a customized training for this course, please contact us to arrange.
AI Inference and Deployment with CloudMatrix
21 godzinGPU Programming on Biren AI Accelerators
21 godzin- Zrozumieć architekturę i hierarchię pamięci Biren GPU.
- Uruchomić środowisko programistyczne i użyć modelu programowania Biren.
- Tłumaczyć i optymalizować kod w stylu CUDA na platformach Biren.
- Zastosować techniki dostrajania wydajności i debugowania.
- Interaktywne wykłady i dyskusje.
- Praktyczne korzystanie z Biren SDK w przykładowych obciążeniach GPU.
- Prowadzone ćwiczenia skupione na przenoszeniu i dostrajaniu wydajności.
- Aby zapytać o dostosowany kurs szkoleniowy dla tego kursu na podstawie stosu aplikacji lub potrzeb integracji, prosimy o kontakt, aby umówić się.
Cambricon MLU Development with BANGPy and Neuware
21 godzinCambricon MLUs (Machine Learning jednostki) to specjalizowane układy AI optymalizowane do wnioskowania i szkolenia w scenariuszach na krawędzi i w centrach danych.
To szkolenie prowadzone przez instruktora (online lub na miejscu) jest przeznaczone dla developerów na poziomie średnim, którzy chcą budować i wdrażać modele AI za pomocą frameworka BANGPy i SDK Neuware na sprzęcie Cambricon MLU.
Po zakończeniu tego szkolenia uczestnicy będą mogli:
- Konfigurować i ustawiać środowiska rozwojowe BANGPy i Neuware.
- Rozwijać i optymalizować modele oparte na Python i C++ dla Cambricon MLU.
- Wdrażać modele na urządzeniach na krawędzi i w centrum danych z uruchomionym środowiskiem wykonawczym Neuware.
- Integrować przepływy pracy ML z funkcjami przyspieszenia specyficznymi dla MLU.
Format kursu
- Interaktywna wykład i dyskusja.
- Praktyczne używanie BANGPy i Neuware do rozwoju i wdrażania.
- Zawarte ćwiczenia skupione na optymalizacji, integracji i testowaniu.
Opcje dostosowywania kursu
- Aby zlecić dostosowane szkolenie dla tego kursu na podstawie modelu urządzenia Cambricon lub przypadku użycia, prosimy o kontakt z nami w celu ustalenia.
Introduction to CANN for AI Framework Developers
7 godzinCANN (Compute Architecture for Neural Networks) is Huawei’s AI computing toolkit used to compile, optimize, and deploy AI models on Ascend AI processors.
This instructor-led, live training (online or onsite) is aimed at beginner-level AI developers who wish to understand how CANN fits into the model lifecycle from training to deployment, and how it works with frameworks like MindSpore, TensorFlow, and PyTorch.
By the end of this training, participants will be able to:
- Understand the purpose and architecture of the CANN toolkit.
- Set up a development environment with CANN and MindSpore.
- Convert and deploy a simple AI model to Ascend hardware.
- Gain foundational knowledge for future CANN optimization or integration projects.
Format of the Course
- Interactive lecture and discussion.
- Hands-on labs with simple model deployment.
- Step-by-step walkthrough of the CANN toolchain and integration points.
Course Customization Options
- To request a customized training for this course, please contact us to arrange.
CANN for Edge AI Deployment
14 godzinHuawei's Ascend CANN toolkit enables powerful AI inference on edge devices such as the Ascend 310. CANN provides essential tools for compiling, optimizing, and deploying models where compute and memory are constrained.
This instructor-led, live training (online or onsite) is aimed at intermediate-level AI developers and integrators who wish to deploy and optimize models on Ascend edge devices using the CANN toolchain.
By the end of this training, participants will be able to:
- Prepare and convert AI models for Ascend 310 using CANN tools.
- Build lightweight inference pipelines using MindSpore Lite and AscendCL.
- Optimize model performance for limited compute and memory environments.
- Deploy and monitor AI applications in real-world edge use cases.
Format of the Course
- Interactive lecture and demonstration.
- Hands-on lab work with edge-specific models and scenarios.
- Live deployment examples on virtual or physical edge hardware.
Course Customization Options
- To request a customized training for this course, please contact us to arrange.
Understanding Huawei’s AI Compute Stack: From CANN to MindSpore
14 godzinHuawei’s AI stack — from the low-level CANN SDK to the high-level MindSpore framework — offers a tightly integrated AI development and deployment environment optimized for Ascend hardware.
This instructor-led, live training (online or onsite) is aimed at beginner-level to intermediate-level technical professionals who wish to understand how the CANN and MindSpore components work together to support AI lifecycle management and infrastructure decisions.
By the end of this training, participants will be able to:
- Understand the layered architecture of Huawei’s AI compute stack.
- Identify how CANN supports model optimization and hardware-level deployment.
- Evaluate the MindSpore framework and toolchain in relation to industry alternatives.
- Position Huawei's AI stack within enterprise or cloud/on-prem environments.
Format of the Course
- Interactive lecture and discussion.
- Live system demos and case-based walkthroughs.
- Optional guided labs on model flow from MindSpore to CANN.
Course Customization Options
- To request a customized training for this course, please contact us to arrange.
Optimizing Neural Network Performance with CANN SDK
14 godzinCANN SDK (Compute Architecture for Neural Networks) is Huawei’s AI compute foundation that allows developers to fine-tune and optimize the performance of deployed neural networks on Ascend AI processors.
This instructor-led, live training (online or onsite) is aimed at advanced-level AI developers and system engineers who wish to optimize inference performance using CANN’s advanced toolset, including the Graph Engine, TIK, and custom operator development.
By the end of this training, participants will be able to:
- Understand CANN's runtime architecture and performance lifecycle.
- Use profiling tools and Graph Engine for performance analysis and optimization.
- Create and optimize custom operators using TIK and TVM.
- Resolve memory bottlenecks and improve model throughput.
Format of the Course
- Interactive lecture and discussion.
- Hands-on labs with real-time profiling and operator tuning.
- Optimization exercises using edge-case deployment examples.
Course Customization Options
- To request a customized training for this course, please contact us to arrange.
CANN SDK for Computer Vision and NLP Pipelines
14 godzinThe CANN SDK (Compute Architecture for Neural Networks) provides powerful deployment and optimization tools for real-time AI applications in computer vision and NLP, especially on Huawei Ascend hardware.
This instructor-led, live training (online or onsite) is aimed at intermediate-level AI practitioners who wish to build, deploy, and optimize vision and language models using the CANN SDK for production use cases.
By the end of this training, participants will be able to:
- Deploy and optimize CV and NLP models using CANN and AscendCL.
- Use CANN tools to convert models and integrate them into live pipelines.
- Optimize inference performance for tasks like detection, classification, and sentiment analysis.
- Build real-time CV/NLP pipelines for edge or cloud-based deployment scenarios.
Format of the Course
- Interactive lecture and demonstration.
- Hands-on lab with model deployment and performance profiling.
- Live pipeline design using real CV and NLP use cases.
Course Customization Options
- To request a customized training for this course, please contact us to arrange.
Building Custom AI Operators with CANN TIK and TVM
14 godzinCANN TIK (Tensor Instruction Kernel) and Apache TVM enable advanced optimization and customization of AI model operators for Huawei Ascend hardware.
This instructor-led, live training (online or onsite) is aimed at advanced-level system developers who wish to build, deploy, and tune custom operators for AI models using CANN’s TIK programming model and TVM compiler integration.
By the end of this training, participants will be able to:
- Write and test custom AI operators using the TIK DSL for Ascend processors.
- Integrate custom ops into the CANN runtime and execution graph.
- Use TVM for operator scheduling, auto-tuning, and benchmarking.
- Debug and optimize instruction-level performance for custom computation patterns.
Format of the Course
- Interactive lecture and demonstration.
- Hands-on coding of operators using TIK and TVM pipelines.
- Testing and tuning on Ascend hardware or simulators.
Course Customization Options
- To request a customized training for this course, please contact us to arrange.