AI Inference and Deployment with CloudMatrix - Plan Szkolenia
CloudMatrix jest zunifikowaną platformą Huawei do rozwoju i wdrażania sztucznej inteligencji, zaprojektowaną do obsługi skalowalnych, produkcyjnych wniosków.
Ten prowadzony przez instruktora kurs (online lub na miejscu) jest skierowany do AI profesjonalistów o poziomie początkującego do średniozaawansowanego, którzy chcą wdrażać i monitorować modele AI za pomocą platformy CloudMatrix z integracją CANN i MindSpore.
Po zakończeniu tego kursu uczestnicy będą w stanie:
- Używać CloudMatrix do pakowania, wdrażania i serwowania modeli.
- Konwertować i optymalizować modele dla chipsetów Ascend.
- Konfigurować rurociągi do zadań wniosków w czasie rzeczywistym i w partiach.
- Monitorować wdrożenia i dostosowywać wydajność w środowiskach produkcyjnych.
Format kursu
- Interaktywna wykład i dyskusja.
- Ręczne korzystanie z CloudMatrix w prawdziwych scenariuszach wdrażania.
- Zadania prowadzone skupione na konwersji, optymalizacji i skalowaniu.
Opcje dostosowania kursu
- Aby poprosić o dostosowany szkolenie na podstawie Twojej infrastruktury AI lub środowiska chmur, skontaktuj się z nami w celu zorganizowania.
Plan Szkolenia
Wprowadzenie do Huawei CloudMatrix
- Ekosystem CloudMatrix i przepływ wdrażania
- Obsługiwane modele, formaty i tryby wdrażania
- Typowe przypadki użycia i obsługiwane zestawy chipów
Przygotowywanie modeli do wdrażania
- Eksport modelu z narzędzi do treningu (MindSpore, TensorFlow, PyTorch)
- Używanie ATC (Ascend Tensor Compiler) do konwersji formatów
- Modele o statycznym vs dynamicznym kształcie
Wdrażanie do CloudMatrix
- Tworzenie usług i rejestrowanie modeli
- Wdrażanie usług inferencji za pomocą UI lub CLI
- Routing, autoryzacja i kontrola dostępu
Obsługa żądań inferencji
- Przepływy inferencji w partiach vs w czasie rzeczywistym
- Pipeliny przetwarzania danych przed i po inferencji
- Wywoływanie usług CloudMatrix z zewnętrznych aplikacji
Monitorowanie i optymalizacja wydajności
- Logi wdrażania i śledzenie żądań
- Skalowanie zasobów i bilansowanie obciążenia
- Optymalizacja opóźnień i maksymalizacja przepustowości
Integracja z narzędziami przedsiębiorstw
- Łączenie CloudMatrix z OBS i ModelArts
- Używanie pracowni i wersjonowania modeli
- CI/CD dla wdrażania i cofania modeli
End-to-End Inference Pipeline
- Wdrażanie pełnego pipeline klasyfikacji obrazów
- Benchmarking i walidacja dokładności
- Symulowanie awarii i alertów systemowych
Podsumowanie i następne kroki
Wymagania
- Zrozumienie procesów treningowych modeli AI
- Doświadczenie w oparciu o frameworki ML na bazie Python
- Podstawowa znajomość koncepcji wdrażania w chmurze
Grupa docelowa
- Zespoły AI ops
- Inżynierowie uczenia maszynowego
- Specjaliści ds. wdrażania w chmurze pracujący z infrastrukturą Huawei
Szkolenia otwarte są realizowane w przypadku uzbierania się grupy szkoleniowej liczącej co najmniej 5 osób na dany termin.
AI Inference and Deployment with CloudMatrix - Plan Szkolenia - Rezerwacja
AI Inference and Deployment with CloudMatrix - Plan Szkolenia - Zapytanie
AI Inference and Deployment with CloudMatrix - Zapytanie o Konsultacje
Zapytanie o Konsultacje
Opinie uczestników (1)
Szeroki zakres wiedzy oraz przystępne przykłady
Lukasz - Inter Cars S.A.
Szkolenie - Intelligent Applications Fundamentals
Propozycje terminów
Szkolenia Powiązane
Rozwijanie aplikacji AI z użyciem Huawei Ascend i CANN
21 godzinHuawei Ascend to rodzina procesorów AI zaprojektowanych do wysokowydajnego wnioskowania i uczenia.
To szkolenie prowadzone przez instruktora (online lub na miejscu) jest skierowane do inżynierów AI i naukowców danych na poziomie średniozaawansowanym, którzy chcą tworzyć i optymalizować modele sieci neuronowych za pomocą platformy Huawei Ascend i zestawu narzędzi CANN.
Na koniec tego szkolenia uczestnicy będą mogli:
- Konfigurować i uruchamiać środowisko rozwojowe CANN.
- Rozwojować aplikacje AI za pomocą MindSpore i przepływów CloudMatrix.
- Optymalizować wydajność na jednostkach Ascend NPU za pomocą niestandardowych operatorów i podziału.
- Wdrażać modele w środowiskach krawędziowych lub chmurowych.
Format kursu
- Interaktywne wykłady i dyskusje.
- Praktyczne wykorzystanie Huawei Ascend i zestawu narzędzi CANN w przykładowych aplikacjach.
- Przewodniki do ćwiczeń skupionych na budowaniu, uczeniu i wdrażaniu modeli.
Opcje dostosowania kursu
- Aby złożyć wniosek o dostosowane szkolenie w ramach tego kursu na podstawie swojej infrastruktury lub zestawów danych, skontaktuj się z nami w celu ustalenia.
Wdrażanie modeli AI z CANN i procesorami Ascend AI
14 godzinCANN (Architektura obliczeniowa dla Neural Networks) to stos obliczeniowy AI firmy Huawei służący do wdrażania i optymalizowania modeli AI na procesorach Ascend AI.
Jest to szkolenie prowadzone przez instruktora (online lub na miejscu) skierowane do średnio zaawansowanych developerów i inżynierów AI, którzy chcą w efektywny sposób wdrażać przygotowane modele AI na sprzęcie Huawei Ascend za pomocą zestawu narzędzi CANN oraz narzędzi takich jak MindSpore, TensorFlow lub PyTorch.
Po zakończeniu tego szkolenia uczestnicy będą w stanie:
- Zrozumieć architekturę CANN i jej rolę w procesie wdrażania AI.
- Przekształcać i dostosowywać modele z popularnych frameworków do formatów kompatybilnych z Ascend.
- Korzystać z narzędzi takich jak ATC, konwersja modeli OM i MindSpore do wnioskowania na krawędzi i w chmurze.
- Diagnozować problemy związane z wdrażaniem i optymalizować wydajność na sprzęcie Ascend.
Format kursu
- Interaktywne wykłady i demonstracje.
- Praktyczne zajęcia laboratoryjne z użyciem narzędzi CANN i symulatorów lub urządzeń Ascend.
- Praktyczne scenariusze wdrażania oparte na rzeczywistych modelach AI.
Opcje dostosowania kursu
- Aby złożyć wniosek o dostosowane szkolenie dla tego kursu, skontaktuj się z nami w celu uzgodnienia.
Fundamentals
14 godzinTo szkolenie prowadzone przez instruktora (online lub na miejscu) jest skierowane do inżynierów AI i developerów o poziomie początkowym do średniozaawansowanym, którzy chcą zdobyć podstawową wiedzę na temat zasad i praktyk inżynierii AI.
Po zakończeniu tego szkolenia uczestnicy będą w stanie:
- Zrozumieć podstawowe koncepcje i technologie stojące za AI i uczeniem maszynowym.
- Wdrażać podstawowe modele uczenia maszynowego za pomocą TensorFlow i PyTorch.
- Zastosować techniki AI do rozwiązywania praktycznych problemów w rozwoju oprogramowania.
- Zarządzać i utrzymywać projekty AI stosując najlepsze praktyki w inżynierii AI.
- Rozpoznawać etyczne implikacje i odpowiedzialność związane z rozwojem systemów AI.
GPU Programming na Akceleratorach AI Biren
21 godzinAkceleratory AI Biren są wysokowydajnymi GPUs zaprojektowanymi dla obciążeń AI i HPC z wsparciem dla dużych skalowania uczenia i wnioskowania.
To prowadzone przez instruktora szkolenie na żywo (online lub na miejscu) jest przeznaczone dla programistów średnio zaawansowanych do zaawansowanych, którzy chcą programować i optymalizować aplikacje za pomocą własnej technologii Biren GPU stack, z praktycznymi porównaniami do środowisk opartych na CUDA.
Po zakończeniu tego szkolenia uczestnicy będą w stanie:
- Zrozumieć architekturę i hierarchię pamięci Biren GPU.
- Zainstalować środowisko rozwojowe i używać modelu programowania Biren.
- Przetłumaczyć i optymalizować kod w stylu CUDA dla platform Biren.
- Zastosować techniki optymalizacji wydajności i debugowania.
Format kursu
- Interaktywne wykłady i dyskusje.
- Ręczne używanie Biren SDK w przykładowych obciążeniach GPU.
- Zadaniami kierowanymi z koncentracją na przenoszeniu i optymalizacji wydajności.
Opcje dostosowania kursu
- Aby poprosić o dostosowane szkolenie dla tego kursu na podstawie swojego stosu aplikacji lub potrzeb integracji, skontaktuj się z nami w celu uzgodnienia.
Budowanie Inteligentnych Aplikacji z AI i ML
28 godzinTo szkolenie prowadzone przez instruktora (online lub na miejscu) jest przeznaczone dla profesjonalistów z dziedziny sztucznej inteligencji i programistów na poziomie średniozaawansowanym do zaawansowanym, którzy chcą tworzyć inteligentne aplikacje za pomocą AI i ML.
Po zakończeniu tego szkolenia uczestnicy będą w stanie:
- Zrozumieć zaawansowane koncepcje i technologie stojące za AI i ML.
- Analizować i wizualizować dane w celu informowania rozwoju modeli AI/ML.
- Tworzyć, trenować i wdrażać modele AI/ML skutecznie.
- Tworzyć inteligentne aplikacje, które mogą rozwiązywać rzeczywiste problemy.
- Oceniać etyczne implikacje aplikacji AI w różnych branżach.
Wprowadzenie do CANN dla deweloperów frameworków AI
7 godzinNarzędzie obliczeniowe CANN (Architektura obliczeniowa dla Neural Networks) firmy Huawei jest używane do kompilowania, optymalizowania i wdrażania modeli AI na procesorach Ascend AI.
To szkolenie prowadzone przez instruktora (online lub na miejscu) jest przeznaczone dla początkujących programistów AI, którzy chcą zrozumieć, jak CANN wpływa na cykl życia modelu od treningu do wdrażania, a także jak współpracuje z frameworkami takimi jak MindSpore, TensorFlow i PyTorch.
Po zakończeniu tego szkolenia uczestnicy będą w stanie:
- Zrozumieć cel i architekturę zestawu narzędzi CANN.
- Skonfigurować środowisko programistyczne z CANN i MindSpore.
- Przekonwertować i wdrożyć prosty model AI na sprzęcie Ascend.
- Nabyć podstawową wiedzę na przyszłe projekty optymalizacji lub integracji CANN.
Format kursu
- Interaktywna wykład i dyskusja.
- Praktyczne laboratoria z prostym wdrażaniem modeli.
- Krok po kroku wprowadzenie w zestaw narzędzi CANN i punkty integracji.
Opcje dostosowania kursu
- Aby złożyć wniosek o dostosowane szkolenie dla tego kursu, prosimy o kontakt.
CANN for Edge AI Deployment
14 godzinNarzędzie Ascend CANN od Huawei umożliwia potężne wnioskowanie AI na urządzeniach na krawędzi, takich jak Ascend 310. CANN dostarcza niezbędne narzędzia do kompilowania, optymalizowania i wdrażania modeli w środowiskach o ograniczonych możliwościach obliczeniowych i pamięci.
Ten szkolenie prowadzone przez instruktora (online lub na miejscu) jest przeznaczone dla AI developerów i integratorów na poziomie średnim, którzy chcą wdrażać i optymalizować modele na urządzeniach na krawędzi Ascend przy użyciu narzędzi CANN.
Po zakończeniu tego szkolenia uczestnicy będą w stanie:
- Przygotowywać i konwertować modele AI dla Ascend 310 za pomocą narzędzi CANN.
- Budować lekkie pipeline wnioskowania za pomocą MindSpore Lite i AscendCL.
- Optymalizować wydajność modeli w środowiskach o ograniczonych możliwościach obliczeniowych i pamięci.
- Wdrażać i monitorować aplikacje AI w rzeczywistych przypadkach użycia na krawędzi.
Format kursu
- Interaktywna wykład i demonstracja.
- Praktyczne ćwiczenia laboratoryjne z modelami i scenariuszami specyficznymi dla krawędzi.
- Przykłady wdrażania na żywo na wirtualnym lub fizycznym sprzęcie na krawędzi.
Opcje dostosowania kursu
- Aby zażądać dostosowanego szkolenia dla tego kursu, prosimy o kontakt z nami w celu ustalenia szczegółów.
Zrozumienie stosu obliczeniowego AI Huawei: Od CANN do MindSpore
14 godzinStos Huawei’s AI — od niskopoziomowego SDK CANN do wysokopoziomowego frameworka MindSpore — oferuje zintegrowane środowisko rozwoju i wdrażania sztucznej inteligencji optymalizowane dla sprzętu Ascend.
To szkolenie prowadzone przez instruktora (online lub stacjonarne) jest skierowane do początkujących do średnio zaawansowanych profesjonalistów technicznych, którzy chcą zrozumieć, jak składniki CANN i MindSpore współpracują ze sobą w celu wsparcia zarządzania cyklem życia sztucznej inteligencji i podejmowania decyzji infrastrukturalnych.
Po zakończeniu tego szkolenia uczestnicy będą w stanie:
- Zrozumieć warstwową architekturę stosu obliczeniowego sztucznej inteligencji Huawei’s.
- Określić, w jaki sposób CANN wspiera optymalizację modeli i wdrażanie na poziomie sprzętu.
- Ocenić framework MindSpore i narzędziowe łańcuchy w porównaniu z alternatywami branżowymi.
- Zlokalizować stos sztucznej inteligencji Huawei w środowiskach przedsiębiorstw lub chmur/na miejscu.
Format kursu
- Interaktywne wykłady i dyskusje.
- Live demos systemów i przewodniki na podstawie przypadków.
- Opcjonalne prowadzone laborytorium z przepływu modeli z MindSpore do CANN.
Opcje dostosowania kursu
- Aby poprosić o dostosowane szkolenie dla tego kursu, skontaktuj się z nami w celu uzgodnienia.
Optymalizacja wydajności sieci neuronowych z użyciem SDK CANN
14 godzinCANN SDK (Architektura obliczeniowa dla Neural Networks) jest fundamentem obliczeń AI firmy Huawei, pozwalającym programistom dopracowywać i optymalizować wydajność wdrażanych sieci neuronowych na procesorach AI Ascend.
To prowadzone przez instruktora szkolenie na żywo (online lub stacjonarne) jest skierowane do zaawansowanych programistów AI i inżynierów systemów, którzy chcą optymalizować wydajność wnioskowania za pomocą zaawansowanego zestawu narzędzi CANN, w tym Graph Engine, TIK i rozwoju niestandardowych operatorów.
Po zakończeniu tego szkolenia uczestnicy będą w stanie:
- Zrozumieć architekturę czasu uruchomienia CANN i cykl życia wydajności.
- Używać narzędzi profilowania i Graph Engine do analizy i optymalizacji wydajności.
- Tworzyć i optymalizować niestandardowe operatory za pomocą TIK i TVM.
- Rozwiązywać wąskie gardła pamięci i poprawiać przepływ modelu.
Format kursu
- Interaktywne wykłady i dyskusje.
- Praktyczne warsztaty z profilowaniem w czasie rzeczywistym i dostrajaniem operatorów.
- Ćwiczenia optymalizacyjne z użyciem przykładów wdrażania w przypadkach granicowych.
Opcje dostosowania kursu
- Aby poprosić o dostosowane szkolenie na tym kursie, skontaktuj się z nami w celu umówienia.
SDK dla Ascend i potoki NLP
14 godzinSDK CANN (architektura obliczeniowa dla Neural Networks) zapewnia potężne narzędzia do wdrażania i optymalizacji aplikacji AI w czasie rzeczywistym w dziedzinie komputerowego widzenia i NLP, szczególnie na sprzęcie Huawei Ascend.
To szkolenie prowadzone przez instruktora (online lub na miejscu) jest skierowane do praktyków AI na poziomie średnim, którzy chcą budować, wdrażać i optymalizować modele wizji i języka za pomocą SDK CANN do scenariuszy produkcyjnych.
Po zakończeniu tego szkolenia uczestnicy będą w stanie:
- Wdrażać i optymalizować modele CV i NLP za pomocą CANN i AscendCL.
- Korzystać z narzędzi CANN do konwertowania modeli i ich integracji w żywe pipeline.
- Optymalizować wydajność inferencji dla zadań takich jak detekcja, klasyfikacja i analiza sentymentu.
- Budować pipeline CV/NLP w czasie rzeczywistym dla scenariuszy wdrażania na krawędzi lub w chmurze.
Format kursu
- Interaktywne wykłady i demonstracje.
- Ćwiczenia laboratoryjne z wdrażaniem modeli i profilowaniem wydajności.
- Projektowanie żywych pipeline za pomocą rzeczywistych scenariuszy CV i NLP.
Opcje dostosowywania kursu
- Aby poprosić o dostosowane szkolenie dla tego kursu, skontaktuj się z nami w celu uzgodnień.
Budowanie niestandardowych operacji AI z CANN TIK i TVM
14 godzinCANN TIK (Tensor Instruction Kernel) i Apache TVM umożliwiają zaawansowaną optymalizację i dostosowanie operatorów modeli AI dla Huawei Ascend sprzętu.
To szkolenie prowadzone przez instruktora (online lub na miejscu) jest przeznaczone dla zaawansowanych programistów systemowych, którzy chcą budować, wdrażać i dostrajać niestandardowe operatory dla modeli AI za pomocą modelu programowania TIK firmy CANN i integracji z kompilatorem TVM.
Po zakończeniu tego szkolenia uczestnicy będą w stanie:
- Pisanie i testowanie niestandardowych operatorów AI za pomocą TIK DSL dla procesorów Ascend.
- Integrowanie niestandardowych operacji z czasem wykonania CANN i wykresem wykonania.
- Używanie TVM do planowania operatorów, automatycznego dostrajania i testowania wydajności.
- Debugowanie i optymalizowanie wydajności poziomu instrukcji dla niestandardowych wzorców obliczeń.
Format kursu
- Interaktywna lekcja i demonstracja.
- Ręczne programowanie operatorów za pomocą TIK i pipeline TVM.
- Testowanie i dostrajanie na sprzęcie Ascend lub symulatorach.
Opcje dostosowywania kursu
- Aby zapytać o dostosowane szkolenie dla tego kursu, skontaktuj się z nami w celu ustalenia.
Migrowanie Aplikacji CUDA na Architektury Chiny GPU
21 godzinChińskie architektury GPU, takie jak Huawei Ascend, Biren i Cambricon MLUs, oferują alternatywy dla CUDA, dostosowane do lokalnych rynków AI i HPC.
To prowadzone przez instruktora szkolenie (online lub na miejscu) jest skierowane do zaawansowanych programistów GPU i specjalistów infrastruktury, którzy chcą migrować i optymalizować istniejące aplikacje CUDA do wdrażania na chińskich platformach sprzętowych.
Na zakończenie tego szkolenia uczestnicy będą w stanie:
- Ocenić kompatybilność istniejących obciążenia CUDA z chińskimi alternatywami dla chipów.
- Przenieść bazy kodów CUDA do środowisk Huawei CANN, Biren SDK i Cambricon BANGPy.
- Porównać wydajność i zidentyfikować punkty optymalizacji między platformami.
- Zadbać o praktyczne wyzwania związane z wsparciem dla wielu architektur i wdrażaniem.
Format kursu
- Interaktywne wykłady i dyskusje.
- Praktyczne laboratoria dotyczące tłumaczenia kodów i porównywania wydajności.
- Kierowane ćwiczenia skupione na strategiach adaptacji wielu GPU.
Opcje dostosowywania kursu
- Aby zlecić dostosowane szkolenie dla tego kursu na podstawie Twojej platformy lub projektu CUDA, skontaktuj się z nami, aby ułożyć.
Aplikacje Inteligentne Podstawy
14 godzinTo szkolenie prowadzone przez instruktora w Polsce (online lub stacjonarnie) jest skierowane do początkujących specjalistów IT, którzy chcą zdobyć podstawową wiedzę na temat inteligentnych aplikacji oraz dowiedzieć się, jak mogą one być stosowane w różnych branżach.
Po ukończeniu tego szkolenia uczestnicy będą w stanie:
- Zrozumieć historię, zasady i wpływ sztucznej inteligencji.
- Rozpoznawać i stosować różne algorytmy uczenia maszynowego.
- Zarządzać i analizować dane skutecznie w zastosowaniach AI.
- Rozpoznawać praktyczne zastosowania i ograniczenia AI w różnych sektorach.
- Omówić kwestie etyczne i społeczne implikacje technologii AI.
Aplikacje Inteligentne Zaawansowane
21 godzinTo szkolenie prowadzone przez instruktora (online lub stacjonarne) jest przeznaczone dla średnio zaawansowanych do zaawansowanych naukowców danych, inżynierów i praktyków AI, którzy chcą opanować skomplikowane aspekty inteligentnych aplikacji i wykorzystać je do rozwiązania skomplikowanych, rzeczywistych problemów.
Po ukończeniu tego szkolenia uczestnicy będą mogli:
- Wdrożyć i analizować architektury uczenia głębokiego.
- Zastosować uczenie maszynowe w dużą skalę w środowisku obliczeń rozproszonych.
- Projektować i wykonywać modele uczenia wzmocnionego do podejmowania decyzji.
- Rozwijać zaawansowane systemy NLP do zrozumienia języka.
- Korzystać z technik wizji komputerowej do analizy obrazów i wideo.
- Rozwiązywać etyczne aspekty przy tworzeniu i wdrażaniu systemów AI.
Poabc
21 godzinAscend, Biren i Cambricon są wiodącymi platformami sprzętowymi AI w Chinach, każda z nich oferuje unikalne narzędzia do przyspieszenia i profilowania dla zadań AI na skalę produkcyjną.
Ten szkolenie prowadzone przez instruktora (online lub na miejscu) jest skierowane do zaawansowanych inżynierów infrastruktury AI i wydajności, którzy chcą optymalizować przepływy wnioskowania modeli i uczenia się w różnych chińskich platformach układów scalonych AI.
Po zakończeniu tego szkolenia uczestnicy będą w stanie:
- Benchmarkować modele na platformach Ascend, Biren i Cambricon.
- Wykrywać wąskie gardła systemowe i niedoskonałości w pamięci/obliczeniach.
- Zastosować optymalizacje na poziomie grafu, jądra i operacji.
- Dostosować kanały wdrażania w celu poprawy przepływu i opóźnienia.
Format Kursu
- Interaktywne wykłady i dyskusje.
- Praktyczne używanie narzędzi profilowania i optymalizacji na każdej platformie.
- Wskazówki dotyczące ćwiczeń skupionych na praktycznych scenariuszach dostosowywania.
Opcje dostosowania kursu
- Aby zapytać o dostosowane szkolenie dla tego kursu na podstawie Twojego środowiska wydajności lub typu modelu, skontaktuj się z nami, aby to załatwić.