Plan Szkolenia

Wprowadzenie do Huawei CloudMatrix

  • Ekosystem CloudMatrix i przepływ wdrażania
  • Obsługiwane modele, formaty i tryby wdrażania
  • Typowe przypadki użycia i obsługiwane zestawy chipów

Przygotowywanie modeli do wdrażania

  • Eksport modelu z narzędzi do treningu (MindSpore, TensorFlow, PyTorch)
  • Używanie ATC (Ascend Tensor Compiler) do konwersji formatów
  • Modele o statycznym vs dynamicznym kształcie

Wdrażanie do CloudMatrix

  • Tworzenie usług i rejestrowanie modeli
  • Wdrażanie usług inferencji za pomocą UI lub CLI
  • Routing, autoryzacja i kontrola dostępu

Obsługa żądań inferencji

  • Przepływy inferencji w partiach vs w czasie rzeczywistym
  • Pipeliny przetwarzania danych przed i po inferencji
  • Wywoływanie usług CloudMatrix z zewnętrznych aplikacji

Monitorowanie i optymalizacja wydajności

  • Logi wdrażania i śledzenie żądań
  • Skalowanie zasobów i bilansowanie obciążenia
  • Optymalizacja opóźnień i maksymalizacja przepustowości

Integracja z narzędziami przedsiębiorstw

  • Łączenie CloudMatrix z OBS i ModelArts
  • Używanie pracowni i wersjonowania modeli
  • CI/CD dla wdrażania i cofania modeli

End-to-End Inference Pipeline

  • Wdrażanie pełnego pipeline klasyfikacji obrazów
  • Benchmarking i walidacja dokładności
  • Symulowanie awarii i alertów systemowych

Podsumowanie i następne kroki

Wymagania

  • Zrozumienie procesów treningowych modeli AI
  • Doświadczenie w oparciu o frameworki ML na bazie Python
  • Podstawowa znajomość koncepcji wdrażania w chmurze

Grupa docelowa

  • Zespoły AI ops
  • Inżynierowie uczenia maszynowego
  • Specjaliści ds. wdrażania w chmurze pracujący z infrastrukturą Huawei
 21 godzin

Liczba uczestników


cena netto za uczestnika

Opinie uczestników (1)

Propozycje terminów

Powiązane Kategorie