Plan Szkolenia

Wprowadzenie do TinyML i AI wbudowanej

  • Charakterystyka wdrażania modeli TinyML
  • Ograniczenia w środowiskach mikrokontrolerów
  • Przegląd łańcuchów narzędziowych AI wbudowanej

Podstawy optymalizacji modeli

  • Zrozumienie zaszkodzonych operacji obliczeniowych
  • Identyfikacja pamięciowo intensywnych operacji
  • Profilowanie wydajności bazowego modelu

Techniki kwantyzacji

  • Strategie kwantyzacji po treningu
  • Kwantyzacja z uwzględnieniem treningu
  • Ocenianie kompromisów między dokładnością a zasobami

Przycinanie i kompresja

  • Metody przycinania strukturalnego i niestrukturalnego
  • Udostępnianie wag i rzadkie modelowanie
  • Algorytmy kompresji dla lekkiego wnioskowania

Optymalizacja z uwzględnieniem sprzętu

  • Wdrażanie modeli na systemach ARM Cortex-M
  • Optymalizacja dla rozszerzeń DSP i akceleratorów
  • Mapowanie pamięci i uwagi na przepływ danych

Testowanie i walidacja

  • Analiza opóźnienia i przepustowości
  • Pomiar zużycia mocy i energii
  • Testowanie dokładności i odporności

Przepływy pracy wdrażania i narzędzia

  • Używanie TensorFlow Lite Micro do wdrożenia wbudowanego
  • Integracja modeli TinyML z potokami Edge Impulse
  • Testowanie i debugowanie na rzeczywistym sprzęcie

Zaawansowane strategie optymalizacyjne

  • Szukanie architektur neuronowych dla TinyML
  • Hybrydowe podejścia do kwantyzacji i przycinania
  • Destylacja modeli dla wnioskowania wbudowanego

Podsumowanie i kolejne kroki

Wymagania

  • Zrozumienie workflow uczenia maszynowego
  • Doświadczenie w systemach wbudowanych lub rozwoju opartym na mikrokontrolerach
  • Znajomość programowania w Pythonie

Adresat szkolenia

  • Badacze AI
  • Inżynierowie ML wbudowanych
  • Profesjonalisci pracujący na systemach wnioskowania o ograniczonych zasobach
 21 godzin

Liczba uczestników


cena netto za uczestnika

Propozycje terminów

Powiązane Kategorie