Bądźmy w kontakcie

Plan Szkolenia

Wprowadzenie do TinyML i sztucznej inteligencji wbudowanej

  • Charakterystyka wdrażania modeli TinyML
  • Ograniczenia w środowiskach mikrokontrolerów
  • Przegląd łańcuchów narzędziowych dla sztucznej inteligencji wbudowanej

Podstawy optymalizacji modeli

  • Zrozumienie wąskich gardeł obliczeniowych
  • Identyfikacja operacji intensywnie wykorzystujących pamięć
  • Profilowanie wydajności bazowej

Techniki kwantyzacji

  • Strategie kwantyzacji po treningu
  • Kwantyzacja z uwzględnieniem treningu
  • Ocena kompromisów między dokładnością a zasobami

Przycinanie i kompresja

  • Metody przycinania strukturalnego i niestrukturalnego
  • Udostępnianie wag i rzadkość modelu
  • Algorytmy kompresji dla lekkiego wnioskowania

Optymalizacja z uwzględnieniem sprzętu

  • Wdrażanie modeli na systemach ARM Cortex-M
  • Optymalizacja dla rozszerzeń DSP i akceleratorów
  • Mapowanie pamięci i rozważania dotyczące przepływu danych

Benchmarking i walidacja

  • Analiza opóźnienia i przepustowości
  • Pomiar zużycia energii i mocy
  • Testowanie dokładności i odporności

Workflow i narzędzia wdrażania

  • Wykorzystanie TensorFlow Lite Micro do wdrażania na urządzeniach wbudowanych
  • Integracja modeli TinyML z potokami Edge Impulse
  • Testowanie i debugowanie na rzeczywistym sprzęcie

Zaawansowane strategie optymalizacji

  • Wyszukiwanie architektur neuronowych dla TinyML
  • Hybrydowe podejścia kwantyzacji i przycinania
  • Destylacja modeli dla wnioskowania na urządzeniach wbudowanych

Podsumowanie i kolejne kroki

Wymagania

  • Zrozumienie procesów uczenia maszynowego
  • Doświadczenie w systemach wbudowanych lub programowaniu mikrokontrolerów
  • Znajomość programowania w Pythonie

Grupa docelowa

  • Badacze AI
  • Inżynierowie Embedded ML
  • Profesjonaliści pracujący nad systemami wnioskowania o ograniczonych zasobach
 21 godzin

Liczba uczestników


Cena za uczestnika (netto)

Propozycje terminów

Powiązane Kategorie