Dziękujemy za wysłanie zapytania! Jeden z członków naszego zespołu skontaktuje się z Państwem wkrótce.
Dziękujemy za wysłanie rezerwacji! Jeden z członków naszego zespołu skontaktuje się z Państwem wkrótce.
Plan Szkolenia
Wprowadzenie do TinyML i sztucznej inteligencji wbudowanej
- Charakterystyka wdrażania modeli TinyML
- Ograniczenia w środowiskach mikrokontrolerów
- Przegląd łańcuchów narzędziowych dla sztucznej inteligencji wbudowanej
Podstawy optymalizacji modeli
- Zrozumienie wąskich gardeł obliczeniowych
- Identyfikacja operacji intensywnie wykorzystujących pamięć
- Profilowanie wydajności bazowej
Techniki kwantyzacji
- Strategie kwantyzacji po treningu
- Kwantyzacja z uwzględnieniem treningu
- Ocena kompromisów między dokładnością a zasobami
Przycinanie i kompresja
- Metody przycinania strukturalnego i niestrukturalnego
- Udostępnianie wag i rzadkość modelu
- Algorytmy kompresji dla lekkiego wnioskowania
Optymalizacja z uwzględnieniem sprzętu
- Wdrażanie modeli na systemach ARM Cortex-M
- Optymalizacja dla rozszerzeń DSP i akceleratorów
- Mapowanie pamięci i rozważania dotyczące przepływu danych
Benchmarking i walidacja
- Analiza opóźnienia i przepustowości
- Pomiar zużycia energii i mocy
- Testowanie dokładności i odporności
Workflow i narzędzia wdrażania
- Wykorzystanie TensorFlow Lite Micro do wdrażania na urządzeniach wbudowanych
- Integracja modeli TinyML z potokami Edge Impulse
- Testowanie i debugowanie na rzeczywistym sprzęcie
Zaawansowane strategie optymalizacji
- Wyszukiwanie architektur neuronowych dla TinyML
- Hybrydowe podejścia kwantyzacji i przycinania
- Destylacja modeli dla wnioskowania na urządzeniach wbudowanych
Podsumowanie i kolejne kroki
Wymagania
- Zrozumienie procesów uczenia maszynowego
- Doświadczenie w systemach wbudowanych lub programowaniu mikrokontrolerów
- Znajomość programowania w Pythonie
Grupa docelowa
- Badacze AI
- Inżynierowie Embedded ML
- Profesjonaliści pracujący nad systemami wnioskowania o ograniczonych zasobach
21 godzin