Dziękujemy za wysłanie zapytania! Jeden z członków naszego zespołu skontaktuje się z Państwem wkrótce.
Dziękujemy za wysłanie rezerwacji! Jeden z członków naszego zespołu skontaktuje się z Państwem wkrótce.
Plan Szkolenia
Wprowadzenie do TinyML i AI wbudowanej
- Charakterystyka wdrażania modeli TinyML
- Ograniczenia w środowiskach mikrokontrolerów
- Przegląd łańcuchów narzędziowych AI wbudowanej
Podstawy optymalizacji modeli
- Zrozumienie zaszkodzonych operacji obliczeniowych
- Identyfikacja pamięciowo intensywnych operacji
- Profilowanie wydajności bazowego modelu
Techniki kwantyzacji
- Strategie kwantyzacji po treningu
- Kwantyzacja z uwzględnieniem treningu
- Ocenianie kompromisów między dokładnością a zasobami
Przycinanie i kompresja
- Metody przycinania strukturalnego i niestrukturalnego
- Udostępnianie wag i rzadkie modelowanie
- Algorytmy kompresji dla lekkiego wnioskowania
Optymalizacja z uwzględnieniem sprzętu
- Wdrażanie modeli na systemach ARM Cortex-M
- Optymalizacja dla rozszerzeń DSP i akceleratorów
- Mapowanie pamięci i uwagi na przepływ danych
Testowanie i walidacja
- Analiza opóźnienia i przepustowości
- Pomiar zużycia mocy i energii
- Testowanie dokładności i odporności
Przepływy pracy wdrażania i narzędzia
- Używanie TensorFlow Lite Micro do wdrożenia wbudowanego
- Integracja modeli TinyML z potokami Edge Impulse
- Testowanie i debugowanie na rzeczywistym sprzęcie
Zaawansowane strategie optymalizacyjne
- Szukanie architektur neuronowych dla TinyML
- Hybrydowe podejścia do kwantyzacji i przycinania
- Destylacja modeli dla wnioskowania wbudowanego
Podsumowanie i kolejne kroki
Wymagania
- Zrozumienie workflow uczenia maszynowego
- Doświadczenie w systemach wbudowanych lub rozwoju opartym na mikrokontrolerach
- Znajomość programowania w Pythonie
Adresat szkolenia
- Badacze AI
- Inżynierowie ML wbudowanych
- Profesjonalisci pracujący na systemach wnioskowania o ograniczonych zasobach
21 godzin