Plan Szkolenia

Wprowadzenie do bezpieczeństwa w TinyML

  • Wyzwania bezpieczeństwa w systemach ML o ograniczonych zasobach
  • Modele zagrożeń dla wdrożeń TinyML
  • Kategorie ryzyka dla aplikacji AI wbudowanych

Ochrona prywatności w AI na krawędzi

  • Rozważania dotyczące prywatności przy przetwarzaniu danych na urządzeniach
  • Minimalizacja narażenia i transferu danych
  • Techniki decentralnego obsługi danych

Ataki złośliwe na modele TinyML

  • Zagrożenia związane z unikaniem modelu i truciznieniem
  • Manipulowanie wejściami na czujnikach wbudowanych
  • Ocena podatności w środowiskach o ograniczonych zasobach

Wzmocnienie bezpieczeństwa dla ML wbudowanego

  • Warstwy ochrony firmware i hardware
  • Kontrola dostępu i mechanizmy bezpiecznego rozruchu
  • Najlepsze praktyki w zakresie ochrony potoków wnioskowania

Techniki chronienia prywatności w TinyML

  • Rozważania dotyczące kwantyzacji i projektowania modeli dla prywatności
  • Techniki anonimizacji na urządzeniach
  • Lekkie szyfrowanie i metody obliczeń bezpiecznych

Bezpieczne wdrażanie i utrzymanie

  • Bezpieczna konfiguracja urządzeń TinyML
  • Strategie aktualizacji OTA i stosowania poprawek
  • Monitorowanie i reagowanie na incydenty na krawędzi sieci

Testowanie i weryfikacja bezpiecznych systemów TinyML

  • Ramy testowania bezpieczeństwa i prywatności
  • Symulacja rzeczywistych scenariuszy ataków
  • Weryfikacja i rozważania dotyczące zgodności

Studia przypadków i stosowane scenariusze

  • Niepowodzenia bezpieczeństwa w ekosystemach AI na krawędzi
  • Projektowanie odpornych architektur TinyML
  • Ocenianie kompromisów między wydajnością a ochroną

Podsumowanie i kolejne kroki

Wymagania

  • Zrozumienie architektur systemów wbudowanych
  • Doświadczenie w przepływach pracy uczenia maszynowego
  • Wiedza o podstawach cyberbezpieczeństwa

Adresaci kursu

  • Analiza zabezpieczeń
  • Deweloperzy AI
  • Inżynierowie wbudowani
 21 godzin

Liczba uczestników


cena netto za uczestnika

Propozycje terminów

Powiązane Kategorie