Plan Szkolenia

Wprowadzenie do modelowania zagrożeń w AI
  • Co czyni systemy AI podatnymi na ataki?
  • Pole ataku w systemach AI w porównaniu do tradycyjnych systemów
  • Główne wektory ataku: warstwy danych, modelu, wyjścia i interfejsu
Ataki na modele AI
  • Zrozumienie przykładów przeciwnika i technik perturbacji
  • Ataki typu white-box vs black-box
  • Metody FGSM, PGD i DeepFool
  • Wizualizacja i tworzenie przykładów przeciwnika
Inwersja modelu i wyciek danych
  • Wnioskowanie danych treningowych z wyjścia modelu
  • Ataki na inwersję członkostwa
  • Ryzyka prywatności w modelach klasyfikacyjnych i generacyjnych
Zatruwanie danych i wstrzykiwanie tylnych drzwi
  • Jak zatrute dane wpływają na zachowanie modelu
  • Tylne drzwi oparte na wyzwalaczach i ataki Trojańskie
  • Strategie wykrywania i sanityzacji
Odporność i techniki obronne
  • Trening przeciwnika i powiększanie danych
  • Maskowanie gradientów i przetwarzanie wejść
  • Techniki wygładzania modeli i regularyzacji
Obronne techniki ochrony prywatności w AI
  • Wprowadzenie do prywatności różnicowej
  • Wstrzykiwanie szumu i budżety prywatności
  • Uczenie federowane i bezpieczne agregacja
AI Security w praktyce
  • Ocena i wdrażanie modeli z uwzględnieniem zagrożeń
  • Używanie ART (Adversarial Robustness Toolbox) w zastosowaniach praktycznych
  • Studia przypadków z branży: prawdziwe wycieki i strategie zminimalizowania zagrożeń
Podsumowanie i krok do przodu

Wymagania

  • Zrozumienie procesów uczenia maszynowego i treningu modeli
  • Dozwolę do Python i popularnych ramach ML, takich jak PyTorch lub TensorFlow
  • Znałość podstawowych pojęć związanych z bezpieczeństwem lub modelowaniem zagrożeń jest pomocna

Grupa docelowa

  • Inżynierowie uczenia maszynowego
  • Analitycy cyberbezpieczeństwa
  • Badacze sztucznej inteligencji i zespoły weryfikacji modeli
 14 godzin

Liczba uczestników


cena netto za uczestnika

Propozycje terminów

Powiązane Kategorie