Plan Szkolenia

Wprowadzenie do modelowania zagrożeń w AI

  • Co czyni systemy AI podatnymi na ataki?
  • Powierzchnia ataku w AI vs tradycyjnych systemach
  • Kluczowe wektory ataku: warstwy danych, modelu, wyjścia i interfejsu

Złośliwe ataki na modele AI

  • Zrozumienie przykładów złośliwych i technik perturbacji
  • Ataki typu białe-książki vs czarne-książki
  • Metody FGSM, PGD i DeepFool
  • Wizualizacja i tworzenie złośliwych próbek

Inwersja modelu i wyciek prywatności

  • Wnioskowanie danych treningowych na podstawie wyjścia modelu
  • Ataki typu wnioskowanie o przynależności
  • Ryzyko prywatności w modelach klasyfikacyjnych i generacyjnych

Zatruwanie danych i wstrzykiwanie backdoorów

  • Jak zatruwanie danych wpływa na zachowanie modelu
  • Backdoory oparte na triggerach i ataki Trojan
  • Strategie wykrywania i oczyszczania

Odporność i techniki obronne

  • Trening złośliwy i uzupełnianie danych
  • Maskowanie gradientów i przetwarzanie wejść
  • Gładzenie modelu i techniki regularizacji

Techniki obronne z zachowaniem prywatności w AI

  • Wprowadzenie do różnicowej prywatności
  • Wstrzykiwanie szumu i budżety prywatności
  • Uczenie federowane i bezpieczne agregacja

AI Security w praktyce

  • Ocena i wdrażanie modelu z uwzględnieniem zagrożeń
  • Używanie ART (Adversarial Robustness Toolbox) w zastosowaniach praktycznych
  • Przypadki studyjne z branży: napady i ich zapobieganie w świecie rzeczywistym

Podsumowanie i następne kroki

Wymagania

  • Rozumienie przepływów pracy z uczeniem maszynowym i szkoleniem modeli
  • Doświadczenie z Python i popularnymi ramami uczenia maszynowego, takimi jak PyTorch lub TensorFlow
  • Zapoznanie z podstawowymi koncepcjami bezpieczeństwa lub modelowania zagrożeń jest pomocne

Grupa docelowa

  • Inżynierowie uczenia maszynowego
  • Analitycy bezpieczeństwa
  • Badacze sztucznej inteligencji i zespoły weryfikacji modeli
 14 godzin

Liczba uczestników


cena netto za uczestnika

Propozycje terminów

Powiązane Kategorie