Bądźmy w kontakcie

Plan Szkolenia

Wprowadzenie do modelowania zagrożeń AI

  • Co sprawia, że systemy AI są podatne na ataki?
  • Powierzchnia ataku AI w porównaniu z tradycyjnymi systemami
  • Kluczowe wektory ataków: warstwy danych, modelu, wyjścia i interfejsu

Ataki wrogie na modele AI

  • Zrozumienie wrogich przykładów i technik perturbacji
  • Ataki białoskrzynkowe vs czarnoskrzynkowe
  • Metody FGSM, PGD i DeepFool
  • Wizualizacja i tworzenie wrogich próbek

Inwersja modelu i wycieki prywatności

  • Wnioskowanie danych treningowych na podstawie wyjścia modelu
  • Ataki na podstawie członkostwa
  • Ryzyka prywatności w modelach klasyfikacyjnych i generatywnych

Zatruwanie danych i iniekcje backdoorów

  • Jak zatrute dane wpływają na zachowanie modelu
  • Backdoory oparte na wyzwalaczach i ataki trojańskie
  • Strategie wykrywania i oczyszczania

Techniki odporności i obrony

  • Trening odporny na ataki i augmentacja danych
  • Maskowanie gradientów i przetwarzanie wstępne danych
  • Wygładzanie modelu i techniki regularyzacji

Obrony AI zachowujące prywatność

  • Wprowadzenie do różnicowej prywatności
  • Wstrzykiwanie szumu i budżety prywatności
  • Uczenie federacyjne i bezpieczna agregacja

Bezpieczeństwo AI w praktyce

  • Ocena i wdrażanie modeli uwzględniające zagrożenia
  • Stosowanie ART (Adversarial Robustness Toolbox) w praktycznych ustawieniach
  • Studia przypadków z branży: realne naruszenia i środki zaradcze

Podsumowanie i kolejne kroki

Wymagania

  • Zrozumienie procesów uczenia maszynowego i trenowania modeli
  • Doświadczenie w Pythonie i popularnych frameworkach ML, takich jak PyTorch lub TensorFlow
  • Znajomość podstawowych koncepcji bezpieczeństwa lub modelowania zagrożeń jest pomocna

Odbiorcy

  • Inżynierowie uczenia maszynowego
  • Analitycy cyberbezpieczeństwa
  • Badacze AI i zespoły walidacji modeli
 14 godzin

Liczba uczestników


Cena za uczestnika (netto)

Opinie uczestników (1)

Propozycje terminów

Powiązane Kategorie