Plan Szkolenia

Wprowadzenie do modelowania zagrożeń AI

  • Co sprawia, że systemy AI są podatne?
  • Powierzchnia ataku w AI vs tradycyjnych systemach
  • Kluczowe wektory ataków: dane, model, wyniki i warstwy interfejsu

Ataki wprowadzające błędy na modele AI

  • Zrozumienie przykładów wprowadzających błędy i technik perturbacji
  • Biały- i czarny-box ataki
  • Metody FGSM, PGD i DeepFool
  • Wizualizacja i tworzenie próbek wprowadzających błędy

Odpowiedź modelu i ujawnienie prywatności

  • Wywnioskowanie danych treningowych z wyników modelu
  • Ataki na członkostwo
  • Ryzyko dla prywatności w modelach klasyfikacyjnych i generatywnych

Otrucie danych i iniekcje tytularne

  • Jak otrute dane wpływają na zachowanie modelu
  • Ataki tytularne i trojańskie oparte na sygnale wywołującym
  • Strategie wykrywania i czyszczenia

Odporność i techniki obrony

  • Odporne treningi i augmentacja danych
  • Maskowanie gradientów i wstępną przetwarzanie wejścia
  • Techniki wygładzania modelu i regularizacji

Prywatność-chroniące obrona AI

  • Wprowadzenie do prywatności różnicowej
  • Wprowadzanie szumu i budżety prywatności
  • Uczenie federacyjne i bezpieczna agregacja

Bezpieczeństwo AI w praktyce

  • Ocena i wdrażanie modeli świadomych zagrożeń
  • Korzystanie z ART (Adversarial Robustness Toolbox) w praktyce
  • Studia przypadków z branży: rzeczywiste naruszenia i ich łagodzenie

Podsumowanie i kolejne kroki

Wymagania

  • Zrozumienie przepływności uczenia maszynowego i treningu modeli
  • Doświadczenie w obszarze Pythona i popularnych ram uczenia maszynowego, takich jak PyTorch lub TensorFlow
  • Podstawowa znajomość koncepcji zabezpieczeń lub modelowania zagrożeń jest pomocna

Skierowanie

  • Inżynierowie uczenia maszynowego
  • Analiza zabezpieczeń cyfrowych
  • Badacze AI i zespoły weryfikacji modeli
 14 godzin

Liczba uczestników


Cena za uczestnika

Opinie uczestników (1)

Propozycje terminów

Powiązane Kategorie