Plan Szkolenia

Wprowadzenie do Red Teaming AI

  • Zrozumienie krajobrazu zagrożeń AI.
  • Role red teams w zabezpieczeniach AI.
  • Etyczne i prawne aspekty.

Awersyjne uczenie maszynowe

  • Rodzaje ataków: unik, otrucie, ekstrakcja, wnioskowanie.
  • Generowanie przykładow awersyjnych (np., FGSM, PGD).
  • Zasieleowane vs niesieleowane ataki i mierniki sukcesu.

Testowanie odporności modeli

  • Ocena odporności na perturbacje.
  • Badanie ślepych punktów i trybów awarii modelu.
  • Testowanie stresowe modeli klasyfikacji, wizji komputerowej i NLP.

Red Teaming potoków AI

  • Powierzchnia ataku potoków AI: dane, model, wdrożenie.
  • Wykorzystywanie niewłaściwych API i punktów końcowych modeli.
  • Rewersowanie zachowania i wyników modelu.

Symulacja i narzędzia

  • Używanie Adversarial Robustness Toolbox (ART).
  • Red teaming za pomocą narzędzi takich jak TextAttack i IBM ART.
  • Narzędzia do izolacji, monitorowania i obserwowalności.

Strategia red teaming AI i współpraca z obroną

  • Rozwój ćwiczeń i celów red teaming.
  • Komunikowanie wyników do blue teams.
  • Integracja red teaming w zarządzanie ryzykiem AI.

Podsumowanie i kolejne kroki

Wymagania

  • Zrozumienie architektury uczenia maszynowego i głębokiego uczenia.
  • Doświadczenie z Pythonem i frameworkami ML (np., TensorFlow, PyTorch).
  • Znajomość koncepcji cyberbezpieczeństwa lub technik ofensywnych zabezpieczeń.

Odbiorcy kursu

  • Badacze ds. zabezpieczeń.
  • Zespoły ds. ofensywnych zabezpieczeń.
  • Profesjonaliści ds. asercji AI i red teaming.
 14 godzin

Liczba uczestników


cena netto za uczestnika

Propozycje terminów

Powiązane Kategorie