Plan Szkolenia

Wprowadzenie do AI Red Teaming

  • Zrozumienie krajobrazu zagrożeń AI
  • Role red teams w bezpieczeństwie AI
  • Etyczne i prawne uwarunkowania

Adversarial Machine Learning

  • Typy ataków: unikanie, zatruwanie, ekstrakcja, wnioskowanie
  • Generowanie przykładów adversarialnych (np. FGSM, PGD)
  • Ataki celowane vs. niecelowane oraz metryki sukcesu

Testowanie Odporności Modeli

  • Ocena odporności na perturbacje
  • Badanie ślepych plam i trybów awarii modeli
  • Przetestowanie modeli klasyfikacji, wizji i przetwarzania języka naturalnego

Red Teaming AI Pipelines

  • Powierzchnia ataku w AI pipelines: dane, model, wdrażanie
  • Wykorzystywanie niesprawnych API i punktów końcowych modeli
  • Odwracanie inżynieryjne zachowań i wyjść modeli

Symulacja i Narzędzia

  • Używanie Adversarial Robustness Toolbox (ART)
  • Red teaming z narzędziami, takimi jak TextAttack i IBM ART
  • Narzędzia sandboxowania, monitorowania i obserwowalności

Strategia i Obrona Red Teaming AI Collaboration

  • Projektowanie ćwiczeń i celów red teamingowych
  • Komunikowanie wyników zespołom blue
  • Włączanie red teamingu do zarządzania ryzykiem AI

Podsumowanie i Krok Dalej

Wymagania

  • Zrozumienie architektur uczenia maszynowego i głębokiego uczenia
  • Doświadczenie z Python i ramami ML (np., TensorFlow, PyTorch)
  • Zapoznanie z koncepcjami cyberbezpieczeństwa lub technikami ofensywnego bezpieczeństwa

Grupa docelowa

  • Badacze bezpieczeństwa
  • Zespoły ofensywnego bezpieczeństwa
  • Specjaliści ds. zapewnienia AI i red teaming
 14 godzin

Liczba uczestników


cena netto za uczestnika

Propozycje terminów

Powiązane Kategorie