Plan Szkolenia

Wprowadzenie do Red Teamingu AI - Zrozumienie krajobrazu zagrożeń AI - Role red teamów w bezpieczeństwie AI - Etyczne i prawne aspekty Adwersaryjne Machine Learning - Typy ataków: omijanie, zatruwanie, ekstrakcja, wnioskowanie - Generowanie przykładów adwersaryjnych (np. FGSM, PGD) - Ataki skierowane vs. nieskierowane oraz metryki sukcesu Testowanie Odporności Modeli - Ocenianie odporności pod wpływem perturbacji - Badanie ślepych plam modeli i trybów awarii - Testowanie klasyfikacji, wizji i modeli NLP pod ciśnieniem Red Teaming Pipelines AI - Powierzchnia ataku w pipeline AI: dane, model, wdrażanie - Wykorzystywanie niebezpiecznych API i punktów końcowych modeli - Odwrotne inżynierowanie zachowania i wyników modeli Symulacja i Narzędzia - Używanie Adversarial Robustness Toolbox (ART) - Red teaming z narzędziami takimi jak TextAttack i IBM ART - Narzędzia do sandboxowania, monitorowania i obserwacji Strategia i Obrona Red Teamingu AI Collaboration - Rozwijanie ćwiczeń i celów red teamów - Komunikowanie wyników do blue teamów - Integrowanie red teamingu z zarządzaniem ryzykiem AI Podsumowanie i Krok Dalej

Wymagania

  • Rozumienie architektur uczenia maszynowego i uczenia głębokiego
  • Doświadczenie w Python i ramach uczenia maszynowego (np. TensorFlow, PyTorch)
  • Znajomość koncepcji cyberbezpieczeństwa lub technik bezpieczeństwa ofensywnego

Grupa docelowa

  • Badacze bezpieczeństwa
  • Zespoły bezpieczeństwa ofensywnego
  • Specjaliści ds. zapewnienia AI i zespoły czerwonych
 14 godzin

Liczba uczestników


cena netto za uczestnika

Propozycje terminów

Powiązane Kategorie