Plan Szkolenia

Wprowadzenie do Red Teamingu AI- Zrozumienie krajobrazu zagrożeń AI- Role red teamów w bezpieczeństwie AI- Etyczne i prawne aspektyAdwersaryjne Machine Learning- Typy ataków: omijanie, zatruwanie, ekstrakcja, wnioskowanie- Generowanie przykładów adwersaryjnych (np. FGSM, PGD)- Ataki skierowane vs. nieskierowane oraz metryki sukcesuTestowanie Odporności Modeli- Ocenianie odporności pod wpływem perturbacji- Badanie ślepych plam modeli i trybów awarii- Testowanie klasyfikacji, wizji i modeli NLP pod ciśnieniemRed Teaming Pipelines AI- Powierzchnia ataku w pipeline AI: dane, model, wdrażanie- Wykorzystywanie niebezpiecznych API i punktów końcowych modeli- Odwrotne inżynierowanie zachowania i wyników modeliSymulacja i Narzędzia- Używanie Adversarial Robustness Toolbox (ART)- Red teaming z narzędziami takimi jak TextAttack i IBM ART- Narzędzia do sandboxowania, monitorowania i obserwacjiStrategia i Obrona Red Teamingu AI Collaboration- Rozwijanie ćwiczeń i celów red teamów- Komunikowanie wyników do blue teamów- Integrowanie red teamingu z zarządzaniem ryzykiem AIPodsumowanie i Krok Dalej

Wymagania

  • Rozumienie architektur uczenia maszynowego i uczenia głębokiego
  • Doświadczenie w Python i ramach uczenia maszynowego (np. TensorFlow, PyTorch)
  • Znajomość koncepcji cyberbezpieczeństwa lub technik bezpieczeństwa ofensywnego

Grupa docelowa

  • Badacze bezpieczeństwa
  • Zespoły bezpieczeństwa ofensywnego
  • Specjaliści ds. zapewnienia AI i zespoły czerwonych
 14 godzin

Liczba uczestników


cena netto za uczestnika

Propozycje terminów

Powiązane Kategorie