Plan Szkolenia

Wprowadzenie do Red Teamingu AI

  • Zrozumienie krajobrazu zagrożeń AI
  • Role zespołów red team w bezpieczeństwie AI
  • Zagadnienia etyczne i prawne

Adversarial Machine Learning

  • Typy ataków: unikanie, zatruwanie, ekstrakcja, wnioskowanie
  • Generowanie przykładów adversarialnych (np. FGSM, PGD)
  • Ataki celowane i niecelowane oraz metryki sukcesu

Testowanie Odporności Modeli

  • Ocena odporności na zakłócenia
  • Badanie ślepych punktów i trybów awarii modeli
  • Testy obciążeniowe dla modeli klasyfikacji, wizji i NLP

Red Teaming Potoków AI

  • Powierzchnia ataku potoków AI: dane, model, wdrożenie
  • Wykorzystywanie niezabezpieczonych interfejsów API i punktów końcowych modeli
  • Inżynieria wsteczna zachowań i wyników modeli

Symulacja i Narzędzia

  • Korzystanie z Adversarial Robustness Toolbox (ART)
  • Red teaming z narzędziami takimi jak TextAttack i IBM ART
  • Narzędzia do sandboxingu, monitorowania i obserwowalności

Strategia Red Teamingu AI i Współpraca z Obroną

  • Rozwijanie ćwiczeń i celów red teamingu
  • Komunikowanie wyników zespołom blue team
  • Integracja red teamingu z zarządzaniem ryzykiem AI

Podsumowanie i kolejne kroki

Wymagania

  • Zrozumienie architektur uczenia maszynowego i głębokiego uczenia
  • Doświadczenie w Pythonie i frameworkach ML (np. TensorFlow, PyTorch)
  • Znajomość koncepcji cyberbezpieczeństwa lub technik ofensywnego bezpieczeństwa

Grupa docelowa

  • Badacze bezpieczeństwa
  • Zespoły ofensywnego bezpieczeństwa
  • Specjaliści ds. zapewnienia AI i red teamingu
 14 godzin

Liczba uczestników


Cena za uczestnika

Opinie uczestników (1)

Propozycje terminów

Powiązane Kategorie