Thank you for sending your enquiry! One of our team members will contact you shortly.
Thank you for sending your booking! One of our team members will contact you shortly.
Plan Szkolenia
Wprowadzenie do AI Red Teaming
- Zrozumienie krajobrazu zagrożeń AI
- Role red teams w bezpieczeństwie AI
- Etyczne i prawne uwarunkowania
Adversarial Machine Learning
- Typy ataków: unikanie, zatruwanie, ekstrakcja, wnioskowanie
- Generowanie przykładów adversarialnych (np. FGSM, PGD)
- Ataki celowane vs. niecelowane oraz metryki sukcesu
Testowanie Odporności Modeli
- Ocena odporności na perturbacje
- Badanie ślepych plam i trybów awarii modeli
- Przetestowanie modeli klasyfikacji, wizji i przetwarzania języka naturalnego
Red Teaming AI Pipelines
- Powierzchnia ataku w AI pipelines: dane, model, wdrażanie
- Wykorzystywanie niesprawnych API i punktów końcowych modeli
- Odwracanie inżynieryjne zachowań i wyjść modeli
Symulacja i Narzędzia
- Używanie Adversarial Robustness Toolbox (ART)
- Red teaming z narzędziami, takimi jak TextAttack i IBM ART
- Narzędzia sandboxowania, monitorowania i obserwowalności
Strategia i Obrona Red Teaming AI Collaboration
- Projektowanie ćwiczeń i celów red teamingowych
- Komunikowanie wyników zespołom blue
- Włączanie red teamingu do zarządzania ryzykiem AI
Podsumowanie i Krok Dalej
Wymagania
- Zrozumienie architektur uczenia maszynowego i głębokiego uczenia
- Doświadczenie z Python i ramami ML (np., TensorFlow, PyTorch)
- Zapoznanie z koncepcjami cyberbezpieczeństwa lub technikami ofensywnego bezpieczeństwa
Grupa docelowa
- Badacze bezpieczeństwa
- Zespoły ofensywnego bezpieczeństwa
- Specjaliści ds. zapewnienia AI i red teaming
14 godzin