Dziękujemy za wysłanie zapytania! Jeden z członków naszego zespołu skontaktuje się z Państwem wkrótce.
Dziękujemy za wysłanie rezerwacji! Jeden z członków naszego zespołu skontaktuje się z Państwem wkrótce.
Plan Szkolenia
Wprowadzenie do AI Red Teaming
- Zrozumienie krajobrazu zagrożeń AI
- Role red teams w bezpieczeństwie AI
- Etyczne i prawne uwarunkowania
Adversarial Machine Learning
- Typy ataków: unikanie, zatruwanie, ekstrakcja, wnioskowanie
- Generowanie przykładów adversarialnych (np. FGSM, PGD)
- Ataki celowane vs. niecelowane oraz metryki sukcesu
Testowanie Odporności Modeli
- Ocena odporności na perturbacje
- Badanie ślepych plam i trybów awarii modeli
- Przetestowanie modeli klasyfikacji, wizji i przetwarzania języka naturalnego
Red Teaming AI Pipelines
- Powierzchnia ataku w AI pipelines: dane, model, wdrażanie
- Wykorzystywanie niesprawnych API i punktów końcowych modeli
- Odwracanie inżynieryjne zachowań i wyjść modeli
Symulacja i Narzędzia
- Używanie Adversarial Robustness Toolbox (ART)
- Red teaming z narzędziami, takimi jak TextAttack i IBM ART
- Narzędzia sandboxowania, monitorowania i obserwowalności
Strategia i Obrona Red Teaming AI Collaboration
- Projektowanie ćwiczeń i celów red teamingowych
- Komunikowanie wyników zespołom blue
- Włączanie red teamingu do zarządzania ryzykiem AI
Podsumowanie i Krok Dalej
Wymagania
- Zrozumienie architektur uczenia maszynowego i głębokiego uczenia
- Doświadczenie z Python i ramami ML (np., TensorFlow, PyTorch)
- Zapoznanie z koncepcjami cyberbezpieczeństwa lub technikami ofensywnego bezpieczeństwa
Grupa docelowa
- Badacze bezpieczeństwa
- Zespoły ofensywnego bezpieczeństwa
- Specjaliści ds. zapewnienia AI i red teaming
14 godzin