Thank you for sending your enquiry! One of our team members will contact you shortly.
Thank you for sending your booking! One of our team members will contact you shortly.
Plan Szkolenia
Wprowadzenie do Red Teamingu AI
- Zrozumienie krajobrazu zagrożeń AI
- Role red teamów w bezpieczeństwie AI
- Etyczne i prawne aspekty
Adwersaryjne Machine Learning
- Typy ataków: omijanie, zatruwanie, ekstrakcja, wnioskowanie
- Generowanie przykładów adwersaryjnych (np. FGSM, PGD)
- Ataki skierowane vs. nieskierowane oraz metryki sukcesu
Testowanie Odporności Modeli
- Ocenianie odporności pod wpływem perturbacji
- Badanie ślepych plam modeli i trybów awarii
- Testowanie klasyfikacji, wizji i modeli NLP pod ciśnieniem
Red Teaming Pipelines AI
- Powierzchnia ataku w pipeline AI: dane, model, wdrażanie
- Wykorzystywanie niebezpiecznych API i punktów końcowych modeli
- Odwrotne inżynierowanie zachowania i wyników modeli
Symulacja i Narzędzia
- Używanie Adversarial Robustness Toolbox (ART)
- Red teaming z narzędziami takimi jak TextAttack i IBM ART
- Narzędzia do sandboxowania, monitorowania i obserwacji
Strategia i Obrona Red Teamingu AI Collaboration
- Rozwijanie ćwiczeń i celów red teamów
- Komunikowanie wyników do blue teamów
- Integrowanie red teamingu z zarządzaniem ryzykiem AI
Podsumowanie i Krok Dalej
Wymagania
- Rozumienie architektur uczenia maszynowego i uczenia głębokiego
- Doświadczenie w Python i ramach uczenia maszynowego (np. TensorFlow, PyTorch)
- Znajomość koncepcji cyberbezpieczeństwa lub technik bezpieczeństwa ofensywnego
Grupa docelowa
- Badacze bezpieczeństwa
- Zespoły bezpieczeństwa ofensywnego
- Specjaliści ds. zapewnienia AI i zespoły czerwonych
14 godzin