Thank you for sending your enquiry! One of our team members will contact you shortly.
Thank you for sending your booking! One of our team members will contact you shortly.
Plan Szkolenia
Wprowadzenie do Red Teamingu AI- Zrozumienie krajobrazu zagrożeń AI- Role red teamów w bezpieczeństwie AI- Etyczne i prawne aspektyAdwersaryjne Machine Learning- Typy ataków: omijanie, zatruwanie, ekstrakcja, wnioskowanie- Generowanie przykładów adwersaryjnych (np. FGSM, PGD)- Ataki skierowane vs. nieskierowane oraz metryki sukcesuTestowanie Odporności Modeli- Ocenianie odporności pod wpływem perturbacji- Badanie ślepych plam modeli i trybów awarii- Testowanie klasyfikacji, wizji i modeli NLP pod ciśnieniemRed Teaming Pipelines AI- Powierzchnia ataku w pipeline AI: dane, model, wdrażanie- Wykorzystywanie niebezpiecznych API i punktów końcowych modeli- Odwrotne inżynierowanie zachowania i wyników modeliSymulacja i Narzędzia- Używanie Adversarial Robustness Toolbox (ART)- Red teaming z narzędziami takimi jak TextAttack i IBM ART- Narzędzia do sandboxowania, monitorowania i obserwacjiStrategia i Obrona Red Teamingu AI Collaboration- Rozwijanie ćwiczeń i celów red teamów- Komunikowanie wyników do blue teamów- Integrowanie red teamingu z zarządzaniem ryzykiem AIPodsumowanie i Krok Dalej
Wymagania
- Rozumienie architektur uczenia maszynowego i uczenia głębokiego
- Doświadczenie w Python i ramach uczenia maszynowego (np. TensorFlow, PyTorch)
- Znajomość koncepcji cyberbezpieczeństwa lub technik bezpieczeństwa ofensywnego
Grupa docelowa
- Badacze bezpieczeństwa
- Zespoły bezpieczeństwa ofensywnego
- Specjaliści ds. zapewnienia AI i zespoły czerwonych
14 godzin