Dziękujemy za wysłanie zapytania! Jeden z członków naszego zespołu skontaktuje się z Państwem wkrótce.
Dziękujemy za wysłanie rezerwacji! Jeden z członków naszego zespołu skontaktuje się z Państwem wkrótce.
Plan Szkolenia
Wprowadzenie do Red Teamingu AI
- Zrozumienie krajobrazu zagrożeń AI
- Role zespołów red team w bezpieczeństwie AI
- Zagadnienia etyczne i prawne
Adversarial Machine Learning
- Typy ataków: unikanie, zatruwanie, ekstrakcja, wnioskowanie
- Generowanie przykładów adversarialnych (np. FGSM, PGD)
- Ataki celowane i niecelowane oraz metryki sukcesu
Testowanie Odporności Modeli
- Ocena odporności na zakłócenia
- Badanie ślepych punktów i trybów awarii modeli
- Testy obciążeniowe dla modeli klasyfikacji, wizji i NLP
Red Teaming Potoków AI
- Powierzchnia ataku potoków AI: dane, model, wdrożenie
- Wykorzystywanie niezabezpieczonych interfejsów API i punktów końcowych modeli
- Inżynieria wsteczna zachowań i wyników modeli
Symulacja i Narzędzia
- Korzystanie z Adversarial Robustness Toolbox (ART)
- Red teaming z narzędziami takimi jak TextAttack i IBM ART
- Narzędzia do sandboxingu, monitorowania i obserwowalności
Strategia Red Teamingu AI i Współpraca z Obroną
- Rozwijanie ćwiczeń i celów red teamingu
- Komunikowanie wyników zespołom blue team
- Integracja red teamingu z zarządzaniem ryzykiem AI
Podsumowanie i kolejne kroki
Wymagania
- Zrozumienie architektur uczenia maszynowego i głębokiego uczenia
- Doświadczenie w Pythonie i frameworkach ML (np. TensorFlow, PyTorch)
- Znajomość koncepcji cyberbezpieczeństwa lub technik ofensywnego bezpieczeństwa
Grupa docelowa
- Badacze bezpieczeństwa
- Zespoły ofensywnego bezpieczeństwa
- Specjaliści ds. zapewnienia AI i red teamingu
14 godzin
Opinie uczestników (1)
Profesjonalna wiedza oraz sposób, w jaki przedstawił ją przed nami
Miroslav Nachev - PUBLIC COURSE
Szkolenie - Cybersecurity in AI Systems
Przetłumaczone przez sztuczną inteligencję