Dziękujemy za wysłanie zapytania! Jeden z członków naszego zespołu skontaktuje się z Państwem wkrótce.
Dziękujemy za wysłanie rezerwacji! Jeden z członków naszego zespołu skontaktuje się z Państwem wkrótce.
Plan Szkolenia
Wprowadzenie do Red Teaming AI
- Zrozumienie krajobrazu zagrożeń AI.
- Role red teams w zabezpieczeniach AI.
- Etyczne i prawne aspekty.
Awersyjne uczenie maszynowe
- Rodzaje ataków: unik, otrucie, ekstrakcja, wnioskowanie.
- Generowanie przykładow awersyjnych (np., FGSM, PGD).
- Zasieleowane vs niesieleowane ataki i mierniki sukcesu.
Testowanie odporności modeli
- Ocena odporności na perturbacje.
- Badanie ślepych punktów i trybów awarii modelu.
- Testowanie stresowe modeli klasyfikacji, wizji komputerowej i NLP.
Red Teaming potoków AI
- Powierzchnia ataku potoków AI: dane, model, wdrożenie.
- Wykorzystywanie niewłaściwych API i punktów końcowych modeli.
- Rewersowanie zachowania i wyników modelu.
Symulacja i narzędzia
- Używanie Adversarial Robustness Toolbox (ART).
- Red teaming za pomocą narzędzi takich jak TextAttack i IBM ART.
- Narzędzia do izolacji, monitorowania i obserwowalności.
Strategia red teaming AI i współpraca z obroną
- Rozwój ćwiczeń i celów red teaming.
- Komunikowanie wyników do blue teams.
- Integracja red teaming w zarządzanie ryzykiem AI.
Podsumowanie i kolejne kroki
Wymagania
- Zrozumienie architektury uczenia maszynowego i głębokiego uczenia.
- Doświadczenie z Pythonem i frameworkami ML (np., TensorFlow, PyTorch).
- Znajomość koncepcji cyberbezpieczeństwa lub technik ofensywnych zabezpieczeń.
Odbiorcy kursu
- Badacze ds. zabezpieczeń.
- Zespoły ds. ofensywnych zabezpieczeń.
- Profesjonaliści ds. asercji AI i red teaming.
14 godzin
Opinie uczestników (1)
Profesjonalna wiedza oraz sposób, w jaki przedstawił ją przed nami
Miroslav Nachev - PUBLIC COURSE
Szkolenie - Cybersecurity in AI Systems
Przetłumaczone przez sztuczną inteligencję