Thank you for sending your enquiry! One of our team members will contact you shortly.
Thank you for sending your booking! One of our team members will contact you shortly.
Plan Szkolenia
Wprowadzenie do modelowania zagrożeń w AI
- Co czyni systemy AI podatnymi na ataki?
- Powierzchnia ataku w AI vs tradycyjnych systemach
- Kluczowe wektory ataku: warstwy danych, modelu, wyjścia i interfejsu
Złośliwe ataki na modele AI
- Zrozumienie przykładów złośliwych i technik perturbacji
- Ataki typu białe-książki vs czarne-książki
- Metody FGSM, PGD i DeepFool
- Wizualizacja i tworzenie złośliwych próbek
Inwersja modelu i wyciek prywatności
- Wnioskowanie danych treningowych na podstawie wyjścia modelu
- Ataki typu wnioskowanie o przynależności
- Ryzyko prywatności w modelach klasyfikacyjnych i generacyjnych
Zatruwanie danych i wstrzykiwanie backdoorów
- Jak zatruwanie danych wpływa na zachowanie modelu
- Backdoory oparte na triggerach i ataki Trojan
- Strategie wykrywania i oczyszczania
Odporność i techniki obronne
- Trening złośliwy i uzupełnianie danych
- Maskowanie gradientów i przetwarzanie wejść
- Gładzenie modelu i techniki regularizacji
Techniki obronne z zachowaniem prywatności w AI
- Wprowadzenie do różnicowej prywatności
- Wstrzykiwanie szumu i budżety prywatności
- Uczenie federowane i bezpieczne agregacja
AI Security w praktyce
- Ocena i wdrażanie modelu z uwzględnieniem zagrożeń
- Używanie ART (Adversarial Robustness Toolbox) w zastosowaniach praktycznych
- Przypadki studyjne z branży: napady i ich zapobieganie w świecie rzeczywistym
Podsumowanie i następne kroki
Wymagania
- Rozumienie przepływów pracy z uczeniem maszynowym i szkoleniem modeli
- Doświadczenie z Python i popularnymi ramami uczenia maszynowego, takimi jak PyTorch lub TensorFlow
- Zapoznanie z podstawowymi koncepcjami bezpieczeństwa lub modelowania zagrożeń jest pomocne
Grupa docelowa
- Inżynierowie uczenia maszynowego
- Analitycy bezpieczeństwa
- Badacze sztucznej inteligencji i zespoły weryfikacji modeli
14 godzin