Dziękujemy za wysłanie zapytania! Jeden z członków naszego zespołu skontaktuje się z Państwem wkrótce.
Dziękujemy za wysłanie rezerwacji! Jeden z członków naszego zespołu skontaktuje się z Państwem wkrótce.
Plan Szkolenia
Wprowadzenie do modelowania zagrożeń w AI
- Co czyni systemy AI podatnymi na ataki?
- Powierzchnia ataku w AI vs tradycyjnych systemach
- Kluczowe wektory ataku: warstwy danych, modelu, wyjścia i interfejsu
Złośliwe ataki na modele AI
- Zrozumienie przykładów złośliwych i technik perturbacji
- Ataki typu białe-książki vs czarne-książki
- Metody FGSM, PGD i DeepFool
- Wizualizacja i tworzenie złośliwych próbek
Inwersja modelu i wyciek prywatności
- Wnioskowanie danych treningowych na podstawie wyjścia modelu
- Ataki typu wnioskowanie o przynależności
- Ryzyko prywatności w modelach klasyfikacyjnych i generacyjnych
Zatruwanie danych i wstrzykiwanie backdoorów
- Jak zatruwanie danych wpływa na zachowanie modelu
- Backdoory oparte na triggerach i ataki Trojan
- Strategie wykrywania i oczyszczania
Odporność i techniki obronne
- Trening złośliwy i uzupełnianie danych
- Maskowanie gradientów i przetwarzanie wejść
- Gładzenie modelu i techniki regularizacji
Techniki obronne z zachowaniem prywatności w AI
- Wprowadzenie do różnicowej prywatności
- Wstrzykiwanie szumu i budżety prywatności
- Uczenie federowane i bezpieczne agregacja
AI Security w praktyce
- Ocena i wdrażanie modelu z uwzględnieniem zagrożeń
- Używanie ART (Adversarial Robustness Toolbox) w zastosowaniach praktycznych
- Przypadki studyjne z branży: napady i ich zapobieganie w świecie rzeczywistym
Podsumowanie i następne kroki
Wymagania
- Rozumienie przepływów pracy z uczeniem maszynowym i szkoleniem modeli
- Doświadczenie z Python i popularnymi ramami uczenia maszynowego, takimi jak PyTorch lub TensorFlow
- Zapoznanie z podstawowymi koncepcjami bezpieczeństwa lub modelowania zagrożeń jest pomocne
Grupa docelowa
- Inżynierowie uczenia maszynowego
- Analitycy bezpieczeństwa
- Badacze sztucznej inteligencji i zespoły weryfikacji modeli
14 godzin