Thank you for sending your enquiry! One of our team members will contact you shortly.
Thank you for sending your booking! One of our team members will contact you shortly.
Plan Szkolenia
Wprowadzenie do modelowania zagrożeń w AI
- Co czyni systemy AI podatnymi na ataki?
- Pole ataku w systemach AI w porównaniu do tradycyjnych systemów
- Główne wektory ataku: warstwy danych, modelu, wyjścia i interfejsu
- Zrozumienie przykładów przeciwnika i technik perturbacji
- Ataki typu white-box vs black-box
- Metody FGSM, PGD i DeepFool
- Wizualizacja i tworzenie przykładów przeciwnika
- Wnioskowanie danych treningowych z wyjścia modelu
- Ataki na inwersję członkostwa
- Ryzyka prywatności w modelach klasyfikacyjnych i generacyjnych
- Jak zatrute dane wpływają na zachowanie modelu
- Tylne drzwi oparte na wyzwalaczach i ataki Trojańskie
- Strategie wykrywania i sanityzacji
- Trening przeciwnika i powiększanie danych
- Maskowanie gradientów i przetwarzanie wejść
- Techniki wygładzania modeli i regularyzacji
- Wprowadzenie do prywatności różnicowej
- Wstrzykiwanie szumu i budżety prywatności
- Uczenie federowane i bezpieczne agregacja
- Ocena i wdrażanie modeli z uwzględnieniem zagrożeń
- Używanie ART (Adversarial Robustness Toolbox) w zastosowaniach praktycznych
- Studia przypadków z branży: prawdziwe wycieki i strategie zminimalizowania zagrożeń
Wymagania
- Zrozumienie procesów uczenia maszynowego i treningu modeli
- Dozwolę do Python i popularnych ramach ML, takich jak PyTorch lub TensorFlow
- Znałość podstawowych pojęć związanych z bezpieczeństwem lub modelowaniem zagrożeń jest pomocna
Grupa docelowa
- Inżynierowie uczenia maszynowego
- Analitycy cyberbezpieczeństwa
- Badacze sztucznej inteligencji i zespoły weryfikacji modeli
14 godzin