Dziękujemy za wysłanie zapytania! Jeden z członków naszego zespołu skontaktuje się z Państwem wkrótce.
Dziękujemy za wysłanie rezerwacji! Jeden z członków naszego zespołu skontaktuje się z Państwem wkrótce.
Plan Szkolenia
Wprowadzenie do modelowania zagrożeń AI
- Co sprawia, że systemy AI są podatne na ataki?
- Powierzchnia ataku AI w porównaniu z tradycyjnymi systemami
- Kluczowe wektory ataków: warstwy danych, modelu, wyjścia i interfejsu
Ataki wrogie na modele AI
- Zrozumienie wrogich przykładów i technik perturbacji
- Ataki białoskrzynkowe vs czarnoskrzynkowe
- Metody FGSM, PGD i DeepFool
- Wizualizacja i tworzenie wrogich próbek
Inwersja modelu i wycieki prywatności
- Wnioskowanie danych treningowych na podstawie wyjścia modelu
- Ataki na podstawie członkostwa
- Ryzyka prywatności w modelach klasyfikacyjnych i generatywnych
Zatruwanie danych i iniekcje backdoorów
- Jak zatrute dane wpływają na zachowanie modelu
- Backdoory oparte na wyzwalaczach i ataki trojańskie
- Strategie wykrywania i oczyszczania
Techniki odporności i obrony
- Trening odporny na ataki i augmentacja danych
- Maskowanie gradientów i przetwarzanie wstępne danych
- Wygładzanie modelu i techniki regularyzacji
Obrony AI zachowujące prywatność
- Wprowadzenie do różnicowej prywatności
- Wstrzykiwanie szumu i budżety prywatności
- Uczenie federacyjne i bezpieczna agregacja
Bezpieczeństwo AI w praktyce
- Ocena i wdrażanie modeli uwzględniające zagrożenia
- Stosowanie ART (Adversarial Robustness Toolbox) w praktycznych ustawieniach
- Studia przypadków z branży: realne naruszenia i środki zaradcze
Podsumowanie i kolejne kroki
Wymagania
- Zrozumienie procesów uczenia maszynowego i trenowania modeli
- Doświadczenie w Pythonie i popularnych frameworkach ML, takich jak PyTorch lub TensorFlow
- Znajomość podstawowych koncepcji bezpieczeństwa lub modelowania zagrożeń jest pomocna
Odbiorcy
- Inżynierowie uczenia maszynowego
- Analitycy cyberbezpieczeństwa
- Badacze AI i zespoły walidacji modeli
14 godzin
Opinie uczestników (1)
Profesjonalna wiedza oraz sposób, w jaki przedstawił ją przed nami
Miroslav Nachev - PUBLIC COURSE
Szkolenie - Cybersecurity in AI Systems
Przetłumaczone przez sztuczną inteligencję