Red Teaming AI Systems: Offensive Security for ML Models - Plan Szkolenia
Red Teaming AI Systems to jest specjalizowana dziedzina ofensywnych zabezpieczeń, skupiająca się na identyfikacji słabości w modelach uczenia maszynowego i potokach wdrożenia poprzez testowanie awersyjne i symulacje stresowe.
Ta szkolenie prowadzone przez instruktora (online lub na miejscu) jest skierowane do zaawansowanych specjalistów ds. zabezpieczeń i ekspertów ML, którzy chcą symulować ataki na systemy AI, odkrywać wady i zwiększać odporność wdrożonych modeli AI.
Na koniec tego szkolenia uczestnicy będą mogli:
- Symulować realne zagrożenia dla modeli uczenia maszynowego.
- Generować przykłady awersyjne, aby przetestować odporność modelu.
- Oceniać powierzchnię ataku API i potoków AI.
- Projektować strategie red teaming dla środowisk wdrożenia AI.
Format kursu
- Interaktywna prezentacja i dyskusja.
- Wiele ćwiczeń i praktyki.
- Praktyczne implementacje w środowisku live-lab.
Opcje dostosowywania kursu
- Aby zamówić dostosowane szkolenie do tego kursu, proszę skontaktować się z nami.
Plan Szkolenia
Wprowadzenie do Red Teaming AI
- Zrozumienie krajobrazu zagrożeń AI.
- Role red teams w zabezpieczeniach AI.
- Etyczne i prawne aspekty.
Awersyjne uczenie maszynowe
- Rodzaje ataków: unik, otrucie, ekstrakcja, wnioskowanie.
- Generowanie przykładow awersyjnych (np., FGSM, PGD).
- Zasieleowane vs niesieleowane ataki i mierniki sukcesu.
Testowanie odporności modeli
- Ocena odporności na perturbacje.
- Badanie ślepych punktów i trybów awarii modelu.
- Testowanie stresowe modeli klasyfikacji, wizji komputerowej i NLP.
Red Teaming potoków AI
- Powierzchnia ataku potoków AI: dane, model, wdrożenie.
- Wykorzystywanie niewłaściwych API i punktów końcowych modeli.
- Rewersowanie zachowania i wyników modelu.
Symulacja i narzędzia
- Używanie Adversarial Robustness Toolbox (ART).
- Red teaming za pomocą narzędzi takich jak TextAttack i IBM ART.
- Narzędzia do izolacji, monitorowania i obserwowalności.
Strategia red teaming AI i współpraca z obroną
- Rozwój ćwiczeń i celów red teaming.
- Komunikowanie wyników do blue teams.
- Integracja red teaming w zarządzanie ryzykiem AI.
Podsumowanie i kolejne kroki
Wymagania
- Zrozumienie architektury uczenia maszynowego i głębokiego uczenia.
- Doświadczenie z Pythonem i frameworkami ML (np., TensorFlow, PyTorch).
- Znajomość koncepcji cyberbezpieczeństwa lub technik ofensywnych zabezpieczeń.
Odbiorcy kursu
- Badacze ds. zabezpieczeń.
- Zespoły ds. ofensywnych zabezpieczeń.
- Profesjonaliści ds. asercji AI i red teaming.
Szkolenia otwarte są realizowane w przypadku uzbierania się grupy szkoleniowej liczącej co najmniej 5 osób na dany termin.
Red Teaming AI Systems: Offensive Security for ML Models - Plan Szkolenia - Rezerwacja
Red Teaming AI Systems: Offensive Security for ML Models - Plan Szkolenia - Zapytanie
Red Teaming AI Systems: Offensive Security for ML Models - Zapytanie o Konsultacje
Zapytanie o Konsultacje
Propozycje terminów
Szkolenia Powiązane
ISACA Advanced in AI Security Management (AAISM)
21 godzinAAISM to zaawansowany ramowy system do oceny, zarządzania i kontrolowania ryzyk związanymi z bezpieczeństwem systemów sztucznej inteligencji.
Ta prowadzona przez instruktora, na żywo trening (online lub stacjonarnie) jest skierowany do zaawansowanych profesjonalistów, którzy chcą zaimplementować efektywne kontrole bezpieczeństwa i praktyki zarządzania w środowiskach AI przedsiębiorstwa.
Na koniec tego programu uczestnicy będą przygotowani do:
- Oceny ryzyk bezpieczeństwa sztucznej inteligencji za pomocą uznanych w branży metodologii.
- Implementacji modeli zarządzania dla odpowiedzialnego wdrażania AI.
- Wyrównania polityk bezpieczeństwa AI do celów organizacyjnych i oczekiwań regulacyjnych.
- Zwiększenia odporności i sprawności rachunkowej w operacjach opartych na sztucznej inteligencji.
Format kursu
- Obsługiwane wykłady wspierane ekspertową analizą.
- Praktyczne warsztaty i aktywności oparte na ocenie.
- Stosowane ćwiczenia wykorzystujące realne scenariusze zarządzania AI.
Opcje dostosowywania kursu
- Dla dostosowanego treningu zgodnego z strategią AI w Twojej organizacji, prosimy o kontakt w celu dostosowania kursu.
Rządzanie, zgodność i bezpieczeństwo AI dla liderów przedsiębiorstw
14 godzinTa prowadzona przez instruktora, żywa szkolenie w Polsce (online lub stacjonarnie) jest skierowana do poziomu średniozaawansowanych liderów przedsiębiorstw, którzy chcą zrozumieć, jak odpowiedzialnie rządzić i zapewniać bezpieczeństwo systemów AI w zgodzie z nowymi globalnymi ramami, takimi jak Ustawodawstwo UE o AI, RODO, ISO/IEC 42001 oraz polecenie prezydenckie USA dotyczące AI.
Na koniec tego szkolenia uczestnicy będą w stanie:
- Zrozumieć prawne, etyczne i regulacyjne ryzyka związane z wykorzystaniem AI w różnych działach.
- Interpretować i stosować główne ramy rządzenia AI (Ustawodawstwo UE o AI, NIST AI RMF, ISO/IEC 42001).
- Ustanawiać polityki bezpieczeństwa, kontroli i nadzoru dla wdrażania AI w przedsiębiorstwie.
- Rozwijać wytyczne na temat zakupów i użytkowania systemów AI trzecich stron oraz własnych.
AI Risk Management i Bezpieczeństwo w Sektorze Publicznym
7 godzinArtificial Intelligence (AI) wprowadza nowe wymiary ryzyka operacyjnego, wyzwania rządzenia i narażenia na cyberzagrożenia dla rządowych agencji i departamentów.
To szkolenie prowadzone przez instruktora (online lub na miejscu) jest skierowane do specjalistów IT i ryzyka w sektorze publicznym z ograniczoną wcześniejszą wiedzą na temat sztucznej inteligencji, którzy chcą poznać, jak oceniać, monitorować i bezpiecznie wdrażać systemy AI w kontekście rządowym lub regulacyjnym.
Na zakończenie tego szkolenia uczestnicy będą w stanie:
- Interpretować kluczowe pojęcia związane z ryzykiem systemów AI, w tym uprzedzenia, nieprzewidywalność i drift modelu.
- Zastosować ramy rządzenia i audytu specyficzne dla AI, takie jak NIST AI RMF i ISO/IEC 42001.
- Rozpoznawać zagrożenia cyberbezpieczeństwa skierowane przeciwko modelom AI i kanałom danych.
- Ustanowić międzydepartamentalne plany zarządzania ryzykiem i wyaliniowanie polityk wdrażania AI.
Format kursu
- Interaktywne wykłady i dyskusje na temat przypadków użycia w sektorze publicznym.
- Ćwiczenia z ramami rządzenia AI i mapowaniem polityk.
- Modelowanie zagrożeń i ocena ryzyka w oparciu o scenariusze.
Opcje dostosowania kursu
- Aby złożyć wniosek o dostosowane szkolenie dla tego kursu, skontaktuj się z nami w celu uzgodnienia.
Wprowadzenie do zaufania, ryzyka i zabezpieczeń w AI (AI TRiSM)
21 godzinTo prowadzony przez instruktora, żywy szkoleniowy (online lub stacjonarny) jest skierowany do początkujących do średnio zaawansowanych profesjonalistów IT, którzy chcą zrozumieć i wdrożyć zarządzanie AI TRiSM w swoich organizacjach.
Na zakończenie tego szkolenia uczestnicy będą w stanie:
- Zrozumieć kluczowe koncepcje i znaczenie zarządzania AI trust, risk i security.
- Wykrywać i minimalizować ryzyko związane z systemami AI.
- Wdrażać najlepsze praktyki bezpieczeństwa dla AI.
- Zrozumieć przepisy prawne i etyczne uwagi związane z AI.
- Rozwinąć strategie dla skutecznego zarządzania i nadzorowania AI.
Building Secure and Responsible LLM Applications
14 godzinTo szkolenie prowadzone przez instruktora w Polsce (online lub na miejscu) jest skierowane do developerów, architektów i menedżerów produktów AI na poziomie średniozaawansowanym do zaawansowanym, którzy chcą identyfikować i minimalizować ryzyka związane z aplikacjami napędzanymi przez duże modele językowe (LLM), w tym wstrzykiwanie promptów, wycieki danych i niefiltrowane wyjścia, jednocześnie wdrażając kontrole bezpieczeństwa takie jak walidacja wejścia, nadzór człowieka w pętli oraz ograniczniki wyjścia.
Po zakończeniu tego szkolenia uczestnicy będą w stanie:
- Rozumieć podstawowe podatności systemów opartych na LLM.
- Zastosować zasady projektowania bezpiecznego do architektury aplikacji LLM.
- Używać narzędzi takich jak Guardrails AI i LangChain do walidacji, filtrowania i bezpieczeństwa.
- Integrować techniki takie jak sandboxing, red teaming i recenzja człowieka w pętli do linii montażowych produkcyjnych.
Cyberbezpieczeństwo w systemach sztucznej inteligencji
14 godzinTo szkolenie prowadzone przez instruktora (online lub na miejscu) skierowane jest do profesjonalistów zajmujących się sztuczną inteligencją i cyberbezpieczeństwem na poziomie średniozaawansowanym, którzy chcą zrozumieć i zwalczać specyficzne wyzwania związane z bezpieczeństwem modeli i systemów AI, szczególnie w wysokoregulowanych branżach takich jak finanse, zarządzanie danymi i konsulting.
Po ukończeniu tego szkolenia uczestnicy będą w stanie:
- Zrozumieć rodzaje ataków adversarialnych kierowanych przeciwko systemom AI oraz metody obronne przeciwko nim.
- Wdrożyć techniki utwardzania modeli w celu zabezpieczenia pipeline'ów uczenia maszynowego.
- Zapewnić bezpieczeństwo i integralność danych w modelach uczenia maszynowego.
- Przejść przez wymagania dotyczące zgodności z przepisami regulacyjnymi dotyczącymi bezpieczeństwa AI.
Wprowadzenie do zabezpieczeń i zarządzania ryzykiem w AI
14 godzinTo prowadzone przez instruktora, na żywo trening w Polsce (online lub stacjonarny) jest skierowany do początkujących specjalistów ds. zabezpieczeń IT, zarządzania ryzykiem i zgodności, którzy chcą zrozumieć podstawowe koncepcje bezpieczeństwa AI, wektory zagrożeń oraz globalne ramy takie jak NIST AI RMF i ISO/IEC 42001.
Na koniec tego treningu uczestnicy będą w stanie:
- Zrozumieć unikalne ryzyka bezpieczeństwa wprowadzone przez systemy AI.
- Identyfikować wektory zagrożeń, takie jak ataki wrogie, zatrucie danych i odwracanie modeli.
- Zastosować podstawowe modele zarządzania, takie jak NIST AI Risk Management Framework.
- Wyrównać zastosowanie AI do nowych standardów, wytycznych dotyczących zgodności i zasad etycznych.
OWASP GenAI Security
14 godzinNa podstawie najnowszych wytycznych OWASP GenAI Security Project, uczestnicy nauczą się identyfikować, oceniać i łagodzić zagrożenia specyficzne dla AI poprzez ćwiczenia praktyczne i scenariusze z życia rzeczywistego.
Zachowujące prywatność uczenie maszynowe
14 godzinTo prowadzone przez instruktora, na żywo szkolenie w Polsce (online lub stacjonarne) jest skierowane do zaawansowanych profesjonalistów, którzy chcą wdrożyć i ocenić techniki takie jak federated learning, bezpieczna obliczenia wielu stron, homomorficzne szyfrowanie i różnicowa prywatność w rzeczywistych potokach uczenia maszynowego.
Na koniec tego szkolenia uczestnicy będą mogli:
- Zrozumieć i porównać kluczowe techniki zachowujące prywatność w ML.
- Wdrożyć systemy federated learning za pomocą open-source frameworków.
- Zastosować różnicową prywatność do bezpiecznego udostępniania danych i treningu modeli.
- Używać szyfrowania i technik bezpiecznych obliczeń, aby chronić wejścia i wyjścia modeli.
Bezpieczenie Edge AI i Wbudowanej Inteligencji
14 godzinTrening prowadzony przez instruktora, dostępny online lub na miejscu, skierowany jest do inżynierów i specjalistów ds. bezpieczeństwa o poziomie średnim, którzy chcą zabezpieczyć modele sztucznej inteligencji wdrożone na krawędzi przed zagrożeniami takimi jak manipulacja, wyciek danych, niekorzystne wejścia i ataki fizyczne.
Na zakończenie tego szkolenia uczestnicy będą w stanie:
- Identyfikować i oceniać ryzyka bezpieczeństwa w wdrożeniach sztucznej inteligencji na krawędzi.
- Stosować techniki odporności na manipulacje i szyfrowanego wnioskowania.
- Utwardzać modele wdrożone na krawędzi i zabezpieczać łańcuchy danych.
- Wdrażać strategie zminimalizowania zagrożeń specyficzne dla wbudowanych i ograniczanych systemów.
Zabezpieczanie modeli AI: zagrożenia, ataki i obrona
14 godzinTa prowadzona przez instruktora, interaktywna szkolenie (online lub stacjonarnie) jest skierowana do profesjonalistów w dziedzinie uczenia maszynowego i zabezpieczeń cyfrowych na poziomie średnio zaawansowanym, którzy chcą zrozumieć i zmniejszać nowe zagrożenia dla modeli AI, wykorzystując zarówno ramy koncepcyjne, jak i praktyczne metody obrony, takie jak odporne treningi i prywatność różnicowa.
Po zakończeniu tego szkolenia uczestnicy będą w stanie:
- Identyfikować i kategoryzować zagrożenia specyficzne dla AI, takie jak ataki wprowadzające błędy, odwrócenie i otrucie.
- Korzystać z narzędzi, takich jak Adversarial Robustness Toolbox (ART), do symulacji ataków i testowania modeli.
- Stosować praktyczne metody obrony, w tym odporne treningi, wprowadzanie szumu i techniki chroniące prywatność.
- Projektować strategie oceny modeli świadome zagrożeń w środowiskach produkcyjnych.
Bezpieczeństwo i prywatność w aplikacjach TinyML
21 godzinTinyML to podejście do wdrażania modeli uczenia maszynowego na urządzeniach o niskim zużyciu energii, z ograniczoną ilością zasobów, działających na krawędzi sieci.
Ten prowadzony przez instruktora szkolenie (online lub stacjonarny) jest skierowany do profesjonalistów o zaawansowanym poziomie, którzy chcą zabezpieczać potoki TinyML i wdrażać techniki chroniące prywatność w aplikacjach AI na krawędzi.
Na koniec tego kursu uczestnicy będą mogli:
- Identyfikować unikalne zagrożenia bezpieczeństwa związane z wnioskowaniem TinyML na urządzeniach.
- Implementować mechanizmy chroniące prywatność w wdrożeniach AI na krawędzi.
- Wzmocniać modele TinyML i układy wbudowane przeciwko zagrożeniom niesprzyjającym.
- Stosować najlepsze praktyki dotyczące bezpiecznej obsługi danych w środowiskach o ograniczonych zasobach.
Format kursu
- Angażujące wykłady wspierane dyskusjami prowadzonymi przez ekspertów.
- Praktyczne ćwiczenia podkreślające rzeczywiste scenariusze zagrożeń.
- Ręczna implementacja przy użyciu narzędzi bezpieczeństwa wbudowanego i TinyML.
Opcje dostosowywania kursu
- Organizacje mogą zapytać o dostosowaną wersję tego szkolenia, aby zrównoleglić je z ich konkretnymi potrzebami bezpieczeństwa i zgodności.
Bezpieczna i Zabezpieczona Agentycka Sztuczna Inteligencja: Zarządzanie, Identyfikacja i Czerwone Drużyny
21 godzinTen kurs obejmuje zarządzanie, zarządzanie tożsamością oraz testowanie wroga dla agentyckich systemów sztucznej inteligencji, skupiając się na wzorcach wdrożenia bezpiecznych dla przedsiębiorstw i praktycznych technikach czerwonych drużyn.
Ten prowadzony przez instruktora, na żywo szkolenie (online lub stacjonarnie) jest skierowane do zaawansowanych praktyków, którzy chcą projektować, zabezpieczać i oceniać oparte na agentach systemy AI w środowiskach produkcyjnych.
Na koniec tego szkolenia uczestnicy będą w stanie:
- Określić modele zarządzania i zasady dla bezpiecznych wdrożeń agentyckich systemów AI.
- Projektować przepływy tożsamości i uwierzytelniania niebędących człowiekiem agentami z najmniejszymi uprawnieniami.
- Implementować kontrolę dostępu, ścieżki audytowe i obserwowalność dostosowane do autonomicznych agentów.
- Planować i wykonywać ćwiczenia czerwonej drużyny, aby odkrywać niewłaściwe zastosowania, ścieżki eskalacji i ryzyko wydobywania danych.
- Zmniejszać typowe zagrożenia dla agentyckich systemów poprzez politykę, kontrolę inżynierską i monitorowanie.
Format Kursu
- Interaktywne wykłady i warsztaty modelowania zagrożeń.
- Praktyczne laboratoria: udzielanie tożsamości, egzekwowanie polityki i symulacja przeciwnika.
- Ćwiczenia czerwonej drużyny/niebieskiej drużyny i ocena końcowa kursu.
Opcje Dostosowywania Kursu
- Aby poprosić o dostosowane szkolenie dla tego kursu, prosimy skontaktować się z nami, aby ustalić szczegóły.