Cyberbezpieczeństwo w systemach sztucznej inteligencji - Plan Szkolenia
Bezpieczeństwo systemów sztucznej inteligencji stawia przed nami wyjątkowe wyzwania, które różnią się od tradycyjnych podejść do cyberbezpieczeństwa. Systemy sztucznej inteligencji są podatne na ataki adversarialne, zatruwanie danych i kradzież modeli, wszystkie te zagrożenia mogą znacząco wpłynąć na działanie przedsiębiorstw oraz integralność danych. Ten kurs bada kluczowe praktyki cyberbezpieczeństwa dla systemów sztucznej inteligencji, omówiając adversarial machine learning, bezpieczeństwo danych w pipeline'ach uczenia maszynowego oraz wymagania zgodności niezbędne dla bezpiecznego wdrażania sztucznej inteligencji.
To szkolenie prowadzone przez instruktora (online lub na miejscu) jest skierowane do profesjonalistów z dziedziny sztucznej inteligencji i cyberbezpieczeństwa, którzy chcą zrozumieć i podjąć działania w celu adresowania podatności bezpieczeństwa specyficznych dla modeli i systemów sztucznej inteligencji, zwłaszcza w wysoko regulowanych branżach takich jak finanse, zarządzanie danymi i doradztwo.
Po ukończeniu tego szkolenia uczestnicy będą mogli:
- Zrozumieć rodzaje ataków adversarialnych na systemy sztucznej inteligencji oraz metody obrony przed nimi.
- Wdrożyć techniki wzmocnienia modeli w celu zabezpieczenia pipeline'ów uczenia maszynowego.
- Zapewnić bezpieczeństwo i integralność danych w modelach uczenia maszynowego.
- Nawigować wymagania zgodności regulacyjnej związane z bezpieczeństwem sztucznej inteligencji.
Format kursu
- Interaktywne wykłady i dyskusje.
- Wiele ćwiczeń i praktyki.
- Ręczne wdrażanie w środowisku live-lab.
Opcje dostosowania kursu
- Aby złożyć wniosek o dostosowane szkolenie dla tego kursu, skontaktuj się z nami w celu umówienia.
Plan Szkolenia
Wprowadzenie do AI Security Wyzwań
- Zrozumienie ryzyk bezpieczeństwa unikalnych dla systemów AI
- Porównanie tradycyjnego cyberbezpieczeństwa z cyberbezpieczeństwem AI
- Przegląd powierzchni ataków w modelach AI
Ataki Adversarialne Machine Learning
- Typy ataków adversarialnych: unikanie, zatruwanie i ekstrakcja
- Wdrażanie obrony i przeciwdziałania atakom adversarialnym
- Przykłady ataków adversarialnych w różnych branżach
Techniki Utwardzania Modeli
- Wprowadzenie do odporności i utwardzania modeli
- Techniki zmniejszania podatności modeli na ataki
- Praktyczne zastosowanie destylacji obronnej i innych metod utwardzania
Bezpieczeństwo Danych w Machine Learning
- Bezpieczne wdrożenie potoków danych dla uczenia i wnioskowania
- Zapobieganie wyciekom danych i atakom odwracania modeli
- Najlepsze praktyki w zarządzaniu wrażliwymi danymi w systemach AI
AI Security Wymagania Zgodności i Regulacyjne
- Zrozumienie regulacji dotyczących AI i bezpieczeństwa danych
- Zgodność z GDPR, CCPA i innymi prawami ochrony danych
- Tworzenie bezpiecznych i zgodnych modeli AI
Monitorowanie i Utrzymywanie Bezpieczeństwa Systemów AI
- Wdrażanie ciągłego monitorowania dla systemów AI
- Logowanie i audytowanie dla bezpieczeństwa w uczeniu maszynowym
- Reagowanie na zdarzenia i naruszenia bezpieczeństwa w AI
Przyszłe Trendy w Cyberbezpieczeństwie AI
- Nowe techniki w zakresie bezpieczeństwa AI i uczenia maszynowego
- Możliwości innowacji w cyberbezpieczeństwie AI
- Przygotowanie do przyszłych wyzwań w zakresie bezpieczeństwa AI
Podsumowanie i Następne Kroki
Wymagania
- Podstawowa wiedza na temat pojęć z dziedziny uczenia maszynowego i sztucznej inteligencji
- Znajomość zasad i praktyk cyberbezpieczeństwa
Grupa docelowa
- Inżynierowie AI i uczenia maszynowego chcącymi poprawić bezpieczeństwo w systemach AI
- Specjaliści od cyberbezpieczeństwa skupiającymi się na ochronie modeli AI
- Specjaliści ds. zgodności i zarządzania ryzykiem w dziedzinie zarządzania danymi i bezpieczeństwa
Szkolenia otwarte są realizowane w przypadku uzbierania się grupy szkoleniowej liczącej co najmniej 5 osób na dany termin.
Cyberbezpieczeństwo w systemach sztucznej inteligencji - Plan Szkolenia - Rezerwacja
Cyberbezpieczeństwo w systemach sztucznej inteligencji - Plan Szkolenia - Zapytanie
Cyberbezpieczeństwo w systemach sztucznej inteligencji - Zapytanie o Konsultacje
Zapytanie o Konsultacje
Propozycje terminów
Szkolenia Powiązane
ISACA Advanced in AI Security Management (AAISM)
21 godzinAAISM to zaawansowany ramowy system do oceny, zarządzania i kontrolowania ryzyk związanymi z bezpieczeństwem systemów sztucznej inteligencji.
Ta prowadzona przez instruktora, na żywo trening (online lub stacjonarnie) jest skierowany do zaawansowanych profesjonalistów, którzy chcą zaimplementować efektywne kontrole bezpieczeństwa i praktyki zarządzania w środowiskach AI przedsiębiorstwa.
Na koniec tego programu uczestnicy będą przygotowani do:
- Oceny ryzyk bezpieczeństwa sztucznej inteligencji za pomocą uznanych w branży metodologii.
- Implementacji modeli zarządzania dla odpowiedzialnego wdrażania AI.
- Wyrównania polityk bezpieczeństwa AI do celów organizacyjnych i oczekiwań regulacyjnych.
- Zwiększenia odporności i sprawności rachunkowej w operacjach opartych na sztucznej inteligencji.
Format kursu
- Obsługiwane wykłady wspierane ekspertową analizą.
- Praktyczne warsztaty i aktywności oparte na ocenie.
- Stosowane ćwiczenia wykorzystujące realne scenariusze zarządzania AI.
Opcje dostosowywania kursu
- Dla dostosowanego treningu zgodnego z strategią AI w Twojej organizacji, prosimy o kontakt w celu dostosowania kursu.
Rządzanie, zgodność i bezpieczeństwo AI dla liderów przedsiębiorstw
14 godzinTa prowadzona przez instruktora, żywa szkolenie w Polsce (online lub stacjonarnie) jest skierowana do poziomu średniozaawansowanych liderów przedsiębiorstw, którzy chcą zrozumieć, jak odpowiedzialnie rządzić i zapewniać bezpieczeństwo systemów AI w zgodzie z nowymi globalnymi ramami, takimi jak Ustawodawstwo UE o AI, RODO, ISO/IEC 42001 oraz polecenie prezydenckie USA dotyczące AI.
Na koniec tego szkolenia uczestnicy będą w stanie:
- Zrozumieć prawne, etyczne i regulacyjne ryzyka związane z wykorzystaniem AI w różnych działach.
- Interpretować i stosować główne ramy rządzenia AI (Ustawodawstwo UE o AI, NIST AI RMF, ISO/IEC 42001).
- Ustanawiać polityki bezpieczeństwa, kontroli i nadzoru dla wdrażania AI w przedsiębiorstwie.
- Rozwijać wytyczne na temat zakupów i użytkowania systemów AI trzecich stron oraz własnych.
AI Risk Management i Bezpieczeństwo w Sektorze Publicznym
7 godzinArtificial Intelligence (AI) wprowadza nowe wymiary ryzyka operacyjnego, wyzwania rządzenia i narażenia na cyberzagrożenia dla rządowych agencji i departamentów.
To szkolenie prowadzone przez instruktora (online lub na miejscu) jest skierowane do specjalistów IT i ryzyka w sektorze publicznym z ograniczoną wcześniejszą wiedzą na temat sztucznej inteligencji, którzy chcą poznać, jak oceniać, monitorować i bezpiecznie wdrażać systemy AI w kontekście rządowym lub regulacyjnym.
Na zakończenie tego szkolenia uczestnicy będą w stanie:
- Interpretować kluczowe pojęcia związane z ryzykiem systemów AI, w tym uprzedzenia, nieprzewidywalność i drift modelu.
- Zastosować ramy rządzenia i audytu specyficzne dla AI, takie jak NIST AI RMF i ISO/IEC 42001.
- Rozpoznawać zagrożenia cyberbezpieczeństwa skierowane przeciwko modelom AI i kanałom danych.
- Ustanowić międzydepartamentalne plany zarządzania ryzykiem i wyaliniowanie polityk wdrażania AI.
Format kursu
- Interaktywne wykłady i dyskusje na temat przypadków użycia w sektorze publicznym.
- Ćwiczenia z ramami rządzenia AI i mapowaniem polityk.
- Modelowanie zagrożeń i ocena ryzyka w oparciu o scenariusze.
Opcje dostosowania kursu
- Aby złożyć wniosek o dostosowane szkolenie dla tego kursu, skontaktuj się z nami w celu uzgodnienia.
Wprowadzenie do zaufania, ryzyka i zabezpieczeń w AI (AI TRiSM)
21 godzinTo prowadzony przez instruktora, żywy szkoleniowy (online lub stacjonarny) jest skierowany do początkujących do średnio zaawansowanych profesjonalistów IT, którzy chcą zrozumieć i wdrożyć zarządzanie AI TRiSM w swoich organizacjach.
Na zakończenie tego szkolenia uczestnicy będą w stanie:
- Zrozumieć kluczowe koncepcje i znaczenie zarządzania AI trust, risk i security.
- Wykrywać i minimalizować ryzyko związane z systemami AI.
- Wdrażać najlepsze praktyki bezpieczeństwa dla AI.
- Zrozumieć przepisy prawne i etyczne uwagi związane z AI.
- Rozwinąć strategie dla skutecznego zarządzania i nadzorowania AI.
Building Secure and Responsible LLM Applications
14 godzinTo szkolenie prowadzone przez instruktora w Polsce (online lub na miejscu) jest skierowane do developerów, architektów i menedżerów produktów AI na poziomie średniozaawansowanym do zaawansowanym, którzy chcą identyfikować i minimalizować ryzyka związane z aplikacjami napędzanymi przez duże modele językowe (LLM), w tym wstrzykiwanie promptów, wycieki danych i niefiltrowane wyjścia, jednocześnie wdrażając kontrole bezpieczeństwa takie jak walidacja wejścia, nadzór człowieka w pętli oraz ograniczniki wyjścia.
Po zakończeniu tego szkolenia uczestnicy będą w stanie:
- Rozumieć podstawowe podatności systemów opartych na LLM.
- Zastosować zasady projektowania bezpiecznego do architektury aplikacji LLM.
- Używać narzędzi takich jak Guardrails AI i LangChain do walidacji, filtrowania i bezpieczeństwa.
- Integrować techniki takie jak sandboxing, red teaming i recenzja człowieka w pętli do linii montażowych produkcyjnych.
Wprowadzenie do zabezpieczeń i zarządzania ryzykiem w AI
14 godzinTo prowadzone przez instruktora, na żywo trening w Polsce (online lub stacjonarny) jest skierowany do początkujących specjalistów ds. zabezpieczeń IT, zarządzania ryzykiem i zgodności, którzy chcą zrozumieć podstawowe koncepcje bezpieczeństwa AI, wektory zagrożeń oraz globalne ramy takie jak NIST AI RMF i ISO/IEC 42001.
Na koniec tego treningu uczestnicy będą w stanie:
- Zrozumieć unikalne ryzyka bezpieczeństwa wprowadzone przez systemy AI.
- Identyfikować wektory zagrożeń, takie jak ataki wrogie, zatrucie danych i odwracanie modeli.
- Zastosować podstawowe modele zarządzania, takie jak NIST AI Risk Management Framework.
- Wyrównać zastosowanie AI do nowych standardów, wytycznych dotyczących zgodności i zasad etycznych.
OWASP GenAI Security
14 godzinNa podstawie najnowszych wytycznych OWASP GenAI Security Project, uczestnicy nauczą się identyfikować, oceniać i łagodzić zagrożenia specyficzne dla AI poprzez ćwiczenia praktyczne i scenariusze z życia rzeczywistego.
Zachowujące prywatność uczenie maszynowe
14 godzinTo prowadzone przez instruktora, na żywo szkolenie w Polsce (online lub stacjonarne) jest skierowane do zaawansowanych profesjonalistów, którzy chcą wdrożyć i ocenić techniki takie jak federated learning, bezpieczna obliczenia wielu stron, homomorficzne szyfrowanie i różnicowa prywatność w rzeczywistych potokach uczenia maszynowego.
Na koniec tego szkolenia uczestnicy będą mogli:
- Zrozumieć i porównać kluczowe techniki zachowujące prywatność w ML.
- Wdrożyć systemy federated learning za pomocą open-source frameworków.
- Zastosować różnicową prywatność do bezpiecznego udostępniania danych i treningu modeli.
- Używać szyfrowania i technik bezpiecznych obliczeń, aby chronić wejścia i wyjścia modeli.
Red Teaming AI Systems: Offensive Security for ML Models
14 godzinTa szkolenie prowadzone przez instruktora (online lub na miejscu) jest skierowane do zaawansowanych specjalistów ds. zabezpieczeń i ekspertów ML, którzy chcą symulować ataki na systemy AI, odkrywać wady i zwiększać odporność wdrożonych modeli AI.
Na koniec tego szkolenia uczestnicy będą mogli:
- Symulować realne zagrożenia dla modeli uczenia maszynowego.
- Generować przykłady awersyjne, aby przetestować odporność modelu.
- Oceniać powierzchnię ataku API i potoków AI.
- Projektować strategie red teaming dla środowisk wdrożenia AI.
Bezpieczenie Edge AI i Wbudowanej Inteligencji
14 godzinTrening prowadzony przez instruktora, dostępny online lub na miejscu, skierowany jest do inżynierów i specjalistów ds. bezpieczeństwa o poziomie średnim, którzy chcą zabezpieczyć modele sztucznej inteligencji wdrożone na krawędzi przed zagrożeniami takimi jak manipulacja, wyciek danych, niekorzystne wejścia i ataki fizyczne.
Na zakończenie tego szkolenia uczestnicy będą w stanie:
- Identyfikować i oceniać ryzyka bezpieczeństwa w wdrożeniach sztucznej inteligencji na krawędzi.
- Stosować techniki odporności na manipulacje i szyfrowanego wnioskowania.
- Utwardzać modele wdrożone na krawędzi i zabezpieczać łańcuchy danych.
- Wdrażać strategie zminimalizowania zagrożeń specyficzne dla wbudowanych i ograniczanych systemów.
Zabezpieczanie modeli AI: zagrożenia, ataki i obrona
14 godzinTa prowadzona przez instruktora, interaktywna szkolenie (online lub stacjonarnie) jest skierowana do profesjonalistów w dziedzinie uczenia maszynowego i zabezpieczeń cyfrowych na poziomie średnio zaawansowanym, którzy chcą zrozumieć i zmniejszać nowe zagrożenia dla modeli AI, wykorzystując zarówno ramy koncepcyjne, jak i praktyczne metody obrony, takie jak odporne treningi i prywatność różnicowa.
Po zakończeniu tego szkolenia uczestnicy będą w stanie:
- Identyfikować i kategoryzować zagrożenia specyficzne dla AI, takie jak ataki wprowadzające błędy, odwrócenie i otrucie.
- Korzystać z narzędzi, takich jak Adversarial Robustness Toolbox (ART), do symulacji ataków i testowania modeli.
- Stosować praktyczne metody obrony, w tym odporne treningi, wprowadzanie szumu i techniki chroniące prywatność.
- Projektować strategie oceny modeli świadome zagrożeń w środowiskach produkcyjnych.
Bezpieczeństwo i prywatność w aplikacjach TinyML
21 godzinTinyML to podejście do wdrażania modeli uczenia maszynowego na urządzeniach o niskim zużyciu energii, z ograniczoną ilością zasobów, działających na krawędzi sieci.
Ten prowadzony przez instruktora szkolenie (online lub stacjonarny) jest skierowany do profesjonalistów o zaawansowanym poziomie, którzy chcą zabezpieczać potoki TinyML i wdrażać techniki chroniące prywatność w aplikacjach AI na krawędzi.
Na koniec tego kursu uczestnicy będą mogli:
- Identyfikować unikalne zagrożenia bezpieczeństwa związane z wnioskowaniem TinyML na urządzeniach.
- Implementować mechanizmy chroniące prywatność w wdrożeniach AI na krawędzi.
- Wzmocniać modele TinyML i układy wbudowane przeciwko zagrożeniom niesprzyjającym.
- Stosować najlepsze praktyki dotyczące bezpiecznej obsługi danych w środowiskach o ograniczonych zasobach.
Format kursu
- Angażujące wykłady wspierane dyskusjami prowadzonymi przez ekspertów.
- Praktyczne ćwiczenia podkreślające rzeczywiste scenariusze zagrożeń.
- Ręczna implementacja przy użyciu narzędzi bezpieczeństwa wbudowanego i TinyML.
Opcje dostosowywania kursu
- Organizacje mogą zapytać o dostosowaną wersję tego szkolenia, aby zrównoleglić je z ich konkretnymi potrzebami bezpieczeństwa i zgodności.
Bezpieczna i Zabezpieczona Agentycka Sztuczna Inteligencja: Zarządzanie, Identyfikacja i Czerwone Drużyny
21 godzinTen kurs obejmuje zarządzanie, zarządzanie tożsamością oraz testowanie wroga dla agentyckich systemów sztucznej inteligencji, skupiając się na wzorcach wdrożenia bezpiecznych dla przedsiębiorstw i praktycznych technikach czerwonych drużyn.
Ten prowadzony przez instruktora, na żywo szkolenie (online lub stacjonarnie) jest skierowane do zaawansowanych praktyków, którzy chcą projektować, zabezpieczać i oceniać oparte na agentach systemy AI w środowiskach produkcyjnych.
Na koniec tego szkolenia uczestnicy będą w stanie:
- Określić modele zarządzania i zasady dla bezpiecznych wdrożeń agentyckich systemów AI.
- Projektować przepływy tożsamości i uwierzytelniania niebędących człowiekiem agentami z najmniejszymi uprawnieniami.
- Implementować kontrolę dostępu, ścieżki audytowe i obserwowalność dostosowane do autonomicznych agentów.
- Planować i wykonywać ćwiczenia czerwonej drużyny, aby odkrywać niewłaściwe zastosowania, ścieżki eskalacji i ryzyko wydobywania danych.
- Zmniejszać typowe zagrożenia dla agentyckich systemów poprzez politykę, kontrolę inżynierską i monitorowanie.
Format Kursu
- Interaktywne wykłady i warsztaty modelowania zagrożeń.
- Praktyczne laboratoria: udzielanie tożsamości, egzekwowanie polityki i symulacja przeciwnika.
- Ćwiczenia czerwonej drużyny/niebieskiej drużyny i ocena końcowa kursu.
Opcje Dostosowywania Kursu
- Aby poprosić o dostosowane szkolenie dla tego kursu, prosimy skontaktować się z nami, aby ustalić szczegóły.