Bezpieczenie Edge AI i Wbudowanej Inteligencji - Plan Szkolenia
Bezpieczne Edge AI i wbudowane inteligencje to praktyka ochrony modeli uczenia maszynowego oraz danych w ograniczonych, często fizycznie narażonych środowiskach, takich jak drony, czujniki, inteligentne kamery i autonomiczne systemy.
To prowadzone przez instruktora szkolenie na żywo (online lub na miejscu) jest skierowane do inżynierów i specjalistów ds. bezpieczeństwa na poziomie średniozaawansowanym, którzy chcą zabezpieczyć modele AI wdrożone na krawędzi przed zagrożeniami takimi jak manipulacje, wycieki danych, złośliwe wejścia i ataki fizyczne.
Na zakończenie tego szkolenia uczestnicy będą w stanie:
- Identyfikować i oceniać ryzyka bezpieczeństwa w wdrożeniach Edge AI.
- Zastosować techniki odporności na manipulacje i zaszyfrowanego wnioskowania.
- Utwardzać modele wdrożone na krawędzi i bezpiecznie zarządzać przesyłaniem danych.
- Wdrażać strategie zmniejszania zagrożeń specyficzne dla wbudowanych i ograniczonych systemów.
Format kursu
- Interaktywne wykłady i dyskusje.
- Wiele ćwiczeń i praktyki.
- Ręczne wdrażanie w środowisku laboratorium na żywo.
Opcje dostosowywania kursu
- Aby zlecić dostosowane szkolenie dla tego kursu, prosimy o kontakt, aby ułożyć.
Plan Szkolenia
Wprowadzenie do Edge AI i Embedded Systems
- Co to jest Edge AI? Zastosowania i ograniczenia
- Platformy sprzętowe i stopy oprogramowania na krawędzi sieci
- Wyzwania związane z bezpieczeństwem w wbudowanych i zdecentralizowanych środowiskach
Krajobraz zagrożeń dla Edge AI
- Ryzyka związane z fizycznym dostępem i manipulacją
- Przykłady przeciwnika i manipulacja modelami
- Zagrożenia związane z wyciekiem danych i odwracaniem modeli
Zabezpieczanie modelu
- Strategie utrwalania i kwantyzacji modeli
- Wodzianie i stemplowanie modeli
- Obrona poprzez destylację i obcięcie
Szyfrowane wnioskowanie i bezpieczne wykonywanie
- Środowiska wykonawcze o zaufanym dostępie (TEEs) dla AI
- Bezpieczne enclaves i obliczenia poufne
- Szyfrowane wnioskowanie z użyciem szyfrowania homomorficznego lub SMPC
Wykrywanie manipulacji i kontrole na poziomie urządzenia
- Bezpieczny uruchomienie i sprawdzanie integralności firmware
- Walidacja czujników i wykrywanie anomalii
- Zdalne potwierdzenie i monitorowanie stanu urządzenia
Integracja krawędzi z Cloud Security
- Bezpieczne przesyłanie danych i zarządzanie kluczami
- Szyfrowanie od końca do końca i ochrona cyklu życia danych
- Orchestracja AI w chmurze z ograniczeniami bezpieczeństwa krawędzi
Najlepsze praktyki i strategia zmniejszania ryzyka
- Modelowanie zagrożeń dla systemów AI na krawędzi
- Zasady projektowania bezpieczeństwa dla wbudowanej inteligencji
- Reagowanie na incydenty i zarządzanie aktualizacjami firmware
Podsumowanie i następne kroki
Wymagania
- Znajomość systemów wbudowanych lub środowisk wdrażania sztucznej inteligencji na krawędzi
- Doświadczenie z Python i ramami uczenia maszynowego (np. TensorFlow Lite, PyTorch Mobile)
- Podstawowa znajomość cyberbezpieczeństwa lub modeli zagrożeń IoT
Adresaci
- Programiści sztucznej inteligencji wbudowanej
- Specjaliści ds. bezpieczeństwa IoT
- Inżynierowie wdrażający modele ML na urządzeniach krawędziowych lub ograniczających
Szkolenia otwarte są realizowane w przypadku uzbierania się grupy szkoleniowej liczącej co najmniej 5 osób na dany termin.
Bezpieczenie Edge AI i Wbudowanej Inteligencji - Plan Szkolenia - Rezerwacja
Bezpieczenie Edge AI i Wbudowanej Inteligencji - Plan Szkolenia - Zapytanie
Bezpieczenie Edge AI i Wbudowanej Inteligencji - Zapytanie o Konsultacje
Zapytanie o Konsultacje
Propozycje terminów
Szkolenia Powiązane
ISACA Advanced in AI Security Management (AAISM)
21 godzinAAISM to zaawansowany ramowy system do oceny, zarządzania i kontrolowania ryzyk związanymi z bezpieczeństwem systemów sztucznej inteligencji.
Ta prowadzona przez instruktora, na żywo trening (online lub stacjonarnie) jest skierowany do zaawansowanych profesjonalistów, którzy chcą zaimplementować efektywne kontrole bezpieczeństwa i praktyki zarządzania w środowiskach AI przedsiębiorstwa.
Na koniec tego programu uczestnicy będą przygotowani do:
- Oceny ryzyk bezpieczeństwa sztucznej inteligencji za pomocą uznanych w branży metodologii.
- Implementacji modeli zarządzania dla odpowiedzialnego wdrażania AI.
- Wyrównania polityk bezpieczeństwa AI do celów organizacyjnych i oczekiwań regulacyjnych.
- Zwiększenia odporności i sprawności rachunkowej w operacjach opartych na sztucznej inteligencji.
Format kursu
- Obsługiwane wykłady wspierane ekspertową analizą.
- Praktyczne warsztaty i aktywności oparte na ocenie.
- Stosowane ćwiczenia wykorzystujące realne scenariusze zarządzania AI.
Opcje dostosowywania kursu
- Dla dostosowanego treningu zgodnego z strategią AI w Twojej organizacji, prosimy o kontakt w celu dostosowania kursu.
Rządzanie, zgodność i bezpieczeństwo AI dla liderów przedsiębiorstw
14 godzinTa prowadzona przez instruktora, żywa szkolenie w Polsce (online lub stacjonarnie) jest skierowana do poziomu średniozaawansowanych liderów przedsiębiorstw, którzy chcą zrozumieć, jak odpowiedzialnie rządzić i zapewniać bezpieczeństwo systemów AI w zgodzie z nowymi globalnymi ramami, takimi jak Ustawodawstwo UE o AI, RODO, ISO/IEC 42001 oraz polecenie prezydenckie USA dotyczące AI.
Na koniec tego szkolenia uczestnicy będą w stanie:
- Zrozumieć prawne, etyczne i regulacyjne ryzyka związane z wykorzystaniem AI w różnych działach.
- Interpretować i stosować główne ramy rządzenia AI (Ustawodawstwo UE o AI, NIST AI RMF, ISO/IEC 42001).
- Ustanawiać polityki bezpieczeństwa, kontroli i nadzoru dla wdrażania AI w przedsiębiorstwie.
- Rozwijać wytyczne na temat zakupów i użytkowania systemów AI trzecich stron oraz własnych.
AI Risk Management i Bezpieczeństwo w Sektorze Publicznym
7 godzinArtificial Intelligence (AI) wprowadza nowe wymiary ryzyka operacyjnego, wyzwania rządzenia i narażenia na cyberzagrożenia dla rządowych agencji i departamentów.
To szkolenie prowadzone przez instruktora (online lub na miejscu) jest skierowane do specjalistów IT i ryzyka w sektorze publicznym z ograniczoną wcześniejszą wiedzą na temat sztucznej inteligencji, którzy chcą poznać, jak oceniać, monitorować i bezpiecznie wdrażać systemy AI w kontekście rządowym lub regulacyjnym.
Na zakończenie tego szkolenia uczestnicy będą w stanie:
- Interpretować kluczowe pojęcia związane z ryzykiem systemów AI, w tym uprzedzenia, nieprzewidywalność i drift modelu.
- Zastosować ramy rządzenia i audytu specyficzne dla AI, takie jak NIST AI RMF i ISO/IEC 42001.
- Rozpoznawać zagrożenia cyberbezpieczeństwa skierowane przeciwko modelom AI i kanałom danych.
- Ustanowić międzydepartamentalne plany zarządzania ryzykiem i wyaliniowanie polityk wdrażania AI.
Format kursu
- Interaktywne wykłady i dyskusje na temat przypadków użycia w sektorze publicznym.
- Ćwiczenia z ramami rządzenia AI i mapowaniem polityk.
- Modelowanie zagrożeń i ocena ryzyka w oparciu o scenariusze.
Opcje dostosowania kursu
- Aby złożyć wniosek o dostosowane szkolenie dla tego kursu, skontaktuj się z nami w celu uzgodnienia.
Wprowadzenie do zaufania, ryzyka i zabezpieczeń w AI (AI TRiSM)
21 godzinTo prowadzony przez instruktora, żywy szkoleniowy (online lub stacjonarny) jest skierowany do początkujących do średnio zaawansowanych profesjonalistów IT, którzy chcą zrozumieć i wdrożyć zarządzanie AI TRiSM w swoich organizacjach.
Na zakończenie tego szkolenia uczestnicy będą w stanie:
- Zrozumieć kluczowe koncepcje i znaczenie zarządzania AI trust, risk i security.
- Wykrywać i minimalizować ryzyko związane z systemami AI.
- Wdrażać najlepsze praktyki bezpieczeństwa dla AI.
- Zrozumieć przepisy prawne i etyczne uwagi związane z AI.
- Rozwinąć strategie dla skutecznego zarządzania i nadzorowania AI.
Building Secure and Responsible LLM Applications
14 godzinTo szkolenie prowadzone przez instruktora w Polsce (online lub na miejscu) jest skierowane do developerów, architektów i menedżerów produktów AI na poziomie średniozaawansowanym do zaawansowanym, którzy chcą identyfikować i minimalizować ryzyka związane z aplikacjami napędzanymi przez duże modele językowe (LLM), w tym wstrzykiwanie promptów, wycieki danych i niefiltrowane wyjścia, jednocześnie wdrażając kontrole bezpieczeństwa takie jak walidacja wejścia, nadzór człowieka w pętli oraz ograniczniki wyjścia.
Po zakończeniu tego szkolenia uczestnicy będą w stanie:
- Rozumieć podstawowe podatności systemów opartych na LLM.
- Zastosować zasady projektowania bezpiecznego do architektury aplikacji LLM.
- Używać narzędzi takich jak Guardrails AI i LangChain do walidacji, filtrowania i bezpieczeństwa.
- Integrować techniki takie jak sandboxing, red teaming i recenzja człowieka w pętli do linii montażowych produkcyjnych.
Cyberbezpieczeństwo w systemach sztucznej inteligencji
14 godzinTo szkolenie prowadzone przez instruktora (online lub na miejscu) skierowane jest do profesjonalistów zajmujących się sztuczną inteligencją i cyberbezpieczeństwem na poziomie średniozaawansowanym, którzy chcą zrozumieć i zwalczać specyficzne wyzwania związane z bezpieczeństwem modeli i systemów AI, szczególnie w wysokoregulowanych branżach takich jak finanse, zarządzanie danymi i konsulting.
Po ukończeniu tego szkolenia uczestnicy będą w stanie:
- Zrozumieć rodzaje ataków adversarialnych kierowanych przeciwko systemom AI oraz metody obronne przeciwko nim.
- Wdrożyć techniki utwardzania modeli w celu zabezpieczenia pipeline'ów uczenia maszynowego.
- Zapewnić bezpieczeństwo i integralność danych w modelach uczenia maszynowego.
- Przejść przez wymagania dotyczące zgodności z przepisami regulacyjnymi dotyczącymi bezpieczeństwa AI.
Wprowadzenie do zabezpieczeń i zarządzania ryzykiem w AI
14 godzinTo prowadzone przez instruktora, na żywo trening w Polsce (online lub stacjonarny) jest skierowany do początkujących specjalistów ds. zabezpieczeń IT, zarządzania ryzykiem i zgodności, którzy chcą zrozumieć podstawowe koncepcje bezpieczeństwa AI, wektory zagrożeń oraz globalne ramy takie jak NIST AI RMF i ISO/IEC 42001.
Na koniec tego treningu uczestnicy będą w stanie:
- Zrozumieć unikalne ryzyka bezpieczeństwa wprowadzone przez systemy AI.
- Identyfikować wektory zagrożeń, takie jak ataki wrogie, zatrucie danych i odwracanie modeli.
- Zastosować podstawowe modele zarządzania, takie jak NIST AI Risk Management Framework.
- Wyrównać zastosowanie AI do nowych standardów, wytycznych dotyczących zgodności i zasad etycznych.
OWASP GenAI Security
14 godzinNa podstawie najnowszych wytycznych OWASP GenAI Security Project, uczestnicy nauczą się identyfikować, oceniać i łagodzić zagrożenia specyficzne dla AI poprzez ćwiczenia praktyczne i scenariusze z życia rzeczywistego.
Zachowujące prywatność uczenie maszynowe
14 godzinTo prowadzone przez instruktora, na żywo szkolenie w Polsce (online lub stacjonarne) jest skierowane do zaawansowanych profesjonalistów, którzy chcą wdrożyć i ocenić techniki takie jak federated learning, bezpieczna obliczenia wielu stron, homomorficzne szyfrowanie i różnicowa prywatność w rzeczywistych potokach uczenia maszynowego.
Na koniec tego szkolenia uczestnicy będą mogli:
- Zrozumieć i porównać kluczowe techniki zachowujące prywatność w ML.
- Wdrożyć systemy federated learning za pomocą open-source frameworków.
- Zastosować różnicową prywatność do bezpiecznego udostępniania danych i treningu modeli.
- Używać szyfrowania i technik bezpiecznych obliczeń, aby chronić wejścia i wyjścia modeli.
Red Teaming AI Systems: Offensive Security for ML Models
14 godzinTa szkolenie prowadzone przez instruktora (online lub na miejscu) jest skierowane do zaawansowanych specjalistów ds. zabezpieczeń i ekspertów ML, którzy chcą symulować ataki na systemy AI, odkrywać wady i zwiększać odporność wdrożonych modeli AI.
Na koniec tego szkolenia uczestnicy będą mogli:
- Symulować realne zagrożenia dla modeli uczenia maszynowego.
- Generować przykłady awersyjne, aby przetestować odporność modelu.
- Oceniać powierzchnię ataku API i potoków AI.
- Projektować strategie red teaming dla środowisk wdrożenia AI.
Zabezpieczanie modeli AI: zagrożenia, ataki i obrona
14 godzinTa prowadzona przez instruktora, interaktywna szkolenie (online lub stacjonarnie) jest skierowana do profesjonalistów w dziedzinie uczenia maszynowego i zabezpieczeń cyfrowych na poziomie średnio zaawansowanym, którzy chcą zrozumieć i zmniejszać nowe zagrożenia dla modeli AI, wykorzystując zarówno ramy koncepcyjne, jak i praktyczne metody obrony, takie jak odporne treningi i prywatność różnicowa.
Po zakończeniu tego szkolenia uczestnicy będą w stanie:
- Identyfikować i kategoryzować zagrożenia specyficzne dla AI, takie jak ataki wprowadzające błędy, odwrócenie i otrucie.
- Korzystać z narzędzi, takich jak Adversarial Robustness Toolbox (ART), do symulacji ataków i testowania modeli.
- Stosować praktyczne metody obrony, w tym odporne treningi, wprowadzanie szumu i techniki chroniące prywatność.
- Projektować strategie oceny modeli świadome zagrożeń w środowiskach produkcyjnych.
Bezpieczeństwo i prywatność w aplikacjach TinyML
21 godzinTinyML to podejście do wdrażania modeli uczenia maszynowego na urządzeniach o niskim zużyciu energii, z ograniczoną ilością zasobów, działających na krawędzi sieci.
Ten prowadzony przez instruktora szkolenie (online lub stacjonarny) jest skierowany do profesjonalistów o zaawansowanym poziomie, którzy chcą zabezpieczać potoki TinyML i wdrażać techniki chroniące prywatność w aplikacjach AI na krawędzi.
Na koniec tego kursu uczestnicy będą mogli:
- Identyfikować unikalne zagrożenia bezpieczeństwa związane z wnioskowaniem TinyML na urządzeniach.
- Implementować mechanizmy chroniące prywatność w wdrożeniach AI na krawędzi.
- Wzmocniać modele TinyML i układy wbudowane przeciwko zagrożeniom niesprzyjającym.
- Stosować najlepsze praktyki dotyczące bezpiecznej obsługi danych w środowiskach o ograniczonych zasobach.
Format kursu
- Angażujące wykłady wspierane dyskusjami prowadzonymi przez ekspertów.
- Praktyczne ćwiczenia podkreślające rzeczywiste scenariusze zagrożeń.
- Ręczna implementacja przy użyciu narzędzi bezpieczeństwa wbudowanego i TinyML.
Opcje dostosowywania kursu
- Organizacje mogą zapytać o dostosowaną wersję tego szkolenia, aby zrównoleglić je z ich konkretnymi potrzebami bezpieczeństwa i zgodności.
Bezpieczna i Zabezpieczona Agentycka Sztuczna Inteligencja: Zarządzanie, Identyfikacja i Czerwone Drużyny
21 godzinTen kurs obejmuje zarządzanie, zarządzanie tożsamością oraz testowanie wroga dla agentyckich systemów sztucznej inteligencji, skupiając się na wzorcach wdrożenia bezpiecznych dla przedsiębiorstw i praktycznych technikach czerwonych drużyn.
Ten prowadzony przez instruktora, na żywo szkolenie (online lub stacjonarnie) jest skierowane do zaawansowanych praktyków, którzy chcą projektować, zabezpieczać i oceniać oparte na agentach systemy AI w środowiskach produkcyjnych.
Na koniec tego szkolenia uczestnicy będą w stanie:
- Określić modele zarządzania i zasady dla bezpiecznych wdrożeń agentyckich systemów AI.
- Projektować przepływy tożsamości i uwierzytelniania niebędących człowiekiem agentami z najmniejszymi uprawnieniami.
- Implementować kontrolę dostępu, ścieżki audytowe i obserwowalność dostosowane do autonomicznych agentów.
- Planować i wykonywać ćwiczenia czerwonej drużyny, aby odkrywać niewłaściwe zastosowania, ścieżki eskalacji i ryzyko wydobywania danych.
- Zmniejszać typowe zagrożenia dla agentyckich systemów poprzez politykę, kontrolę inżynierską i monitorowanie.
Format Kursu
- Interaktywne wykłady i warsztaty modelowania zagrożeń.
- Praktyczne laboratoria: udzielanie tożsamości, egzekwowanie polityki i symulacja przeciwnika.
- Ćwiczenia czerwonej drużyny/niebieskiej drużyny i ocena końcowa kursu.
Opcje Dostosowywania Kursu
- Aby poprosić o dostosowane szkolenie dla tego kursu, prosimy skontaktować się z nami, aby ustalić szczegóły.