Zachowujące prywatność uczenie maszynowe - Plan Szkolenia
Zachowujące prywatność uczenie maszynowe to dziedzina skupiająca się na ochronie wrażliwych danych, jednocześnie pozwalając na wykorzystanie zaawansowanych możliwości sztucznej inteligencji w rozproszonych lub ograniczonych środowiskach.
To prowadzone przez instruktora, na żywo szkolenie (online lub stacjonarne) jest skierowane do zaawansowanych profesjonalistów, którzy chcą wdrożyć i ocenić techniki takie jak federated learning, bezpieczna obliczenia wielu stron, homomorficzne szyfrowanie i różnicowa prywatność w rzeczywistych potokach uczenia maszynowego.
Na koniec tego szkolenia uczestnicy będą mogli:
- Zrozumieć i porównać kluczowe techniki zachowujące prywatność w ML.
- Wdrożyć systemy federated learning za pomocą open-source frameworków.
- Zastosować różnicową prywatność do bezpiecznego udostępniania danych i treningu modeli.
- Używać szyfrowania i technik bezpiecznych obliczeń, aby chronić wejścia i wyjścia modeli.
Format kursu
- Interaktywna prezentacja i dyskusja.
- Wiele ćwiczeń i praktyk.
- Praktyczne implementacje w środowisku laboratoryjnym na żywo.
Opcje dostosowania kursu
- Aby poprosić o dostosowanie szkolenia do indywidualnych potrzeb, prosimy o kontakt.
Plan Szkolenia
Wprowadzenie do zachowującego prywatność uczenia maszynowego
- Motywacje i ryzyka w środowiskach z wrażliwymi danymi
- Przegląd technik zachowujących prywatność w ML
- Modele zagrożeń i regulacyjne aspekty (np., RODO, HIPAA)
Federated Learning
- Koncepcja i architektura federated learning
- Synchronizacja i agregacja klient-serwer
- Implementacja za pomocą PySyft i Flower
Różnicowa prywatność
- Matematyka różnicowej prywatności
- Zastosowanie DP w zapytaniach do danych i treningu modeli
- Użycie Opacus i TensorFlow Privacy
Bezpieczne obliczenia wielu stron (SMPC)
- Protokoły SMPC i przypadki użycia
- Szyfrowanie vs podejście oparte na sekretowym podziale (secret-sharing)
- Bezpieczne przepływy obliczeniowe z CrypTen lub PySyft
Homomorficzne szyfrowanie
- Pełne vs częściowe homomorficzne szyfrowanie
- Szyfrowane wnioskowanie dla wrażliwych obciążeń
- Praktyczne ćwiczenia z TenSEAL i Microsoft SEAL
Zastosowania i przypadki przemysłowe
- Prywatność w opiece zdrowotnej: federated learning dla medycznej AI
- Bezpieczna współpraca w finansach: modele ryzyka i zgodność z przepisami
- Przypadki użycia w obronie i instytucjach rządowych
Podsumowanie i dalsze kroki
Wymagania
- Zrozumienie zasad uczenia maszynowego
- Doświadczenie z Pythonem i bibliotekami ML (np., PyTorch, TensorFlow)
- Znajomość pojęć z zakresu ochrony danych lub cyberbezpieczeństwa jest pomocne
Grupę docelową
- Badacze AI
- Drużyny ds. ochrony danych i zgodności z przepisami dotyczącymi prywatności
- Inżynierowie bezpieczeństwa pracujący w regulowanych branżach
Szkolenia otwarte są realizowane w przypadku uzbierania się grupy szkoleniowej liczącej co najmniej 5 osób na dany termin.
Zachowujące prywatność uczenie maszynowe - Plan Szkolenia - Rezerwacja
Zachowujące prywatność uczenie maszynowe - Plan Szkolenia - Zapytanie
Zachowujące prywatność uczenie maszynowe - Zapytanie o Konsultacje
Zapytanie o Konsultacje
Propozycje terminów
Szkolenia Powiązane
ISACA Advanced in AI Security Management (AAISM)
21 godzinAAISM to zaawansowany ramowy system do oceny, zarządzania i kontrolowania ryzyk związanymi z bezpieczeństwem systemów sztucznej inteligencji.
Ta prowadzona przez instruktora, na żywo trening (online lub stacjonarnie) jest skierowany do zaawansowanych profesjonalistów, którzy chcą zaimplementować efektywne kontrole bezpieczeństwa i praktyki zarządzania w środowiskach AI przedsiębiorstwa.
Na koniec tego programu uczestnicy będą przygotowani do:
- Oceny ryzyk bezpieczeństwa sztucznej inteligencji za pomocą uznanych w branży metodologii.
- Implementacji modeli zarządzania dla odpowiedzialnego wdrażania AI.
- Wyrównania polityk bezpieczeństwa AI do celów organizacyjnych i oczekiwań regulacyjnych.
- Zwiększenia odporności i sprawności rachunkowej w operacjach opartych na sztucznej inteligencji.
Format kursu
- Obsługiwane wykłady wspierane ekspertową analizą.
- Praktyczne warsztaty i aktywności oparte na ocenie.
- Stosowane ćwiczenia wykorzystujące realne scenariusze zarządzania AI.
Opcje dostosowywania kursu
- Dla dostosowanego treningu zgodnego z strategią AI w Twojej organizacji, prosimy o kontakt w celu dostosowania kursu.
Rządzanie, zgodność i bezpieczeństwo AI dla liderów przedsiębiorstw
14 godzinTa prowadzona przez instruktora, żywa szkolenie w Polsce (online lub stacjonarnie) jest skierowana do poziomu średniozaawansowanych liderów przedsiębiorstw, którzy chcą zrozumieć, jak odpowiedzialnie rządzić i zapewniać bezpieczeństwo systemów AI w zgodzie z nowymi globalnymi ramami, takimi jak Ustawodawstwo UE o AI, RODO, ISO/IEC 42001 oraz polecenie prezydenckie USA dotyczące AI.
Na koniec tego szkolenia uczestnicy będą w stanie:
- Zrozumieć prawne, etyczne i regulacyjne ryzyka związane z wykorzystaniem AI w różnych działach.
- Interpretować i stosować główne ramy rządzenia AI (Ustawodawstwo UE o AI, NIST AI RMF, ISO/IEC 42001).
- Ustanawiać polityki bezpieczeństwa, kontroli i nadzoru dla wdrażania AI w przedsiębiorstwie.
- Rozwijać wytyczne na temat zakupów i użytkowania systemów AI trzecich stron oraz własnych.
AI Risk Management i Bezpieczeństwo w Sektorze Publicznym
7 godzinArtificial Intelligence (AI) wprowadza nowe wymiary ryzyka operacyjnego, wyzwania rządzenia i narażenia na cyberzagrożenia dla rządowych agencji i departamentów.
To szkolenie prowadzone przez instruktora (online lub na miejscu) jest skierowane do specjalistów IT i ryzyka w sektorze publicznym z ograniczoną wcześniejszą wiedzą na temat sztucznej inteligencji, którzy chcą poznać, jak oceniać, monitorować i bezpiecznie wdrażać systemy AI w kontekście rządowym lub regulacyjnym.
Na zakończenie tego szkolenia uczestnicy będą w stanie:
- Interpretować kluczowe pojęcia związane z ryzykiem systemów AI, w tym uprzedzenia, nieprzewidywalność i drift modelu.
- Zastosować ramy rządzenia i audytu specyficzne dla AI, takie jak NIST AI RMF i ISO/IEC 42001.
- Rozpoznawać zagrożenia cyberbezpieczeństwa skierowane przeciwko modelom AI i kanałom danych.
- Ustanowić międzydepartamentalne plany zarządzania ryzykiem i wyaliniowanie polityk wdrażania AI.
Format kursu
- Interaktywne wykłady i dyskusje na temat przypadków użycia w sektorze publicznym.
- Ćwiczenia z ramami rządzenia AI i mapowaniem polityk.
- Modelowanie zagrożeń i ocena ryzyka w oparciu o scenariusze.
Opcje dostosowania kursu
- Aby złożyć wniosek o dostosowane szkolenie dla tego kursu, skontaktuj się z nami w celu uzgodnienia.
Wprowadzenie do zaufania, ryzyka i zabezpieczeń w AI (AI TRiSM)
21 godzinTo prowadzony przez instruktora, żywy szkoleniowy (online lub stacjonarny) jest skierowany do początkujących do średnio zaawansowanych profesjonalistów IT, którzy chcą zrozumieć i wdrożyć zarządzanie AI TRiSM w swoich organizacjach.
Na zakończenie tego szkolenia uczestnicy będą w stanie:
- Zrozumieć kluczowe koncepcje i znaczenie zarządzania AI trust, risk i security.
- Wykrywać i minimalizować ryzyko związane z systemami AI.
- Wdrażać najlepsze praktyki bezpieczeństwa dla AI.
- Zrozumieć przepisy prawne i etyczne uwagi związane z AI.
- Rozwinąć strategie dla skutecznego zarządzania i nadzorowania AI.
Building Secure and Responsible LLM Applications
14 godzinTo szkolenie prowadzone przez instruktora w Polsce (online lub na miejscu) jest skierowane do developerów, architektów i menedżerów produktów AI na poziomie średniozaawansowanym do zaawansowanym, którzy chcą identyfikować i minimalizować ryzyka związane z aplikacjami napędzanymi przez duże modele językowe (LLM), w tym wstrzykiwanie promptów, wycieki danych i niefiltrowane wyjścia, jednocześnie wdrażając kontrole bezpieczeństwa takie jak walidacja wejścia, nadzór człowieka w pętli oraz ograniczniki wyjścia.
Po zakończeniu tego szkolenia uczestnicy będą w stanie:
- Rozumieć podstawowe podatności systemów opartych na LLM.
- Zastosować zasady projektowania bezpiecznego do architektury aplikacji LLM.
- Używać narzędzi takich jak Guardrails AI i LangChain do walidacji, filtrowania i bezpieczeństwa.
- Integrować techniki takie jak sandboxing, red teaming i recenzja człowieka w pętli do linii montażowych produkcyjnych.
Cyberbezpieczeństwo w systemach sztucznej inteligencji
14 godzinTo szkolenie prowadzone przez instruktora (online lub na miejscu) skierowane jest do profesjonalistów zajmujących się sztuczną inteligencją i cyberbezpieczeństwem na poziomie średniozaawansowanym, którzy chcą zrozumieć i zwalczać specyficzne wyzwania związane z bezpieczeństwem modeli i systemów AI, szczególnie w wysokoregulowanych branżach takich jak finanse, zarządzanie danymi i konsulting.
Po ukończeniu tego szkolenia uczestnicy będą w stanie:
- Zrozumieć rodzaje ataków adversarialnych kierowanych przeciwko systemom AI oraz metody obronne przeciwko nim.
- Wdrożyć techniki utwardzania modeli w celu zabezpieczenia pipeline'ów uczenia maszynowego.
- Zapewnić bezpieczeństwo i integralność danych w modelach uczenia maszynowego.
- Przejść przez wymagania dotyczące zgodności z przepisami regulacyjnymi dotyczącymi bezpieczeństwa AI.
Wprowadzenie do zabezpieczeń i zarządzania ryzykiem w AI
14 godzinTo prowadzone przez instruktora, na żywo trening w Polsce (online lub stacjonarny) jest skierowany do początkujących specjalistów ds. zabezpieczeń IT, zarządzania ryzykiem i zgodności, którzy chcą zrozumieć podstawowe koncepcje bezpieczeństwa AI, wektory zagrożeń oraz globalne ramy takie jak NIST AI RMF i ISO/IEC 42001.
Na koniec tego treningu uczestnicy będą w stanie:
- Zrozumieć unikalne ryzyka bezpieczeństwa wprowadzone przez systemy AI.
- Identyfikować wektory zagrożeń, takie jak ataki wrogie, zatrucie danych i odwracanie modeli.
- Zastosować podstawowe modele zarządzania, takie jak NIST AI Risk Management Framework.
- Wyrównać zastosowanie AI do nowych standardów, wytycznych dotyczących zgodności i zasad etycznych.
OWASP GenAI Security
14 godzinNa podstawie najnowszych wytycznych OWASP GenAI Security Project, uczestnicy nauczą się identyfikować, oceniać i łagodzić zagrożenia specyficzne dla AI poprzez ćwiczenia praktyczne i scenariusze z życia rzeczywistego.
Red Teaming AI Systems: Offensive Security for ML Models
14 godzinTa szkolenie prowadzone przez instruktora (online lub na miejscu) jest skierowane do zaawansowanych specjalistów ds. zabezpieczeń i ekspertów ML, którzy chcą symulować ataki na systemy AI, odkrywać wady i zwiększać odporność wdrożonych modeli AI.
Na koniec tego szkolenia uczestnicy będą mogli:
- Symulować realne zagrożenia dla modeli uczenia maszynowego.
- Generować przykłady awersyjne, aby przetestować odporność modelu.
- Oceniać powierzchnię ataku API i potoków AI.
- Projektować strategie red teaming dla środowisk wdrożenia AI.
Bezpieczenie Edge AI i Wbudowanej Inteligencji
14 godzinTrening prowadzony przez instruktora, dostępny online lub na miejscu, skierowany jest do inżynierów i specjalistów ds. bezpieczeństwa o poziomie średnim, którzy chcą zabezpieczyć modele sztucznej inteligencji wdrożone na krawędzi przed zagrożeniami takimi jak manipulacja, wyciek danych, niekorzystne wejścia i ataki fizyczne.
Na zakończenie tego szkolenia uczestnicy będą w stanie:
- Identyfikować i oceniać ryzyka bezpieczeństwa w wdrożeniach sztucznej inteligencji na krawędzi.
- Stosować techniki odporności na manipulacje i szyfrowanego wnioskowania.
- Utwardzać modele wdrożone na krawędzi i zabezpieczać łańcuchy danych.
- Wdrażać strategie zminimalizowania zagrożeń specyficzne dla wbudowanych i ograniczanych systemów.
Zabezpieczanie modeli AI: zagrożenia, ataki i obrona
14 godzinTa prowadzona przez instruktora, interaktywna szkolenie (online lub stacjonarnie) jest skierowana do profesjonalistów w dziedzinie uczenia maszynowego i zabezpieczeń cyfrowych na poziomie średnio zaawansowanym, którzy chcą zrozumieć i zmniejszać nowe zagrożenia dla modeli AI, wykorzystując zarówno ramy koncepcyjne, jak i praktyczne metody obrony, takie jak odporne treningi i prywatność różnicowa.
Po zakończeniu tego szkolenia uczestnicy będą w stanie:
- Identyfikować i kategoryzować zagrożenia specyficzne dla AI, takie jak ataki wprowadzające błędy, odwrócenie i otrucie.
- Korzystać z narzędzi, takich jak Adversarial Robustness Toolbox (ART), do symulacji ataków i testowania modeli.
- Stosować praktyczne metody obrony, w tym odporne treningi, wprowadzanie szumu i techniki chroniące prywatność.
- Projektować strategie oceny modeli świadome zagrożeń w środowiskach produkcyjnych.
Bezpieczeństwo i prywatność w aplikacjach TinyML
21 godzinTinyML to podejście do wdrażania modeli uczenia maszynowego na urządzeniach o niskim zużyciu energii, z ograniczoną ilością zasobów, działających na krawędzi sieci.
Ten prowadzony przez instruktora szkolenie (online lub stacjonarny) jest skierowany do profesjonalistów o zaawansowanym poziomie, którzy chcą zabezpieczać potoki TinyML i wdrażać techniki chroniące prywatność w aplikacjach AI na krawędzi.
Na koniec tego kursu uczestnicy będą mogli:
- Identyfikować unikalne zagrożenia bezpieczeństwa związane z wnioskowaniem TinyML na urządzeniach.
- Implementować mechanizmy chroniące prywatność w wdrożeniach AI na krawędzi.
- Wzmocniać modele TinyML i układy wbudowane przeciwko zagrożeniom niesprzyjającym.
- Stosować najlepsze praktyki dotyczące bezpiecznej obsługi danych w środowiskach o ograniczonych zasobach.
Format kursu
- Angażujące wykłady wspierane dyskusjami prowadzonymi przez ekspertów.
- Praktyczne ćwiczenia podkreślające rzeczywiste scenariusze zagrożeń.
- Ręczna implementacja przy użyciu narzędzi bezpieczeństwa wbudowanego i TinyML.
Opcje dostosowywania kursu
- Organizacje mogą zapytać o dostosowaną wersję tego szkolenia, aby zrównoleglić je z ich konkretnymi potrzebami bezpieczeństwa i zgodności.
Bezpieczna i Zabezpieczona Agentycka Sztuczna Inteligencja: Zarządzanie, Identyfikacja i Czerwone Drużyny
21 godzinTen kurs obejmuje zarządzanie, zarządzanie tożsamością oraz testowanie wroga dla agentyckich systemów sztucznej inteligencji, skupiając się na wzorcach wdrożenia bezpiecznych dla przedsiębiorstw i praktycznych technikach czerwonych drużyn.
Ten prowadzony przez instruktora, na żywo szkolenie (online lub stacjonarnie) jest skierowane do zaawansowanych praktyków, którzy chcą projektować, zabezpieczać i oceniać oparte na agentach systemy AI w środowiskach produkcyjnych.
Na koniec tego szkolenia uczestnicy będą w stanie:
- Określić modele zarządzania i zasady dla bezpiecznych wdrożeń agentyckich systemów AI.
- Projektować przepływy tożsamości i uwierzytelniania niebędących człowiekiem agentami z najmniejszymi uprawnieniami.
- Implementować kontrolę dostępu, ścieżki audytowe i obserwowalność dostosowane do autonomicznych agentów.
- Planować i wykonywać ćwiczenia czerwonej drużyny, aby odkrywać niewłaściwe zastosowania, ścieżki eskalacji i ryzyko wydobywania danych.
- Zmniejszać typowe zagrożenia dla agentyckich systemów poprzez politykę, kontrolę inżynierską i monitorowanie.
Format Kursu
- Interaktywne wykłady i warsztaty modelowania zagrożeń.
- Praktyczne laboratoria: udzielanie tożsamości, egzekwowanie polityki i symulacja przeciwnika.
- Ćwiczenia czerwonej drużyny/niebieskiej drużyny i ocena końcowa kursu.
Opcje Dostosowywania Kursu
- Aby poprosić o dostosowane szkolenie dla tego kursu, prosimy skontaktować się z nami, aby ustalić szczegóły.