Ochroniaj systemy AI przed ewoluującymi zagrożeniami dzięki szkoleniom prowadzonym przez instruktora w AI Security.
Te kursy na żywo nauczają, jak bronić modeli uczenia maszynowego, kontratakować na atakach przeciwnika oraz budować zaufane i odporne systemy AI.
Szkolenia są dostępne jako online live training za pośrednictwem zdalnego pulpitu lub szkolenia na miejscu w Trójmiasto, z interaktywnymi ćwiczeniami i realnymi przypadkami użytkowania.
Szkolenia na miejscu mogą być przeprowadzane w Twoim miejscu w Trójmiasto lub w centrum szkoleniowym NobleProg w Trójmiasto.
Znane również jako Secure AI, ML Security lub Adversarial Machine Learning.
NobleProg – Twój lokalny dostawca szkoleniowy
Gdynia
Hotel Nadmorski, Ejsmonda 2, Gdynia, Polska, 81-409
Sala szkoleniowa znajduje się zaledwie 3 kilometry od Dworca PKP/PKS w Gdyni, co sprawia, że jest łatwo dostępna dla uczestników podróżujących pociągiem lub autobusem. Dodatkowo, jest oddalona tylko o 400 metrów od przystanku autobusowego, ułatwiając dojazd nawet tym, którzy podróżują komunikacją miejską. Wyposażona jest w niezbędne narzędzia do prowadzenia szkoleń, takie jak rzutnik, ekran oraz flipchart, co zapewnia komfortowe warunki dla uczestników i prowadzącego zajęcia.
Gdańsk
Hotel Fahrenheit, Grodzka 19, Gdańsk, Polska, 80-841
Sala szkoleniowa znajduje się w samym sercu malowniczej gdańskiej starówki, co sprawia, że otoczenie jest nie tylko inspirujące, ale także wyjątkowo atrakcyjne dla uczestników. W niedalekiej odległości można znaleźć dworzec PKP oraz PKS, ułatwiając przyjazd zarówno tym podróżującym pociągiem, jak i autobusem. Dodatkowo, lotnisko i port są również w zasięgu ręki, co czyni tę lokalizację wygodną dla osób przybywających z dalszych miejscowości, zarówno z kraju, jak i spoza jego granic.
To szkolenie prowadzone przez instruktora w Trójmiasto (online lub na miejscu) jest skierowane do inżynierów i specjalistów ds. bezpieczeństwa o poziomie średnim, którzy chcą zabezpieczyć modele AI wdrażane na obrzeżach przed zagrożeniami takimi jak manipulacja, wyciek danych, nieprzyjazne wprowadzanie danych i fizyczne ataki.
Po zakończeniu tego szkolenia uczestnicy będą w stanie:
Identyfikować i oceniać ryzyka bezpieczeństwa w wdrożeniach AI na obrzeżach.
Zastosować techniki odporności na manipulację i szyfrowane wnioskowanie.
Zabezpieczyć modele wdrożone na obrzeżach i zabezpieczyć kanały danych.
Wdrożyć strategie łagodzenia zagrożeń specyficzne dla wbudowanych i ograniczonych systemów.
Trening prowadzony przez instruktora w Trójmiasto (online lub stacjonarnie) jest skierowany do profesjonalistów na zaawansowanym poziomie, którzy chcą wdrożyć i ocenić techniki takie jak federated learning, secure multiparty computation, homomorphic encryption oraz differential privacy w rzeczywistych procesach uczenia maszynowego.Na zakończenie tego szkolenia uczestnicy będą w stanie:
Rozumieć i porównywać kluczowe techniki ochrony prywatności w ML.
Wdrażać systemy federated learning z użyciem otwartych frameworków.
Zastosować differential privacy do bezpiecznego udostępniania danych i trenowania modeli.
Wykorzystywać techniki szyfrowania i bezpiecznych obliczeń do ochrony wejść i wyjść modelu.
Artificial Intelligence (AI) wprowadza nowe wymiarów ryzyka operacyjnego, wyzwań związanych z zarządzaniem i narażenia na cyberbezpieczeństwo dla agencji rządowych i departamentów.
To prowadzone przez instruktora, żywe szkolenie (online lub stacjonarne) jest skierowane do specjalistów IT i ryzyka w sektorze publicznym z ograniczonym wcześniejszym doświadczeniem w dziedzinie AI, którzy chcą zrozumieć, jak oceniać, monitorować i zabezpieczać systemy AI w kontekście rządowym lub regulacyjnym.
Do końca tego szkolenia uczestnicy będą w stanie:
Interpretować kluczowe koncepcje związane z ryzykiem systemów AI, w tym uprzedzenia, nieprzewidywalność i dryf modelu.
Zastosować ramy zarządzania i audytu specyficzne dla AI, takie jak NIST AI RMF i ISO/IEC 42001.
Rozpoznawać zagrożenia cyberbezpieczeństwa skierowane przeciwko modelom AI i kanałom danych.
Ustanawiać plany zarządzania ryzykiem między działami i harmonizację polityki wdrożenia AI.
Format kursu
Interaktywne wykłady i dyskusje nad przypadkami użycia w sektorze publicznym.
Ćwiczenia z ramami zarządzania AI i mapowaniem polityki.
Modelowanie zagrożeń i ocena ryzyka na podstawie scenariuszy.
Opcje dostosowania kursu
Aby złożyć wniosek o dostosowane szkolenie dla tego kursu, skontaktuj się z nami w celu uzgodnienia.
To szkolenie prowadzone przez instruktora w Trójmiasto (online lub na miejscu) jest przeznaczone dla zaawansowanych profesjonalistów z dziedziny bezpieczeństwa i specjalistów ML, którzy chcą symulować ataki na systemy AI, odkrywać luki i wzmocnić odporność wdrożonych modeli AI.
Po zakończeniu tego szkolenia uczestnicy będą w stanie:
Symulować realne zagrożenia dla modeli uczenia maszynowego.
Generować przykłady przeciwnika, aby przetestować odporność modelu.
Ocenić powierzchnię ataku API i pipeline AI.
Projektować strategie red teamingu dla środowisk wdrażania AI.
To szkolenie prowadzone przez instruktora w Trójmiasto (online lub na miejscu) jest skierowane do liderów przedsiębiorstw na poziomie średnim, którzy chcą zrozumieć, jak odpowiedzialnie zarządzać i zabezpieczać systemy AI w zgodzie z nowymi globalnymi ramami, takimi jak Ustawa o AI UE, GDPR, ISO/IEC 42001 oraz Rozporządzenie Prezydenta Stanów Zjednoczonych w sprawie AI.
Po ukończeniu tego szkolenia uczestnicy będą w stanie:
Zrozumieć prawne, etyczne i regulacyjne ryzyka związane z używaniem AI w różnych działach.
Interpretować i stosować główne ramy rządzenia AI (Ustawa o AI UE, NIST AI RMF, ISO/IEC 42001).
Ustalić polityki bezpieczeństwa, audytu i nadzoru dla wdrażania AI w przedsiębiorstwie.
Rozwijać wytyczne dotyczące zakupów i użytkowania systemów AI trzecich stron i wewnętrznych.
To szkolenie prowadzone przez instruktora w Trójmiasto (online lub na miejscu) jest skierowane do developerów, architektów i menedżerów produktów AI na poziomie średniozaawansowanym do zaawansowanym, którzy chcą identyfikować i minimalizować ryzyka związane z aplikacjami napędzanymi przez duże modele językowe (LLM), w tym wstrzykiwanie promptów, wycieki danych i niefiltrowane wyjścia, jednocześnie wdrażając kontrole bezpieczeństwa takie jak walidacja wejścia, nadzór człowieka w pętli oraz ograniczniki wyjścia.
Po zakończeniu tego szkolenia uczestnicy będą w stanie:
Rozumieć podstawowe podatności systemów opartych na LLM.
Zastosować zasady projektowania bezpiecznego do architektury aplikacji LLM.
Używać narzędzi takich jak Guardrails AI i LangChain do walidacji, filtrowania i bezpieczeństwa.
Integrować techniki takie jak sandboxing, red teaming i recenzja człowieka w pętli do linii montażowych produkcyjnych.
To szkolenie prowadzone przez instruktora w Trójmiasto (online lub na miejscu) jest skierowane do profesjonalistów zajmujących się sztuczną inteligencją i cyberbezpieczeństwem na poziomie średnim, którzy chcą zrozumieć i zminimalizować pojawiające się zagrożenia dla modeli AI, stosując zarówno koncepcyjne ramy, jak i praktyczne obrony, takie jak trwałe szkolenie i różnicowe prywatność.
Na koniec tego szkolenia uczestnicy będą mogli:
Wykrywać i klasyfikować zagrożenia specyficzne dla AI, takie jak ataki przeciwnikowe, inwersja i zatruwanie.
Używać narzędzi, takich jak Adversarial Robustness Toolbox (ART), do symulacji ataków i testowania modeli.
Zastosować praktyczne obrony, w tym szkolenie przeciwnikowe, wstrzykiwanie szumu i techniki zachowujące prywatność.
Projektować strategie oceny modeli świadome zagrożeń w środowiskach produkcyjnych.
To szkolenie prowadzone przez instruktora w Trójmiasto (online lub na miejscu) jest skierowane do początkujących specjalistów ds. bezpieczeństwa IT, ryzyka i zgodności, którzy chcą poznać podstawowe pojęcia bezpieczeństwa AI, wektory zagrożeń i globalne ramy, takie jak NIST AI RMF i ISO/IEC 42001.
Po zakończeniu tego szkolenia uczestnicy będą w stanie:
Zrozumieć unikalne ryzyka bezpieczeństwa wprowadzane przez systemy AI.
Wyidentyfikować wektory zagrożeń, takie jak ataki przeciwnika, zanieczyszczenie danych i odwracanie modeli.
Zastosować podstawowe modele zarządzania, takie jak Ramy NIST AI Risk Management.
Dopasować użycie AI do nowych standardów, wytycznych zgodności i zasad etycznych.
Szkolenie AI Security Trójmiasto, szkolenie wieczorowe AI Security Trójmiasto, szkolenie weekendowe AI Security Trójmiasto, AI Security boot camp Trójmiasto, kurs zdalny AI Security Trójmiasto, nauczanie wirtualne AI Security Trójmiasto, Kurs AI Security Trójmiasto, nauka przez internet AI Security Trójmiasto, edukacja zdalna AI Security Trójmiasto, wykładowca AI Security Trójmiasto, instruktor AI Security Trójmiasto, Kursy AI Security Trójmiasto, kurs online AI Security Trójmiasto, lekcje AI Security Trójmiasto, Trener AI Security Trójmiasto