Bezpieczeństwo i prywatność w aplikacjach TinyML - Plan Szkolenia
TinyML to podejście do wdrażania modeli uczenia maszynowego na urządzeniach o niskim zużyciu energii, z ograniczoną ilością zasobów, działających na krawędzi sieci.
Ten prowadzony przez instruktora szkolenie (online lub stacjonarny) jest skierowany do profesjonalistów o zaawansowanym poziomie, którzy chcą zabezpieczać potoki TinyML i wdrażać techniki chroniące prywatność w aplikacjach AI na krawędzi.
Na koniec tego kursu uczestnicy będą mogli:
- Identyfikować unikalne zagrożenia bezpieczeństwa związane z wnioskowaniem TinyML na urządzeniach.
- Implementować mechanizmy chroniące prywatność w wdrożeniach AI na krawędzi.
- Wzmocniać modele TinyML i układy wbudowane przeciwko zagrożeniom niesprzyjającym.
- Stosować najlepsze praktyki dotyczące bezpiecznej obsługi danych w środowiskach o ograniczonych zasobach.
Format kursu
- Angażujące wykłady wspierane dyskusjami prowadzonymi przez ekspertów.
- Praktyczne ćwiczenia podkreślające rzeczywiste scenariusze zagrożeń.
- Ręczna implementacja przy użyciu narzędzi bezpieczeństwa wbudowanego i TinyML.
Opcje dostosowywania kursu
- Organizacje mogą zapytać o dostosowaną wersję tego szkolenia, aby zrównoleglić je z ich konkretnymi potrzebami bezpieczeństwa i zgodności.
Plan Szkolenia
Wprowadzenie do bezpieczeństwa w TinyML
- Wyzwania bezpieczeństwa w systemach ML o ograniczonych zasobach
- Modele zagrożeń dla wdrożeń TinyML
- Kategorie ryzyka dla aplikacji AI wbudowanych
Ochrona prywatności w AI na krawędzi
- Rozważania dotyczące prywatności przy przetwarzaniu danych na urządzeniach
- Minimalizacja narażenia i transferu danych
- Techniki decentralnego obsługi danych
Ataki złośliwe na modele TinyML
- Zagrożenia związane z unikaniem modelu i truciznieniem
- Manipulowanie wejściami na czujnikach wbudowanych
- Ocena podatności w środowiskach o ograniczonych zasobach
Wzmocnienie bezpieczeństwa dla ML wbudowanego
- Warstwy ochrony firmware i hardware
- Kontrola dostępu i mechanizmy bezpiecznego rozruchu
- Najlepsze praktyki w zakresie ochrony potoków wnioskowania
Techniki chronienia prywatności w TinyML
- Rozważania dotyczące kwantyzacji i projektowania modeli dla prywatności
- Techniki anonimizacji na urządzeniach
- Lekkie szyfrowanie i metody obliczeń bezpiecznych
Bezpieczne wdrażanie i utrzymanie
- Bezpieczna konfiguracja urządzeń TinyML
- Strategie aktualizacji OTA i stosowania poprawek
- Monitorowanie i reagowanie na incydenty na krawędzi sieci
Testowanie i weryfikacja bezpiecznych systemów TinyML
- Ramy testowania bezpieczeństwa i prywatności
- Symulacja rzeczywistych scenariuszy ataków
- Weryfikacja i rozważania dotyczące zgodności
Studia przypadków i stosowane scenariusze
- Niepowodzenia bezpieczeństwa w ekosystemach AI na krawędzi
- Projektowanie odpornych architektur TinyML
- Ocenianie kompromisów między wydajnością a ochroną
Podsumowanie i kolejne kroki
Wymagania
- Zrozumienie architektur systemów wbudowanych
- Doświadczenie w przepływach pracy uczenia maszynowego
- Wiedza o podstawach cyberbezpieczeństwa
Adresaci kursu
- Analiza zabezpieczeń
- Deweloperzy AI
- Inżynierowie wbudowani
Szkolenia otwarte są realizowane w przypadku uzbierania się grupy szkoleniowej liczącej co najmniej 5 osób na dany termin.
Bezpieczeństwo i prywatność w aplikacjach TinyML - Plan Szkolenia - Rezerwacja
Bezpieczeństwo i prywatność w aplikacjach TinyML - Plan Szkolenia - Zapytanie
Bezpieczeństwo i prywatność w aplikacjach TinyML - Zapytanie o Konsultacje
Zapytanie o Konsultacje
Propozycje terminów
Szkolenia Powiązane
AI Governance, Compliance, and Security for Enterprise Leaders
14 godzinTrening prowadzony przez instruktora w formie online lub stacjonarnej jest skierowany do średniozaawansowanych liderów przedsiębiorstw, którzy chcą zrozumieć, jak odpowiedzialnie zarządzać i zabezpieczać systemy AI zgodnie z nowo powstającymi globalnymi ramami, takimi jak Akt UE o sztucznej inteligencji, GDPR, ISO/IEC 42001 oraz rozkaz prezydenta Stanów Zjednoczonych dotyczący sztucznej inteligencji.
Na zakończenie tego szkolenia uczestnicy będą w stanie:
- Zrozumieć prawne, etyczne i regulacyjne ryzyka związane z wykorzystywaniem AI w różnych działach.
- Interpretować i stosować główne ramy zarządzania AI (Akt UE o sztucznej inteligencji, NIST AI RMF, ISO/IEC 42001).
- Wdrażać polityki bezpieczeństwa, audytu i nadzoru dla wdrażania AI w przedsiębiorstwie.
- Tworzyć wytyczne dotyczące zakupów i użytkowania systemów AI pochodzących od zewnętrznych dostawców oraz wewnętrznych rozwiązań.
AI Risk Management i Bezpieczeństwo w Sektorze Publicznym
7 godzinArtificial Intelligence (AI) wprowadza nowe wymiary ryzyka operacyjnego, wyzwania rządzenia i narażenia na cyberzagrożenia dla rządowych agencji i departamentów.
To szkolenie prowadzone przez instruktora (online lub na miejscu) jest skierowane do specjalistów IT i ryzyka w sektorze publicznym z ograniczoną wcześniejszą wiedzą na temat sztucznej inteligencji, którzy chcą poznać, jak oceniać, monitorować i bezpiecznie wdrażać systemy AI w kontekście rządowym lub regulacyjnym.
Na zakończenie tego szkolenia uczestnicy będą w stanie:
- Interpretować kluczowe pojęcia związane z ryzykiem systemów AI, w tym uprzedzenia, nieprzewidywalność i drift modelu.
- Zastosować ramy rządzenia i audytu specyficzne dla AI, takie jak NIST AI RMF i ISO/IEC 42001.
- Rozpoznawać zagrożenia cyberbezpieczeństwa skierowane przeciwko modelom AI i kanałom danych.
- Ustanowić międzydepartamentalne plany zarządzania ryzykiem i wyaliniowanie polityk wdrażania AI.
Format kursu
- Interaktywne wykłady i dyskusje na temat przypadków użycia w sektorze publicznym.
- Ćwiczenia z ramami rządzenia AI i mapowaniem polityk.
- Modelowanie zagrożeń i ocena ryzyka w oparciu o scenariusze.
Opcje dostosowania kursu
- Aby złożyć wniosek o dostosowane szkolenie dla tego kursu, skontaktuj się z nami w celu uzgodnienia.
Wprowadzenie do zaufania, ryzyka i zabezpieczeń w AI (AI TRiSM)
21 godzinTo prowadzony przez instruktora, żywy szkoleniowy (online lub stacjonarny) jest skierowany do początkujących do średnio zaawansowanych profesjonalistów IT, którzy chcą zrozumieć i wdrożyć zarządzanie AI TRiSM w swoich organizacjach.
Na zakończenie tego szkolenia uczestnicy będą w stanie:
- Zrozumieć kluczowe koncepcje i znaczenie zarządzania AI trust, risk i security.
- Wykrywać i minimalizować ryzyko związane z systemami AI.
- Wdrażać najlepsze praktyki bezpieczeństwa dla AI.
- Zrozumieć przepisy prawne i etyczne uwagi związane z AI.
- Rozwinąć strategie dla skutecznego zarządzania i nadzorowania AI.
Building Secure and Responsible LLM Applications
14 godzinTo szkolenie prowadzone przez instruktora w Polsce (online lub na miejscu) jest skierowane do developerów, architektów i menedżerów produktów AI na poziomie średniozaawansowanym do zaawansowanym, którzy chcą identyfikować i minimalizować ryzyka związane z aplikacjami napędzanymi przez duże modele językowe (LLM), w tym wstrzykiwanie promptów, wycieki danych i niefiltrowane wyjścia, jednocześnie wdrażając kontrole bezpieczeństwa takie jak walidacja wejścia, nadzór człowieka w pętli oraz ograniczniki wyjścia.
Po zakończeniu tego szkolenia uczestnicy będą w stanie:
- Rozumieć podstawowe podatności systemów opartych na LLM.
- Zastosować zasady projektowania bezpiecznego do architektury aplikacji LLM.
- Używać narzędzi takich jak Guardrails AI i LangChain do walidacji, filtrowania i bezpieczeństwa.
- Integrować techniki takie jak sandboxing, red teaming i recenzja człowieka w pętli do linii montażowych produkcyjnych.
Cyberbezpieczeństwo w systemach sztucznej inteligencji
14 godzinTo szkolenie prowadzone przez instruktora (online lub na miejscu) skierowane jest do profesjonalistów zajmujących się sztuczną inteligencją i cyberbezpieczeństwem na poziomie średniozaawansowanym, którzy chcą zrozumieć i zwalczać specyficzne wyzwania związane z bezpieczeństwem modeli i systemów AI, szczególnie w wysokoregulowanych branżach takich jak finanse, zarządzanie danymi i konsulting.
Po ukończeniu tego szkolenia uczestnicy będą w stanie:
- Zrozumieć rodzaje ataków adversarialnych kierowanych przeciwko systemom AI oraz metody obronne przeciwko nim.
- Wdrożyć techniki utwardzania modeli w celu zabezpieczenia pipeline'ów uczenia maszynowego.
- Zapewnić bezpieczeństwo i integralność danych w modelach uczenia maszynowego.
- Przejść przez wymagania dotyczące zgodności z przepisami regulacyjnymi dotyczącymi bezpieczeństwa AI.
Wprowadzenie do AI Security i Risk Management
14 godzinTrening prowadzony przez instruktora w Polsce (online lub na miejscu) jest skierowany do początkujących specjalistów ds. bezpieczeństwa IT, zarządzania ryzykiem i zgodności, którzy chcą zrozumieć podstawowe koncepcje bezpieczeństwa AI, wektory zagrożeń i globalne ramy, takie jak NIST AI RMF i ISO/IEC 42001.
Na koniec tego szkolenia uczestnicy będą w stanie:
- Zrozumieć unikalne ryzyka bezpieczeństwa wprowadzane przez systemy AI.
- Wykrywać wektory zagrożeń, takie jak ataki przeciwnika, zatrucie danych i odwracanie modeli.
- Zastosować podstawowe modele zarządzania, takie jak ramka NIST AI Risk Management.
- Dopasować użycie AI do pojawiających się standardów, wytycznych zgodności i zasad etycznych.
Wdrażanie AI na mikroprocesorach z TinyML
21 godzinTo szkolenie prowadzone przez instruktora w Polsce (online lub stacjonarnie) jest skierowane do inżynierów systemów wbudowanych i developerów AI na poziomie średnim, którzy chcą wdrażać modele uczenia maszynowego na mikrokontrolerach za pomocą TensorFlow Lite i Edge Impulse.
Po ukończeniu tego szkolenia uczestnicy będą w stanie:
- Zrozumieć podstawy TinyML i jego korzyści dla zastosowań sztucznej inteligencji na krawędzi.
- Zainstalować środowisko rozwojowe dla projektów TinyML.
- Trenować, optymalizować i wdrażać modele AI na mikrokontrolerach o niskim zużyciu energii.
- Używać TensorFlow Lite i Edge Impulse do implementacji rzeczywistych zastosowań TinyML.
- Optymalizować modele AI pod kątem wydajności energetycznej i ograniczeń pamięci.
OWASP GenAI Security
14 godzinNa podstawie najnowszych wytycznych OWASP GenAI Security Project, uczestnicy nauczą się identyfikować, oceniać i łagodzić zagrożenia specyficzne dla AI poprzez ćwiczenia praktyczne i scenariusze z życia rzeczywistego.
Ochrona Prywatności Machine Learning
14 godzinTo szkolenie prowadzone przez instruktora (online lub na miejscu) jest skierowane do zaawansowanych profesjonalistów, którzy chcą wdrożyć i ocenić techniki takie jak uczenie federowane, obliczenia wielostronne z ochroną prywatności, homomorficzne szyfrowanie i prywatność różniczkowa w rzeczywistych wdrożeniach maszynowego uczenia się.
Po zakończeniu tego szkolenia uczestnicy będą w stanie:
- Zrozumieć i porównać kluczowe techniki ochrony prywatności w ML.
- Wdrożyć systemy uczenia federowanego za pomocą otwartych ram frameworków.
- Zastosować prywatność różniczkową dla bezpiecznego udostępniania danych i szkolenia modeli.
- Wykorzystać techniki szyfrowania i obliczeń z ochroną prywatności do ochrony wejść i wyjść modelu.
``` Red Teaming AI Systems: Offensive Security for ML Models
14 godzinTego prowadzonego przez instruktora szkolenia na żywo (online lub na miejscu) w Polsce dedykowane jest zaawansowanym specjalistom ds. bezpieczeństwa oraz specjalistom ds. uczenia maszynowego, którzy chcą symulować ataki na systemy AI, wykrywać luki oraz wzmocnić odporność wdrożonych modeli AI.
Po zakończeniu tego szkolenia uczestnicy będą w stanie:
- Symulować rzeczywiste zagrożenia dla modeli uczenia maszynowego.
- Generować przykłady przeciwników, aby przetestować odporność modeli.
- Ocenić powierzchnię ataku API i linii montażowych AI.
- Projektować strategie red teamingu dla środowisk wdrażania AI.
Bezpieczenie Edge AI i Wbudowanej Inteligencji
14 godzinTrening prowadzony przez instruktora, dostępny online lub na miejscu, skierowany jest do inżynierów i specjalistów ds. bezpieczeństwa o poziomie średnim, którzy chcą zabezpieczyć modele sztucznej inteligencji wdrożone na krawędzi przed zagrożeniami takimi jak manipulacja, wyciek danych, niekorzystne wejścia i ataki fizyczne.
Na zakończenie tego szkolenia uczestnicy będą w stanie:
- Identyfikować i oceniać ryzyka bezpieczeństwa w wdrożeniach sztucznej inteligencji na krawędzi.
- Stosować techniki odporności na manipulacje i szyfrowanego wnioskowania.
- Utwardzać modele wdrożone na krawędzi i zabezpieczać łańcuchy danych.
- Wdrażać strategie zminimalizowania zagrożeń specyficzne dla wbudowanych i ograniczanych systemów.
Securing AI Models: Threats, Attacks, and Defenses
14 godzinTo szkolenie prowadzone przez instruktora w formie Polsce (online lub na miejscu) jest przeznaczone dla profesjonalistów zajmujących się uczeniem maszynowym i cyberbezpieczeństwem na poziomie średniozaawansowanym, którzy chcą zrozumieć i przeciwdziałać nowym zagrożeniom dla modeli AI, korzystając zarówno z koncepcyjnych ram, jak i praktycznych obron, takich jak trwałe szkolenie i różnicowanie prywatności.
Na zakończenie tego szkolenia uczestnicy będą w stanie:
- Identyfikować i klasyfikować zagrożenia specyficzne dla AI, takie jak ataki przeciwnika, odwracanie i zatruwanie.
- Używać narzędzi, takich jak Adversarial Robustness Toolbox (ART), do symulowania ataków i testowania modeli.
- Zastosować praktyczne obrony, w tym szkolenie przeciwnikowe, wstrzykiwanie szumu i techniki zachowania prywatności.
- Projektować strategie oceny modeli w środowiskach produkcyjnych, z uwzględnieniem zagrożeń.
Bezpieczna i Zabezpieczona Agentycka Sztuczna Inteligencja: Zarządzanie, Identyfikacja i Czerwone Drużyny
21 godzinTen kurs obejmuje zarządzanie, zarządzanie tożsamością oraz testowanie wroga dla agentyckich systemów sztucznej inteligencji, skupiając się na wzorcach wdrożenia bezpiecznych dla przedsiębiorstw i praktycznych technikach czerwonych drużyn.
Ten prowadzony przez instruktora, na żywo szkolenie (online lub stacjonarnie) jest skierowane do zaawansowanych praktyków, którzy chcą projektować, zabezpieczać i oceniać oparte na agentach systemy AI w środowiskach produkcyjnych.
Na koniec tego szkolenia uczestnicy będą w stanie:
- Określić modele zarządzania i zasady dla bezpiecznych wdrożeń agentyckich systemów AI.
- Projektować przepływy tożsamości i uwierzytelniania niebędących człowiekiem agentami z najmniejszymi uprawnieniami.
- Implementować kontrolę dostępu, ścieżki audytowe i obserwowalność dostosowane do autonomicznych agentów.
- Planować i wykonywać ćwiczenia czerwonej drużyny, aby odkrywać niewłaściwe zastosowania, ścieżki eskalacji i ryzyko wydobywania danych.
- Zmniejszać typowe zagrożenia dla agentyckich systemów poprzez politykę, kontrolę inżynierską i monitorowanie.
Format Kursu
- Interaktywne wykłady i warsztaty modelowania zagrożeń.
- Praktyczne laboratoria: udzielanie tożsamości, egzekwowanie polityki i symulacja przeciwnika.
- Ćwiczenia czerwonej drużyny/niebieskiej drużyny i ocena końcowa kursu.
Opcje Dostosowywania Kursu
- Aby poprosić o dostosowane szkolenie dla tego kursu, prosimy skontaktować się z nami, aby ustalić szczegóły.
Wprowadzenie do TinyML
14 godzinTo szkolenie prowadzone przez instruktora (online lub na miejscu) skierowane jest do początkujących inżynierów i naukowców danych, którzy chcą zrozumieć podstawy TinyML, badać jego zastosowania oraz wdrażać modele AI na mikroprocesorach.
Po zakończeniu tego szkolenia uczestnicy będą w stanie:
- Zrozumieć podstawy TinyML oraz jego znaczenie.
- Wdrażać lekkościowe modele AI na mikroprocesorach i urządzeniach krawędziowych.
- Optymalizować i dopasowywać modele uczenia maszynowego do niskiego zużycia energii.
- Zastosować TinyML w realnych aplikacjach, takich jak rozpoznawanie gestów, wykrywanie anomalii i przetwarzanie dźwięku.
TinyML: Uruchamianie sztucznej inteligencji na urządzeniach krawędziowych o ultra-niskim zużyciu energii
21 godzinTo szkolenie prowadzone przez instruktora, dostępne online lub na miejscu, jest przeznaczone dla inżynierów embedded na poziomie średniozaawansowanym, programistów IoT i badaczy AI, którzy chcą wdrożyć techniki TinyML dla aplikacji wspomaganych sztuczną inteligencją na energoszczędnym sprzęcie.
Po ukończeniu tego szkolenia uczestnicy będą mogli:
- Zrozumieć podstawy TinyML i sztucznej inteligencji na krańcach sieci.
- Wdrażać lekkie modele AI na mikrokontrolerach.
- Optymalizować wnioskowanie AI dla niskiego zużycia energii.
- Integrować TinyML z rzeczywistymi aplikacjami IoT.