Plan Szkolenia
Dzień 1: Podstawy i Zawarte Zagrożenia
Moduł 1: Wprowadzenie do OWASP GenAI Security Project (1 godzina)
Cele Szkolenia:
- Zrozumienie ewolucji od OWASP Top 10 do wyzwań bezpieczeństwa specyficznych dla GenAI.
- Przeanalizowanie ekosystemu i zasobów OWASP GenAI Security Project.
- Identyfikacja kluczowych różnic między tradycyjną aplikacją bezpieczeństwa a bezpieczeństwem AI.
Tematy Poruszone:
- Przegląd misji i zakresu OWASP GenAI Security Project.
- Wprowadzenie do ramy Threat Defense COMPASS.
- Zrozumienie krajobrazu bezpieczeństwa AI i wymagań regulacyjnych.
- Powierzchnie ataku w AI w porównaniu z tradycyjnymi lukami w aplikacjach internetowych.
Ćwiczenie Praktyczne: Konfiguracja narzędzia OWASP Threat Defense COMPASS i przeprowadzenie początkowej oceny zagrożeń.
Moduł 2: OWASP Top 10 dla LLM - Część 1 (2,5 godziny)
Cele Szkolenia:
- Opanowanie pierwszych pięciu kluczowych luk w zabezpieczeniach LLM.
- Zrozumienie wektorów ataków i technik eksploatacji.
- Zastosowanie praktycznych strategii łagodzenia.
Tematy Poruszone:
LLM01: Iniekcja Podpowiedzi
- Bezpośrednie i pośrednie techniki iniekcji podpowiedzi.
- Ataki ukrytymi instrukcjami i kontaminacja między podpowiedziami.
- Praktyczne przykłady: unieważnianie chatbotów i obejście środków zabezpieczających.
- Strategie obrony: sanitizacja wejść, filtracja podpowiedzi, prywatność różnicowa.
LLM02: Ujawnianie Wrażliwych Informacji
- Wydobywanie danych treningowych i ujawnienie systemowej podpowiedzi.
- Analiza zachowania modelu w celu ujawnienia wrażliwych informacji.
- Implikacje dla prywatności i kwestie zgodności regulacyjnej.
- Łagodzenie: filtrowanie wyjścia, kontrola dostępu, anonimizacja danych.
LLM03: Wady Zawartości Dostawczej
- Zależności od trzecich stron i bezpieczeństwo wtyczek.
- Uzurpowane zestawy danych treningowych i zatrucie modelu.
- Ocena ryzyka dostawców dla komponentów AI.
- Bezpieczne wdrażanie i weryfikacja modeli.
Ćwiczenie Praktyczne: Ćwiczenie praktyczne demonstrujące ataki iniekcji podpowiedzi przeciwko podatnym aplikacjom LLM i wdrażanie środków obrony.
Moduł 3: OWASP Top 10 dla LLM - Część 2 (2 godziny)
Tematy Poruszone:
LLM04: Zatrucie Danych i Modelu
- Techniki manipulacji danymi treningowymi.
- Modyfikacja zachowania modelu poprzez zatrute wejścia.
- Ataki tylnych drzwi i weryfikacja integralności danych.
- Zapobieganie: potoki walidacji danych, śledzenie pochodzenia.
LLM05: Nieprawidłowe Obsługiwanie Wyjścia
- Nies Bezpieczne przetwarzanie zawartości wygenerowanej przez LLM.
- Iniekcja kodu poprzez wyniki generowane przez AI.
- Skrypty po stronie klienta za pomocą odpowiedzi AI.
- Ramy walidacji i sanitizacji wyjścia.
Ćwiczenie Praktyczne: Symulacja ataków zatrucia danych i wdrażanie solidnych mechanizmów walidacji wyjścia.
Moduł 4: Zaawansowane Zagrożenia LLM (1,5 godziny)
Tematy Poruszone:
LLM06: Nadmierna Autonomiczność
- Ryzyka związane z autonomicznymi decyzjami i naruszeniem granic.
- Zarządzanie uprawnieniami agentów i poziomami autoryzacji.
- Nieplanowane interakcje systemowe i eskalacja przywilejów.
- Implementacja barier zabezpieczeń i kontroli nadzoru przez człowieka.
LLM07: Ujawnianie Systemowej Podpowiedzi
- Wady ujawnienia instrukcji systemowych.
- Ujawnianie poświadczeń i logiki za pomocą podpowiedzi.
- Techniki ataków na wydobywanie systemowych podpowiedzi.
- Bezpieczne zabezpieczanie instrukcji systemowych i konfiguracji zewnętrznej.
Ćwiczenie Praktyczne: Projektowanie bezpiecznych architektur agentów z odpowiednimi kontrolami dostępu i monitorowaniem.
Dzień 2: Zaawansowane Zagrożenia i Implementacja
Moduł 5: Wschodzące Zagrożenia AI (2 godziny)
Cele Szkolenia:
- Zrozumienie najnowszych zagrożeń bezpieczeństwa AI.
- Implementacja zaawansowanych technik wykrywania i zapobiegania.
- Projektowanie odpornych systemów AI na skomplikowane ataki.
Tematy Poruszone:
LLM08: Słabości Wektorów i Zawartości Wkładu
- Łuki systemów RAG i bezpieczeństwo baz danych wektorowych.
- Zatrucie zawartości wkładu i ataki manipulacji podobieństwa.
- Przykłady wrogoścneiderne w wyszukiwaniu semantycznym.
- Bezpieczne zabezpieczanie magazynów wektorowych i implementacja wykrywania anomalii.
LLM09: Fałszywe Informacje i Wiarygodność Modelu
- Wykrywanie i łagodzenie halucynacji.
- Wzmocnienie stronności i kwestie sprawiedliwości.
- Mechanizmy weryfikacji faktycznej i źródeł.
- Walidacja zawartości i integracja nadzoru człowieka.
LLM10: Nieograniczone Zużycie
- Wyczerpywanie zasobów i ataki odmowy usługi.
- Strategie ograniczania tempa i zarządzania zasobami.
- Optymalizacja kosztów i kontrola budżetu.
- Monitorowanie wydajności i systemy alertujące.
Ćwiczenie Praktyczne: Budowanie bezpiecznej linii RAG z ochroną bazy danych wektorowych i wykrywaniem halucynacji.
Moduł 6: Bezpieczeństwo AI Agenckiego (2 godziny)
Cele Szkolenia:
- Zrozumienie unikalnych wyzwań bezpieczeństwa dla autonomicznych agentów AI.
- Stosowanie taksonomii OWASP Agentic AI do systemów z życia rzeczywistego.
- Implementacja kontrol zabezpieczeń dla środowisk wieloagentowych.
Tematy Poruszone:
- Wprowadzenie do AI agenckiego i autonomicznych systemów.
- Taksonomia OWASP Agentic AI: Projektowanie agenta, pamięć, planowanie, narzędzia, wdrażanie.
- Bezpieczeństwo systemów wieloagentowych i ryzyka koordynacji.
- Złe użycie narzędzi, zatrucie pamięci i ataki na cel.
- Bezpieczne komunikacja i procesy decyzyjne agentów.
Ćwiczenie Praktyczne: Ćwiczenie modelowania zagrożeń przy użyciu taksonomii OWASP Agentic AI na systemie obsługi klienta wieloagentowego.
Moduł 7: Implementacja OWASP Threat Defense COMPASS (2 godziny)
Cele Szkolenia:
- Opanowanie praktycznej aplikacji Threat Defense COMPASS.
- Integracja oceny zagrożeń AI do programów bezpieczeństwa organizacyjnych.
- Rozwój kompleksowych strategii zarządzania ryzykiem AI.
Tematy Poruszone:
- Głęboka analiza metodologii Threat Defense COMPASS.
- Integracja pętli OODA: Obserwuj, Orientuj, Decyduj, Działaj.
- Mapowanie zagrożeń na ramy MITRE ATT&CK i ATLAS.
- Budowanie tablic zarządzania odpornością przed zagrożeniami AI.
- Integracja z istniejącymi narzędziami i procesami bezpieczeństwa.
Ćwiczenie Praktyczne: Kompleksowa ocena zagrożeń przy użyciu COMPASS dla scenariusza wdrożenia Microsoft Copilot.
Moduł 8: Praktyczna Implementacja i Najlepsze Praktyki (2,5 godziny)
Cele Szkolenia:
- Projektowanie bezpiecznych architektur AI od podstaw.
- Implementacja monitorowania i reagowania na incydenty dla systemów AI.
- Tworzenie ram zarządzania bezpieczeństwem AI.
Tematy Poruszone:
Zabezpieczony Cykl Rozwoju AI:
- Zasady projektowania zabezpieczeń w aplikacjach AI.
- Praktyki przeglądów kodu dla integracji LLM.
- Metodologie testowania i skanowania luk w zabezpieczeniach.
- Zabezpieczenia wdrożenia i wzmocnienie środowiska produkcyjnego.
Monitorowanie i Wykrywanie:
- Specyficzne wymagania dotyczące rejestrowania i monitorowania systemów AI.
- Wykrywanie anomalii w systemach AI.
- Procedury reagowania na incydenty zabezpieczeń AI.
- Techniki forensyczne i śledcze.
Zarządzanie i Zgodność:
- Ramy zarządzania ryzykiem AI i polityki.
- Ocena ryzyka trzecich stron dla dostawców AI.
- Szkolenia w zakresie świadomości bezpieczeństwa dla zespołów rozwijających AI.
Ćwiczenie Praktyczne: Projektowanie kompleksowej architektury zabezpieczeń dla korporacyjnego czatbota AI, w tym monitorowania, zarządzania i procedur reagowania na incydenty.
Moduł 9: Narzędzia i Technologie (1 godzina)
Cele Szkolenia:
- Ocena i wdrażanie narzędzi zabezpieczeń AI.
- Zrozumienie bieżącego krajobrazu rozwiązań bezpieczeństwa AI.
- Budowanie praktycznych możliwości wykrywania i zapobiegania.
Tematy Poruszone:
- Ekosystem narzędzi zabezpieczeń AI i krajobraz dostawców.
- Narzędzia oprogramowania open-source: Garak, PyRIT, Giskard.
- Komercyjne rozwiązania do zabezpieczeń AI i monitorowania.
- Wzorce integracji i strategie wdrażania.
- Kryteria wyboru narzędzi i ramy oceny.
Ćwiczenie Praktyczne: Demonstrowanie narzędzi testowania zabezpieczeń AI oraz planowanie wdrożenia.
Moduł 10: Tendencje Przyszłości i Podsumowanie (1 godzina)
Cele Szkolenia:
- Zrozumienie narastających zagrożeń i przyszłych wyzwań bezpieczeństwa.
- Rozwój strategii ciągłego uczenia się i doskonalenia.
- Tworzenie planów działań dla programów bezpieczeństwa AI w organizacji.
Tematy Poruszone:
- Narastające zagrożenia: deepfakes, zaawansowane iniekcje podpowiedzi, odwrócenie modelu.
- Przyszłe rozwoje i droga projektu OWASP GenAI.
- Budowanie społeczności bezpieczeństwa AI i dzielenie się wiedzą.
- Ciągłe doskonalenie i integracja inteligencji zagrożeń.
Ćwiczenie Planowania Działań: Rozwój planu działań na 90 dni w celu wdrożenia praktyk OWASP GenAI w organizacjach uczestników.
Wymagania
- Ogólne zrozumienie zasad bezpieczeństwa aplikacji internetowych.
- Podstawowa znajomość koncepcji AI/ML.
- Doświadczenie z ramami bezpieczeństwa lub metodologiami oceny ryzyka jest preferowane.
Grupa Docelowa
- Profesjonalisci ds. cyberbezpieczeństwa
- Deweloperzy AI
- Architekci systemów
- Komisarze do spraw zgodności
- Specjaliści ds. bezpieczeństwa
Opinie uczestników (2)
Przejrzenie różnych zastosowań i wykorzystania sztucznej inteligencji było pomocne. Cieszyłem się, że mogłem przejść przez opisy różnych agentów AI.
Axel Schulz - CANARIE Inc
Szkolenie - Microsoft 365 Copilot: AI Productivity Across Word, Excel, PowerPoint, Outlook, and Teams
Przetłumaczone przez sztuczną inteligencję
Podobało mi się, że trener miał dużo wiedzy i dzielił się nią z nami
Daria Pawlak - LKQ POLSKA SPOLKA Z OGRANICZONA ODPOWIEDZIALNOSCIA
Szkolenie - Microsoft 365 Copilot Chat for Word, Excel, PowerPoint, and Outlook
Przetłumaczone przez sztuczną inteligencję