Plan Szkolenia
Dzień 1: Podstawy i Zawarte Zagrożenia
Moduł 1: Wprowadzenie do OWASP GenAI Security Project (1 godzina)
Cele Szkolenia:
- Zrozumienie ewolucji od OWASP Top 10 do wyzwań bezpieczeństwa specyficznych dla GenAI.
 - Przeanalizowanie ekosystemu i zasobów OWASP GenAI Security Project.
 - Identyfikacja kluczowych różnic między tradycyjną aplikacją bezpieczeństwa a bezpieczeństwem AI.
 
Tematy Poruszone:
- Przegląd misji i zakresu OWASP GenAI Security Project.
 - Wprowadzenie do ramy Threat Defense COMPASS.
 - Zrozumienie krajobrazu bezpieczeństwa AI i wymagań regulacyjnych.
 - Powierzchnie ataku w AI w porównaniu z tradycyjnymi lukami w aplikacjach internetowych.
 
Ćwiczenie Praktyczne: Konfiguracja narzędzia OWASP Threat Defense COMPASS i przeprowadzenie początkowej oceny zagrożeń.
Moduł 2: OWASP Top 10 dla LLM - Część 1 (2,5 godziny)
Cele Szkolenia:
- Opanowanie pierwszych pięciu kluczowych luk w zabezpieczeniach LLM.
 - Zrozumienie wektorów ataków i technik eksploatacji.
 - Zastosowanie praktycznych strategii łagodzenia.
 
Tematy Poruszone:
LLM01: Iniekcja Podpowiedzi
- Bezpośrednie i pośrednie techniki iniekcji podpowiedzi.
 - Ataki ukrytymi instrukcjami i kontaminacja między podpowiedziami.
 - Praktyczne przykłady: unieważnianie chatbotów i obejście środków zabezpieczających.
 - Strategie obrony: sanitizacja wejść, filtracja podpowiedzi, prywatność różnicowa.
 
LLM02: Ujawnianie Wrażliwych Informacji
- Wydobywanie danych treningowych i ujawnienie systemowej podpowiedzi.
 - Analiza zachowania modelu w celu ujawnienia wrażliwych informacji.
 - Implikacje dla prywatności i kwestie zgodności regulacyjnej.
 - Łagodzenie: filtrowanie wyjścia, kontrola dostępu, anonimizacja danych.
 
LLM03: Wady Zawartości Dostawczej
- Zależności od trzecich stron i bezpieczeństwo wtyczek.
 - Uzurpowane zestawy danych treningowych i zatrucie modelu.
 - Ocena ryzyka dostawców dla komponentów AI.
 - Bezpieczne wdrażanie i weryfikacja modeli.
 
Ćwiczenie Praktyczne: Ćwiczenie praktyczne demonstrujące ataki iniekcji podpowiedzi przeciwko podatnym aplikacjom LLM i wdrażanie środków obrony.
Moduł 3: OWASP Top 10 dla LLM - Część 2 (2 godziny)
Tematy Poruszone:
LLM04: Zatrucie Danych i Modelu
- Techniki manipulacji danymi treningowymi.
 - Modyfikacja zachowania modelu poprzez zatrute wejścia.
 - Ataki tylnych drzwi i weryfikacja integralności danych.
 - Zapobieganie: potoki walidacji danych, śledzenie pochodzenia.
 
LLM05: Nieprawidłowe Obsługiwanie Wyjścia
- Nies Bezpieczne przetwarzanie zawartości wygenerowanej przez LLM.
 - Iniekcja kodu poprzez wyniki generowane przez AI.
 - Skrypty po stronie klienta za pomocą odpowiedzi AI.
 - Ramy walidacji i sanitizacji wyjścia.
 
Ćwiczenie Praktyczne: Symulacja ataków zatrucia danych i wdrażanie solidnych mechanizmów walidacji wyjścia.
Moduł 4: Zaawansowane Zagrożenia LLM (1,5 godziny)
Tematy Poruszone:
LLM06: Nadmierna Autonomiczność
- Ryzyka związane z autonomicznymi decyzjami i naruszeniem granic.
 - Zarządzanie uprawnieniami agentów i poziomami autoryzacji.
 - Nieplanowane interakcje systemowe i eskalacja przywilejów.
 - Implementacja barier zabezpieczeń i kontroli nadzoru przez człowieka.
 
LLM07: Ujawnianie Systemowej Podpowiedzi
- Wady ujawnienia instrukcji systemowych.
 - Ujawnianie poświadczeń i logiki za pomocą podpowiedzi.
 - Techniki ataków na wydobywanie systemowych podpowiedzi.
 - Bezpieczne zabezpieczanie instrukcji systemowych i konfiguracji zewnętrznej.
 
Ćwiczenie Praktyczne: Projektowanie bezpiecznych architektur agentów z odpowiednimi kontrolami dostępu i monitorowaniem.
Dzień 2: Zaawansowane Zagrożenia i Implementacja
Moduł 5: Wschodzące Zagrożenia AI (2 godziny)
Cele Szkolenia:
- Zrozumienie najnowszych zagrożeń bezpieczeństwa AI.
 - Implementacja zaawansowanych technik wykrywania i zapobiegania.
 - Projektowanie odpornych systemów AI na skomplikowane ataki.
 
Tematy Poruszone:
LLM08: Słabości Wektorów i Zawartości Wkładu
- Łuki systemów RAG i bezpieczeństwo baz danych wektorowych.
 - Zatrucie zawartości wkładu i ataki manipulacji podobieństwa.
 - Przykłady wrogoścneiderne w wyszukiwaniu semantycznym.
 - Bezpieczne zabezpieczanie magazynów wektorowych i implementacja wykrywania anomalii.
 
LLM09: Fałszywe Informacje i Wiarygodność Modelu
- Wykrywanie i łagodzenie halucynacji.
 - Wzmocnienie stronności i kwestie sprawiedliwości.
 - Mechanizmy weryfikacji faktycznej i źródeł.
 - Walidacja zawartości i integracja nadzoru człowieka.
 
LLM10: Nieograniczone Zużycie
- Wyczerpywanie zasobów i ataki odmowy usługi.
 - Strategie ograniczania tempa i zarządzania zasobami.
 - Optymalizacja kosztów i kontrola budżetu.
 - Monitorowanie wydajności i systemy alertujące.
 
Ćwiczenie Praktyczne: Budowanie bezpiecznej linii RAG z ochroną bazy danych wektorowych i wykrywaniem halucynacji.
Moduł 6: Bezpieczeństwo AI Agenckiego (2 godziny)
Cele Szkolenia:
- Zrozumienie unikalnych wyzwań bezpieczeństwa dla autonomicznych agentów AI.
 - Stosowanie taksonomii OWASP Agentic AI do systemów z życia rzeczywistego.
 - Implementacja kontrol zabezpieczeń dla środowisk wieloagentowych.
 
Tematy Poruszone:
- Wprowadzenie do AI agenckiego i autonomicznych systemów.
 - Taksonomia OWASP Agentic AI: Projektowanie agenta, pamięć, planowanie, narzędzia, wdrażanie.
 - Bezpieczeństwo systemów wieloagentowych i ryzyka koordynacji.
 - Złe użycie narzędzi, zatrucie pamięci i ataki na cel.
 - Bezpieczne komunikacja i procesy decyzyjne agentów.
 
Ćwiczenie Praktyczne: Ćwiczenie modelowania zagrożeń przy użyciu taksonomii OWASP Agentic AI na systemie obsługi klienta wieloagentowego.
Moduł 7: Implementacja OWASP Threat Defense COMPASS (2 godziny)
Cele Szkolenia:
- Opanowanie praktycznej aplikacji Threat Defense COMPASS.
 - Integracja oceny zagrożeń AI do programów bezpieczeństwa organizacyjnych.
 - Rozwój kompleksowych strategii zarządzania ryzykiem AI.
 
Tematy Poruszone:
- Głęboka analiza metodologii Threat Defense COMPASS.
 - Integracja pętli OODA: Obserwuj, Orientuj, Decyduj, Działaj.
 - Mapowanie zagrożeń na ramy MITRE ATT&CK i ATLAS.
 - Budowanie tablic zarządzania odpornością przed zagrożeniami AI.
 - Integracja z istniejącymi narzędziami i procesami bezpieczeństwa.
 
Ćwiczenie Praktyczne: Kompleksowa ocena zagrożeń przy użyciu COMPASS dla scenariusza wdrożenia Microsoft Copilot.
Moduł 8: Praktyczna Implementacja i Najlepsze Praktyki (2,5 godziny)
Cele Szkolenia:
- Projektowanie bezpiecznych architektur AI od podstaw.
 - Implementacja monitorowania i reagowania na incydenty dla systemów AI.
 - Tworzenie ram zarządzania bezpieczeństwem AI.
 
Tematy Poruszone:
Zabezpieczony Cykl Rozwoju AI:
- Zasady projektowania zabezpieczeń w aplikacjach AI.
 - Praktyki przeglądów kodu dla integracji LLM.
 - Metodologie testowania i skanowania luk w zabezpieczeniach.
 - Zabezpieczenia wdrożenia i wzmocnienie środowiska produkcyjnego.
 
Monitorowanie i Wykrywanie:
- Specyficzne wymagania dotyczące rejestrowania i monitorowania systemów AI.
 - Wykrywanie anomalii w systemach AI.
 - Procedury reagowania na incydenty zabezpieczeń AI.
 - Techniki forensyczne i śledcze.
 
Zarządzanie i Zgodność:
- Ramy zarządzania ryzykiem AI i polityki.
 - Ocena ryzyka trzecich stron dla dostawców AI.
 - Szkolenia w zakresie świadomości bezpieczeństwa dla zespołów rozwijających AI.
 
Ćwiczenie Praktyczne: Projektowanie kompleksowej architektury zabezpieczeń dla korporacyjnego czatbota AI, w tym monitorowania, zarządzania i procedur reagowania na incydenty.
Moduł 9: Narzędzia i Technologie (1 godzina)
Cele Szkolenia:
- Ocena i wdrażanie narzędzi zabezpieczeń AI.
 - Zrozumienie bieżącego krajobrazu rozwiązań bezpieczeństwa AI.
 - Budowanie praktycznych możliwości wykrywania i zapobiegania.
 
Tematy Poruszone:
- Ekosystem narzędzi zabezpieczeń AI i krajobraz dostawców.
 - Narzędzia oprogramowania open-source: Garak, PyRIT, Giskard.
 - Komercyjne rozwiązania do zabezpieczeń AI i monitorowania.
 - Wzorce integracji i strategie wdrażania.
 - Kryteria wyboru narzędzi i ramy oceny.
 
Ćwiczenie Praktyczne: Demonstrowanie narzędzi testowania zabezpieczeń AI oraz planowanie wdrożenia.
Moduł 10: Tendencje Przyszłości i Podsumowanie (1 godzina)
Cele Szkolenia:
- Zrozumienie narastających zagrożeń i przyszłych wyzwań bezpieczeństwa.
 - Rozwój strategii ciągłego uczenia się i doskonalenia.
 - Tworzenie planów działań dla programów bezpieczeństwa AI w organizacji.
 
Tematy Poruszone:
- Narastające zagrożenia: deepfakes, zaawansowane iniekcje podpowiedzi, odwrócenie modelu.
 - Przyszłe rozwoje i droga projektu OWASP GenAI.
 - Budowanie społeczności bezpieczeństwa AI i dzielenie się wiedzą.
 - Ciągłe doskonalenie i integracja inteligencji zagrożeń.
 
Ćwiczenie Planowania Działań: Rozwój planu działań na 90 dni w celu wdrożenia praktyk OWASP GenAI w organizacjach uczestników.
Wymagania
- Ogólne zrozumienie zasad bezpieczeństwa aplikacji internetowych.
 - Podstawowa znajomość koncepcji AI/ML.
 - Doświadczenie z ramami bezpieczeństwa lub metodologiami oceny ryzyka jest preferowane.
 
Grupa Docelowa
- Profesjonalisci ds. cyberbezpieczeństwa
 - Deweloperzy AI
 - Architekci systemów
 - Komisarze do spraw zgodności
 - Specjaliści ds. bezpieczeństwa