Plan Szkolenia

Dzień 1: Podstawy i Zawarte Zagrożenia

Moduł 1: Wprowadzenie do OWASP GenAI Security Project (1 godzina)

Cele Szkolenia:

  • Zrozumienie ewolucji od OWASP Top 10 do wyzwań bezpieczeństwa specyficznych dla GenAI.
  • Przeanalizowanie ekosystemu i zasobów OWASP GenAI Security Project.
  • Identyfikacja kluczowych różnic między tradycyjną aplikacją bezpieczeństwa a bezpieczeństwem AI.

Tematy Poruszone:

  • Przegląd misji i zakresu OWASP GenAI Security Project.
  • Wprowadzenie do ramy Threat Defense COMPASS.
  • Zrozumienie krajobrazu bezpieczeństwa AI i wymagań regulacyjnych.
  • Powierzchnie ataku w AI w porównaniu z tradycyjnymi lukami w aplikacjach internetowych.

Ćwiczenie Praktyczne: Konfiguracja narzędzia OWASP Threat Defense COMPASS i przeprowadzenie początkowej oceny zagrożeń.

Moduł 2: OWASP Top 10 dla LLM - Część 1 (2,5 godziny)

Cele Szkolenia:

  • Opanowanie pierwszych pięciu kluczowych luk w zabezpieczeniach LLM.
  • Zrozumienie wektorów ataków i technik eksploatacji.
  • Zastosowanie praktycznych strategii łagodzenia.

Tematy Poruszone:

LLM01: Iniekcja Podpowiedzi

  • Bezpośrednie i pośrednie techniki iniekcji podpowiedzi.
  • Ataki ukrytymi instrukcjami i kontaminacja między podpowiedziami.
  • Praktyczne przykłady: unieważnianie chatbotów i obejście środków zabezpieczających.
  • Strategie obrony: sanitizacja wejść, filtracja podpowiedzi, prywatność różnicowa.

LLM02: Ujawnianie Wrażliwych Informacji

  • Wydobywanie danych treningowych i ujawnienie systemowej podpowiedzi.
  • Analiza zachowania modelu w celu ujawnienia wrażliwych informacji.
  • Implikacje dla prywatności i kwestie zgodności regulacyjnej.
  • Łagodzenie: filtrowanie wyjścia, kontrola dostępu, anonimizacja danych.

LLM03: Wady Zawartości Dostawczej

  • Zależności od trzecich stron i bezpieczeństwo wtyczek.
  • Uzurpowane zestawy danych treningowych i zatrucie modelu.
  • Ocena ryzyka dostawców dla komponentów AI.
  • Bezpieczne wdrażanie i weryfikacja modeli.

Ćwiczenie Praktyczne: Ćwiczenie praktyczne demonstrujące ataki iniekcji podpowiedzi przeciwko podatnym aplikacjom LLM i wdrażanie środków obrony.

Moduł 3: OWASP Top 10 dla LLM - Część 2 (2 godziny)

Tematy Poruszone:

LLM04: Zatrucie Danych i Modelu

  • Techniki manipulacji danymi treningowymi.
  • Modyfikacja zachowania modelu poprzez zatrute wejścia.
  • Ataki tylnych drzwi i weryfikacja integralności danych.
  • Zapobieganie: potoki walidacji danych, śledzenie pochodzenia.

LLM05: Nieprawidłowe Obsługiwanie Wyjścia

  • Nies Bezpieczne przetwarzanie zawartości wygenerowanej przez LLM.
  • Iniekcja kodu poprzez wyniki generowane przez AI.
  • Skrypty po stronie klienta za pomocą odpowiedzi AI.
  • Ramy walidacji i sanitizacji wyjścia.

Ćwiczenie Praktyczne: Symulacja ataków zatrucia danych i wdrażanie solidnych mechanizmów walidacji wyjścia.

Moduł 4: Zaawansowane Zagrożenia LLM (1,5 godziny)

Tematy Poruszone:

LLM06: Nadmierna Autonomiczność

  • Ryzyka związane z autonomicznymi decyzjami i naruszeniem granic.
  • Zarządzanie uprawnieniami agentów i poziomami autoryzacji.
  • Nieplanowane interakcje systemowe i eskalacja przywilejów.
  • Implementacja barier zabezpieczeń i kontroli nadzoru przez człowieka.

LLM07: Ujawnianie Systemowej Podpowiedzi

  • Wady ujawnienia instrukcji systemowych.
  • Ujawnianie poświadczeń i logiki za pomocą podpowiedzi.
  • Techniki ataków na wydobywanie systemowych podpowiedzi.
  • Bezpieczne zabezpieczanie instrukcji systemowych i konfiguracji zewnętrznej.

Ćwiczenie Praktyczne: Projektowanie bezpiecznych architektur agentów z odpowiednimi kontrolami dostępu i monitorowaniem.

Dzień 2: Zaawansowane Zagrożenia i Implementacja

Moduł 5: Wschodzące Zagrożenia AI (2 godziny)

Cele Szkolenia:

  • Zrozumienie najnowszych zagrożeń bezpieczeństwa AI.
  • Implementacja zaawansowanych technik wykrywania i zapobiegania.
  • Projektowanie odpornych systemów AI na skomplikowane ataki.

Tematy Poruszone:

LLM08: Słabości Wektorów i Zawartości Wkładu

  • Łuki systemów RAG i bezpieczeństwo baz danych wektorowych.
  • Zatrucie zawartości wkładu i ataki manipulacji podobieństwa.
  • Przykłady wrogoścneiderne w wyszukiwaniu semantycznym.
  • Bezpieczne zabezpieczanie magazynów wektorowych i implementacja wykrywania anomalii.

LLM09: Fałszywe Informacje i Wiarygodność Modelu

  • Wykrywanie i łagodzenie halucynacji.
  • Wzmocnienie stronności i kwestie sprawiedliwości.
  • Mechanizmy weryfikacji faktycznej i źródeł.
  • Walidacja zawartości i integracja nadzoru człowieka.

LLM10: Nieograniczone Zużycie

  • Wyczerpywanie zasobów i ataki odmowy usługi.
  • Strategie ograniczania tempa i zarządzania zasobami.
  • Optymalizacja kosztów i kontrola budżetu.
  • Monitorowanie wydajności i systemy alertujące.

Ćwiczenie Praktyczne: Budowanie bezpiecznej linii RAG z ochroną bazy danych wektorowych i wykrywaniem halucynacji.

Moduł 6: Bezpieczeństwo AI Agenckiego (2 godziny)

Cele Szkolenia:

  • Zrozumienie unikalnych wyzwań bezpieczeństwa dla autonomicznych agentów AI.
  • Stosowanie taksonomii OWASP Agentic AI do systemów z życia rzeczywistego.
  • Implementacja kontrol zabezpieczeń dla środowisk wieloagentowych.

Tematy Poruszone:

  • Wprowadzenie do AI agenckiego i autonomicznych systemów.
  • Taksonomia OWASP Agentic AI: Projektowanie agenta, pamięć, planowanie, narzędzia, wdrażanie.
  • Bezpieczeństwo systemów wieloagentowych i ryzyka koordynacji.
  • Złe użycie narzędzi, zatrucie pamięci i ataki na cel.
  • Bezpieczne komunikacja i procesy decyzyjne agentów.

Ćwiczenie Praktyczne: Ćwiczenie modelowania zagrożeń przy użyciu taksonomii OWASP Agentic AI na systemie obsługi klienta wieloagentowego.

Moduł 7: Implementacja OWASP Threat Defense COMPASS (2 godziny)

Cele Szkolenia:

  • Opanowanie praktycznej aplikacji Threat Defense COMPASS.
  • Integracja oceny zagrożeń AI do programów bezpieczeństwa organizacyjnych.
  • Rozwój kompleksowych strategii zarządzania ryzykiem AI.

Tematy Poruszone:

  • Głęboka analiza metodologii Threat Defense COMPASS.
  • Integracja pętli OODA: Obserwuj, Orientuj, Decyduj, Działaj.
  • Mapowanie zagrożeń na ramy MITRE ATT&CK i ATLAS.
  • Budowanie tablic zarządzania odpornością przed zagrożeniami AI.
  • Integracja z istniejącymi narzędziami i procesami bezpieczeństwa.

Ćwiczenie Praktyczne: Kompleksowa ocena zagrożeń przy użyciu COMPASS dla scenariusza wdrożenia Microsoft Copilot.

Moduł 8: Praktyczna Implementacja i Najlepsze Praktyki (2,5 godziny)

Cele Szkolenia:

  • Projektowanie bezpiecznych architektur AI od podstaw.
  • Implementacja monitorowania i reagowania na incydenty dla systemów AI.
  • Tworzenie ram zarządzania bezpieczeństwem AI.

Tematy Poruszone:

Zabezpieczony Cykl Rozwoju AI:

  • Zasady projektowania zabezpieczeń w aplikacjach AI.
  • Praktyki przeglądów kodu dla integracji LLM.
  • Metodologie testowania i skanowania luk w zabezpieczeniach.
  • Zabezpieczenia wdrożenia i wzmocnienie środowiska produkcyjnego.

Monitorowanie i Wykrywanie:

  • Specyficzne wymagania dotyczące rejestrowania i monitorowania systemów AI.
  • Wykrywanie anomalii w systemach AI.
  • Procedury reagowania na incydenty zabezpieczeń AI.
  • Techniki forensyczne i śledcze.

Zarządzanie i Zgodność:

  • Ramy zarządzania ryzykiem AI i polityki.
  • Ocena ryzyka trzecich stron dla dostawców AI.
  • Szkolenia w zakresie świadomości bezpieczeństwa dla zespołów rozwijających AI.

Ćwiczenie Praktyczne: Projektowanie kompleksowej architektury zabezpieczeń dla korporacyjnego czatbota AI, w tym monitorowania, zarządzania i procedur reagowania na incydenty.

Moduł 9: Narzędzia i Technologie (1 godzina)

Cele Szkolenia:

  • Ocena i wdrażanie narzędzi zabezpieczeń AI.
  • Zrozumienie bieżącego krajobrazu rozwiązań bezpieczeństwa AI.
  • Budowanie praktycznych możliwości wykrywania i zapobiegania.

Tematy Poruszone:

  • Ekosystem narzędzi zabezpieczeń AI i krajobraz dostawców.
  • Narzędzia oprogramowania open-source: Garak, PyRIT, Giskard.
  • Komercyjne rozwiązania do zabezpieczeń AI i monitorowania.
  • Wzorce integracji i strategie wdrażania.
  • Kryteria wyboru narzędzi i ramy oceny.

Ćwiczenie Praktyczne: Demonstrowanie narzędzi testowania zabezpieczeń AI oraz planowanie wdrożenia.

Moduł 10: Tendencje Przyszłości i Podsumowanie (1 godzina)

Cele Szkolenia:

  • Zrozumienie narastających zagrożeń i przyszłych wyzwań bezpieczeństwa.
  • Rozwój strategii ciągłego uczenia się i doskonalenia.
  • Tworzenie planów działań dla programów bezpieczeństwa AI w organizacji.

Tematy Poruszone:

  • Narastające zagrożenia: deepfakes, zaawansowane iniekcje podpowiedzi, odwrócenie modelu.
  • Przyszłe rozwoje i droga projektu OWASP GenAI.
  • Budowanie społeczności bezpieczeństwa AI i dzielenie się wiedzą.
  • Ciągłe doskonalenie i integracja inteligencji zagrożeń.

Ćwiczenie Planowania Działań: Rozwój planu działań na 90 dni w celu wdrożenia praktyk OWASP GenAI w organizacjach uczestników.

Wymagania

  • Ogólne zrozumienie zasad bezpieczeństwa aplikacji internetowych.
  • Podstawowa znajomość koncepcji AI/ML.
  • Doświadczenie z ramami bezpieczeństwa lub metodologiami oceny ryzyka jest preferowane.

Grupa Docelowa

  • Profesjonalisci ds. cyberbezpieczeństwa
  • Deweloperzy AI
  • Architekci systemów
  • Komisarze do spraw zgodności
  • Specjaliści ds. bezpieczeństwa
 14 godzin

Liczba uczestników


cena netto za uczestnika

Propozycje terminów

Powiązane Kategorie