Bądźmy w kontakcie

Plan Szkolenia

Dzień 1: Podstawy i kluczowe zagrożenia

Moduł 1: Wprowadzenie do projektu OWASP GenAI Security (1 godzina)

Cele edukacyjne:

  • Zrozumienie ewolucji od OWASP Top 10 do wyzwań bezpieczeństwa specyficznych dla GenAI
  • Poznanie ekosystemu i zasobów projektu OWASP GenAI Security
  • Identyfikacja kluczowych różnic między tradycyjnym bezpieczeństwem aplikacji a bezpieczeństwem AI

Poruszane tematy:

  • Przegląd misji i zakresu projektu OWASP GenAI Security
  • Wprowadzenie do frameworka Threat Defense COMPASS
  • Zrozumienie krajobrazu bezpieczeństwa AI i wymagań regulacyjnych
  • Powierzchnie ataków AI a tradycyjne luki w aplikacjach internetowych

Ćwiczenie praktyczne: Konfiguracja narzędzia OWASP Threat Defense COMPASS i przeprowadzenie wstępnej oceny zagrożeń

Moduł 2: OWASP Top 10 dla LLM - Część 1 (2,5 godziny)

Cele edukacyjne:

  • Opanowanie pierwszych pięciu krytycznych luk w LLM
  • Zrozumienie wektorów ataków i technik eksploatacji
  • Stosowanie praktycznych strategii łagodzenia

Poruszane tematy:

LLM01: Iniekcja promptów

  • Techniki bezpośredniej i pośredniej iniekcji promptów
  • Ataki ukrytych instrukcji i skażenie między promptami
  • Praktyczne przykłady: Łamanie zabezpieczeń chatbotów i omijanie środków bezpieczeństwa
  • Strategie obrony: Sanityzacja danych wejściowych, filtrowanie promptów, różnicowa prywatność

LLM02: Ujawnienie wrażliwych informacji

  • Ekstrakcja danych treningowych i wyciek systemowych promptów
  • Analiza zachowania modelu pod kątem ujawnienia wrażliwych informacji
  • Implikacje prywatności i rozważania dotyczące zgodności regulacyjnej
  • Łagodzenie: Filtrowanie wyjść, kontrola dostępu, anonimizacja danych

LLM03: Luki w łańcuchu dostaw

  • Zależności od modeli stron trzecich i bezpieczeństwo pluginów
  • Skompromitowane zbiory danych treningowych i zatruwanie modeli
  • Ocena ryzyka dostawców dla komponentów AI
  • Bezpieczne praktyki wdrażania i weryfikacji modeli

Ćwiczenie praktyczne: Praktyczne laboratorium demonstrujące ataki iniekcji promptów na podatne aplikacje LLM i wdrażanie środków obronnych

Moduł 3: OWASP Top 10 dla LLM - Część 2 (2 godziny)

Poruszane tematy:

LLM04: Zatruwanie danych i modeli

  • Techniki manipulacji danymi treningowymi
  • Modyfikacja zachowania modelu poprzez zatrute dane wejściowe
  • Ataki backdoor i weryfikacja integralności danych
  • Zapobieganie: Potoki walidacji danych, śledzenie pochodzenia

LLM05: Nieprawidłowe przetwarzanie wyjść

  • Niebezpieczne przetwarzanie treści generowanych przez LLM
  • Iniekcja kodu poprzez wyjścia generowane przez AI
  • Cross-site scripting poprzez odpowiedzi AI
  • Frameworki walidacji i sanityzacji wyjść

Ćwiczenie praktyczne: Symulacja ataków zatruwania danych i wdrażanie mechanizmów walidacji wyjść

Moduł 4: Zaawansowane zagrożenia LLM (1,5 godziny)

Poruszane tematy:

LLM06: Nadmierna autonomia

  • Ryzyka związane z autonomicznym podejmowaniem decyzji i naruszanie granic
  • Zarządzanie uprawnieniami i autoryzacją agentów
  • Niezamierzone interakcje systemowe i eskalacja uprawnień
  • Implementacja zabezpieczeń i kontroli nadzoru ludzkiego

LLM07: Wyciek systemowych promptów

  • Luki związane z ujawnieniem instrukcji systemowych
  • Ujawnienie poświadczeń i logiki poprzez prompty
  • Techniki ataków na ekstrakcję systemowych promptów
  • Zabezpieczanie instrukcji systemowych i konfiguracji zewnętrznych

Ćwiczenie praktyczne: Projektowanie bezpiecznych architektur agentów z odpowiednimi kontrolami dostępu i monitorowaniem

Dzień 2: Zaawansowane zagrożenia i implementacja

Moduł 5: Nowe zagrożenia AI (2 godziny)

Cele edukacyjne:

  • Zrozumienie najnowszych zagrożeń bezpieczeństwa AI
  • Implementacja zaawansowanych technik wykrywania i zapobiegania
  • Projektowanie odpornych systemów AI na zaawansowane ataki

Poruszane tematy:

LLM08: Słabości wektorów i embeddingów

  • Luki w systemach RAG i bezpieczeństwo baz danych wektorowych
  • Zatruwanie embeddingów i ataki manipulacji podobieństwem
  • Przykłady adversarialne w wyszukiwaniu semantycznym
  • Zabezpieczanie magazynów wektorowych i implementacja wykrywania anomalii

LLM09: Dezinformacja i niezawodność modeli

  • Wykrywanie i łagodzenie halucynacji
  • Wzmacnianie uprzedzeń i rozważania dotyczące uczciwości
  • Mechanizmy weryfikacji faktów i źródeł
  • Integracja walidacji treści i nadzoru ludzkiego

LLM10: Nieograniczone zużycie

  • Ataki na wyczerpanie zasobów i odmowę usługi
  • Strategie ograniczania szybkości i zarządzania zasobami
  • Optymalizacja kosztów i kontrola budżetu
  • Systemy monitorowania wydajności i alertów

Ćwiczenie praktyczne: Budowanie bezpiecznego potoku RAG z ochroną bazy danych wektorowych i wykrywaniem halucynacji

Moduł 6: Bezpieczeństwo agentowych systemów AI (2 godziny)

Cele edukacyjne:

  • Zrozumienie unikalnych wyzwań bezpieczeństwa autonomicznych agentów AI
  • Stosowanie taksonomii OWASP Agentic AI do rzeczywistych systemów
  • Implementacja mechanizmów zabezpieczeń dla środowisk wieloagentowych

Poruszane tematy:

  • Wprowadzenie do agentowych systemów AI i systemów autonomicznych
  • Taksonomia zagrożeń OWASP Agentic AI: Projektowanie agenta, pamięć, planowanie, użycie narzędzi, wdrażanie
  • Bezpieczeństwo systemów wieloagentowych i ryzyka koordynacji
  • Nadużycie narzędzi, zatruwanie pamięci i ataki przejęcia celów
  • Zabezpieczanie komunikacji agentów i procesów decyzyjnych

Ćwiczenie praktyczne: Ćwiczenie modelowania zagrożeń z użyciem taksonomii OWASP Agentic AI na systemie wieloagentowej obsługi klienta

Moduł 7: Implementacja OWASP Threat Defense COMPASS (2 godziny)

Cele edukacyjne:

  • Opanowanie praktycznego zastosowania Threat Defense COMPASS
  • Integracja oceny zagrożeń AI z programami bezpieczeństwa organizacji
  • Opracowanie kompleksowych strategii zarządzania ryzykiem AI

Poruszane tematy:

  • Szczegółowe omówienie metodologii Threat Defense COMPASS
  • Integracja pętli OODA: Obserwuj, Orientuj, Decyduj, Działaj
  • Mapowanie zagrożeń na frameworki MITRE ATT&CK i ATLAS
  • Budowanie dashboardów strategii odporności na zagrożenia AI
  • Integracja z istniejącymi narzędziami i procesami bezpieczeństwa

Ćwiczenie praktyczne: Kompleksowa ocena zagrożeń z użyciem COMPASS dla scenariusza wdrożenia Microsoft Copilot

Moduł 8: Praktyczna implementacja i najlepsze praktyki (2,5 godziny)

Cele edukacyjne:

  • Projektowanie bezpiecznych architektur AI od podstaw
  • Implementacja monitorowania i reagowania na incydenty w systemach AI
  • Tworzenie ram zarządzania dla bezpieczeństwa AI

Poruszane tematy:

Bezpieczny cykl życia rozwoju AI:

  • Zasady bezpieczeństwa w projektowaniu aplikacji AI
  • Praktyki przeglądu kodu dla integracji LLM
  • Metodologie testowania i skanowania podatności
  • Bezpieczeństwo wdrożenia i utwardzanie produkcji

Monitorowanie i wykrywanie:

  • Wymagania dotyczące logowania i monitorowania specyficzne dla AI
  • Wykrywanie anomalii w systemach AI
  • Procedury reagowania na incydenty związane z bezpieczeństwem AI
  • Techniki forensyki i dochodzenia

Zarządzanie i zgodność:

  • Ramy zarządzania ryzykiem AI i polityki
  • Rozważania dotyczące zgodności regulacyjnej (GDPR, AI Act itp.)
  • Ocena ryzyka dostawców AI
  • Szkolenia z zakresu bezpieczeństwa dla zespołów rozwoju AI

Ćwiczenie praktyczne: Projektowanie kompletnej architektury bezpieczeństwa dla korporacyjnego chatbota AI, w tym monitorowanie, zarządzanie i procedury reagowania na incydenty

Moduł 9: Narzędzia i technologie (1 godzina)

Cele edukacyjne:

  • Ocena i implementacja narzędzi bezpieczeństwa AI
  • Zrozumienie obecnego krajobrazu rozwiązań bezpieczeństwa AI
  • Budowanie praktycznych możliwości wykrywania i zapobiegania

Poruszane tematy:

  • Ekosystem narzędzi bezpieczeństwa AI i krajobraz dostawców
  • Narzędzia open-source: Garak, PyRIT, Giskard
  • Komercyjne rozwiązania do bezpieczeństwa i monitorowania AI
  • Wzorce integracji i strategie wdrażania
  • Kryteria wyboru i frameworki oceny narzędzi

Ćwiczenie praktyczne: Praktyczna demonstracja narzędzi testowania bezpieczeństwa AI i planowanie implementacji

Moduł 10: Trendy przyszłościowe i podsumowanie (1 godzina)

Cele edukacyjne:

  • Zrozumienie nowych zagrożeń i przyszłych wyzwań bezpieczeństwa
  • Opracowanie strategii ciągłego uczenia się i doskonalenia
  • Tworzenie planów działań dla programów bezpieczeństwa AI w organizacjach

Poruszane tematy:

  • Nowe zagrożenia: Deepfakes, zaawansowana iniekcja promptów, inwersja modeli
  • Przyszłe rozwinięcia projektu OWASP GenAI i roadmapa
  • Budowanie społeczności bezpieczeństwa AI i wymiana wiedzy
  • Ciągłe doskonalenie i integracja informacji o zagrożeniach

Ćwiczenie planowania: Opracowanie 90-dniowego planu działań na wdrożenie praktyk bezpieczeństwa OWASP GenAI w organizacjach uczestników

Wymagania

  • Ogólne zrozumienie zasad bezpieczeństwa aplikacji internetowych
  • Podstawowa znajomość koncepcji AI/ML
  • Doświadczenie w zakresie frameworków bezpieczeństwa lub metodologii oceny ryzyka jest mile widziane

Grupa docelowa

  • Profesjonaliści z zakresu cyberbezpieczeństwa
  • Programiści AI
  • Architekci systemów
  • Oficerowie ds. zgodności
  • Praktycy bezpieczeństwa
 14 godzin

Liczba uczestników


Cena za uczestnika (netto)

Opinie uczestników (1)

Propozycje terminów

Powiązane Kategorie