Bądźmy w kontakcie

Plan Szkolenia

Podstawy: Modele zagrożeń dla agentowej AI

  • Typy zagrożeń agentowych: nadużycia, eskalacja, wyciek danych i ryzyka łańcucha dostaw
  • Profile przeciwników i możliwości atakujących specyficzne dla autonomicznych agentów
  • Mapowanie zasobów, granic zaufania i krytycznych punktów kontrolnych dla agentów

Zarządzanie, polityka i zarządzanie ryzykiem

  • Ramy zarządzania dla systemów agentowych (role, odpowiedzialności, bramki zatwierdzania)
  • Projektowanie polityk: akceptowalne użycie, zasady eskalacji, zarządzanie danymi i audytowalność
  • Zagadnienia zgodności i zbieranie dowodów dla audytów

Tożsamość niebędąca człowiekiem i uwierzytelnianie dla agentów

  • Projektowanie tożsamości dla agentów: konta usługowe, JWT i krótkotrwałe poświadczenia
  • Wzorce dostępu o najniższych uprawnieniach i poświadczenia just-in-time
  • Cykl życia tożsamości, rotacja, delegowanie i strategie odwoływania

Kontrole dostępu, tajemnice i ochrona danych

  • Modele szczegółowych kontroli dostępu i wzorce oparte na zdolnościach dla agentów
  • Zarządzanie tajemnicami, szyfrowanie w tranzycie i w spoczynku oraz minimalizacja danych
  • Ochrona wrażliwych źródeł wiedzy i danych osobowych przed nieautoryzowanym dostępem agentów

Obserwowalność, audytowanie i reagowanie na incydenty

  • Projektowanie telemetrii dla zachowań agentów: śledzenie intencji, logi poleceń i pochodzenie
  • Integracja z SIEM, progi alarmowe i gotowość do analizy forensycznej
  • Podręczniki i scenariusze postępowania w przypadku incydentów związanych z agentami i ich powstrzymywania

Red-Teaming systemów agentowych

  • Planowanie ćwiczeń red-team: zakres, zasady zaangażowania i bezpieczne przełączanie awaryjne
  • Techniki przeciwników: iniekcja poleceń, nadużywanie narzędzi, manipulacja łańcuchem myśli i nadużywanie API
  • Przeprowadzanie kontrolowanych ataków i pomiar ekspozycji oraz wpływu

Wzmacnianie i łagodzenie

  • Kontrole inżynieryjne: ograniczenia odpowiedzi, bramkowanie zdolności i sandboxing
  • Kontrole polityki i orkiestracji: przepływy zatwierdzania, człowiek w pętli i haki zarządzania
  • Obrony na poziomie modelu i poleceń: walidacja wejść, kanonizacja i filtry wyjść

Operacjonalizacja bezpiecznych wdrożeń agentów

  • Wzorce wdrażania: etapowanie, canary i stopniowe wdrażanie dla agentów
  • Kontrola zmian, potoki testowe i kontrole bezpieczeństwa przed wdrożeniem
  • Zarządzanie międzyfunkcyjne: podręczniki bezpieczeństwa, prawne, produktowe i operacyjne

Capstone: Ćwiczenie Red-Team / Blue-Team

  • Przeprowadzenie symulowanego ataku red-team na środowisko agentowe w piaskownicy
  • Obrona, wykrywanie i naprawa jako blue-team z wykorzystaniem kontroli i telemetrii
  • Prezentacja wyników, plan naprawczy i aktualizacje polityk

Podsumowanie i kolejne kroki

Wymagania

  • Solidne podstawy w inżynierii bezpieczeństwa, administracji systemowej lub operacjach w chmurze
  • Znajomość koncepcji AI/ML oraz zachowania dużych modeli językowych (LLM)
  • Doświadczenie w zarządzaniu tożsamością i dostępem (IAM) oraz projektowaniu bezpiecznych systemów

Grupa docelowa

  • Inżynierowie bezpieczeństwa i red-teamers
  • Inżynierowie operacyjni i platformowi AI
  • Oficerowie zgodności i menedżerowie ryzyka
  • Kierownicy inżynieryjni odpowiedzialni za wdrożenia agentów
 21 godzin

Liczba uczestników


Cena za uczestnika (netto)

Propozycje terminów

Powiązane Kategorie