Plan Szkolenia

Zrozumienie Specyficznych Ryzyk Powiązanych z AI w Ustawieniach Gownych
  • Jak ryzyko związane z AI różni się od tradycyjnych ryzyk IT i danych
  • Kategorie ryzyka AI: techniczne, operacyjne, reputacyjne i etyczne
  • Publiczna odpowiedzialność i percepcja ryzyka w rządzie
Ramy AI Risk Management
  • Rama AI Risk Management NIST (AI RMF)
  • ISO/IEC 42001:2023 — Standard Systemów AI Management
  • Inne sektorowe i międzynarodowe wytyczne (np. OECD, UNESCO)
Zagrożenia Bezpieczeństwa dla Systemów AI
  • Wprowadzanie złośliwych danych, zatruwanie danych i odwracanie modeli
  • Wydawanie wrażliwych danych treningowych
  • Ryzyko łańcucha dostaw i modeli trzecich stron
Goowanie, Audytowanie i Kontrole
  • Mechanizmy człowieka w pętli i odpowiedzialność
  • Audytowalna AI: dokumentacja, wersjonowanie i interpretowalność
  • Wewnętrzne kontrole, role nadzoru i punkty sprawdzania zgodności
Ocena Ryzyka i Planowanie Mitigacji
  • Budowanie rejestrów ryzyka dla przypadków użycia AI
  • Współpraca z zespołami zakupów, prawnymi i projektowymi
  • Przeprowadzanie ocen przed wdrożeniem i po wdrożeniu
Odpowiedź na Wypadki i Odporność Sektora Publicznego
  • Odpowiadanie na wypadki i naruszenia związane z AI
  • Komunikacja ze stronami zainteresowanymi i publicznością
  • Wbudowywanie praktyk związanych z ryzykiem AI w książki cyberbezpieczeństwa
Podsumowanie i Krok Dalej

Wymagania

  • Doświadczenie w operacjach IT, zarządzaniu ryzykiem, cyberbezpieczeństwie lub zgodności w instytucjach rządowych
  • Znajomość praktyk bezpieczeństwa organizacji i dostarczania usług cyfrowych
  • Nie jest wymagana wcześniejsza wiedza techniczna w zakresie systemów AI

Grupa docelowa

  • Zespoły IT rządu zajmujące się usługami cyfrowymi i integracją systemów
  • Specjaliści ds. cyberbezpieczeństwa i zarządzania ryzykiem w instytucjach publicznych
  • Osoby odpowiedzialne za audyt, zgodność i zarządzanie w sektorze publicznym
 7 godzin

Liczba uczestników


cena netto za uczestnika

Propozycje terminów

Powiązane Kategorie