Plan Szkolenia

Rozumienie Ryzyka Specyficznego dla AI w Ustawieniach Rządowych Jak ryzyko AI różni się od tradycyjnych ryzyk IT i danych Kategorie ryzyka AI: techniczne, operacyjne, reputacyjne i etyczne Publiczna odpowiedzialność i postrzeganie ryzyka w rządzie Ramy AI Ramy NIST AI (AI RMF) ISO/IEC 42001:2023 — Standard systemu AI Inne sektoralne i międzynarodowe wytyczne (np. OECD, UNESCO) Zagrożenia Bezpieczeństwa dla Systemów AI Wrogie wejścia, zatrucie danych i odwrócenie modelu Ujawnienie wrażliwych danych szkoleniowych Ryzyko łańcucha dostaw i modeli pochodzących od trzecich stron Gorządzenie, Audytowanie i Kontrole Człowiek w pętli i mechanizmy odpowiedzialności Audytowalne AI: dokumentacja, wersjonowanie i interpretowalność Wewnętrzne kontrole, role nadzoru i punkty kontrolne zgodności Ocena Ryzyka i Planowanie Mitigacji Budowanie rejestrów ryzyka dla przypadków użycia AI Współpraca z zespołami zakupów, prawnymi i projektowania usług Przeprowadzanie ocen przed wdrożeniem i po wdrożeniu Odpowiedź na Zdarzenia i Odporność Sektora Publicznego Reagowanie na zdarzenia i naruszenia związane z AI Komunikacja z interesariuszami i społeczeństwem Wbudowywanie praktyk ryzyka AI w książki cyberszczegóły Podsumowanie i Następne Kroki

Wymagania

  • Doświadczenie w działaniu IT, zarządzaniu ryzykiem, cyberbezpieczeństwem lub zgodnością w instytucjach rządowych
  • Zapoznanie z praktykami bezpieczeństwa organizacji oraz dostarczaniem usług cyfrowych
  • Nie wymagana wcześniejsza wiedza techniczna w systemach AI

Grupa docelowa

  • Go zespoły IT sektora publicznego zajmujące się usługami cyfrowymi i integracją systemów
  • Specjaliści ds. cyberbezpieczeństwa i zarządzania ryzykiem w instytucjach publicznych
  • Osoby zajmujące się audytem, zgodnością i zarządzaniem w sektorze publicznym
 7 godzin

Liczba uczestników


cena netto za uczestnika

Propozycje terminów

Powiązane Kategorie