Plan Szkolenia

Podstawy etyki w systemach autonomicznych

  • Definiowanie autonomii w agentach AI
  • Kluczowe teorie etyczne stosowane do zachowań maszyn
  • Perspektywy interesariuszy i projektowanie wrażliwe na wartości

Ryzyka społeczne i przypadki użycia o wysokiej stawce

  • Autonomiczne agenty w bezpieczeństwie publicznym, zdrowiu i obronie
  • Współpraca człowiek-AI i granice zaufania
  • Scenariusze niezamierzonych konsekwencji i wzmocnienia ryzyka

Krajobraz prawny i regulacyjny

  • Przegląd trendów legislacyjnych i politycznych dotyczących AI (UE AI Act, NIST, OECD)
  • Odpowiedzialność, odpowiedzialność prawna i osobowość prawna agentów AI
  • Globalne inicjatywy zarządzania i luki

Zrozumiałość i przejrzystość decyzji

  • Wyzwania związane z podejmowaniem decyzji przez „czarne skrzynki”
  • Projektowanie agentów zrozumiałych i poddających się audytowi
  • Narzędzia i ramy przejrzystości (np. karty modeli, arkusze danych)

Wyrównanie, kontrola i odpowiedzialność moralna

  • Strategie wyrównywania AI dla zachowań agentów
  • Paradygmaty kontroli „człowiek w pętli” vs. „człowiek nad pętlą”
  • Wspólna odpowiedzialność między projektantami, użytkownikami i instytucjami

Ocena ryzyka etycznego i łagodzenie

  • Mapowanie ryzyka i analiza krytycznych błędów w projektowaniu agentów
  • Zabezpieczenia i mechanizmy wyłączania
  • Audytowanie stronniczości, dyskryminacji i sprawiedliwości

Projektowanie zarządzania i nadzór instytucjonalny

  • Zasady odpowiedzialnego zarządzania AI
  • Modele nadzoru wielostronnego i audyty
  • Projektowanie ram zgodności dla autonomicznych agentów

Podsumowanie i kolejne kroki

Wymagania

  • Zrozumienie systemów AI i podstaw uczenia maszynowego
  • Znajomość autonomicznych agentów i ich zastosowań
  • Wiedza na temat etycznych i prawnych ram w polityce technologicznej

Grupa docelowa

  • Etycy AI
  • Twórcy polityki i regulatorzy
  • Zaawansowani praktycy i badacze AI
 14 godzin

Liczba uczestników


Cena za uczestnika

Propozycje terminów

Powiązane Kategorie