Plan Szkolenia

Wprowadzenie do ochrony prywatności w ML

  • Motywacje i ryzyka w środowiskach z danymi wrażliwymi
  • Przegląd technik ochrony prywatności w ML
  • Modele zagrożeń i uwarunkowania regulacyjne (np. GDPR, HIPAA)

Federated Learning

  • Pojęcie i architektura uczenia federowanego
  • Synchronizacja i agregacja klienta-serwera
  • Wdrożenie za pomocą PySyft i Flower

Prywatność różniczkowa

  • Matematyka prywatności różniczkowej
  • Zastosowanie DP w zapytaniach do danych i szkoleniu modeli
  • Używanie Opacus i TensorFlow Privacy

Sekretne wielostronne obliczenia (SMPC)

  • Protokół SMPC i przypadki użycia
  • Metody oparte na szyfrowaniu a metody opierające się na dzieleniu sekretów
  • Przepływy obliczeń zabezpieczonych z CrypTen lub PySyft

Szyfrowanie homomorficzne

  • Pełne vs. częściowe szyfrowanie homomorficzne
  • Wnioskowanie na zaszyfrowanych danych dla zadań wrażliwych
  • Praktyczne zastosowanie z TenSEAL i Microsoft SEAL

Zastosowania i studia przypadków w branży

  • Prywatność w ochronie zdrowia: uczenie federowane dla sztucznej inteligencji medycznej
  • Bezpiejna współpraca w finansach: modele ryzyka i zgodność
  • Zastosowania w obronie i rządzie

Podsumowanie i następne kroki

Wymagania

  • Zrozumienie zasad uczenia maszynowego
  • Doświadczenie z Python i bibliotekami ML (np. PyTorch, TensorFlow)
  • Znajomość koncepcji ochrony prywatności lub cyberbezpieczeństwa jest pomocna

Grupa docelowa

  • Badacze w dziedzinie AI
  • Zespoły odpowiedzialne za ochronę danych i zgodność z przepisami dotyczącymi prywatności
  • Inżynierowie bezpieczeństwa pracujący w regulowanych branżach
 14 godzin

Liczba uczestników


cena netto za uczestnika

Propozycje terminów

Powiązane Kategorie