Bezpieczeństwo i eliminacja uprzedzeń w dopracowanych modelach - Plan Szkolenia
Bezpieczeństwo i redukcja uprzedzeń w dopasowanych modelach jest coraz większym zagadnieniem, gdy sztuczna inteligencja staje się bardziej zakorzeniona w procesach decyzyjnych w różnych branżach, a standardy regulacyjne ciągle ewoluują.
To szkolenie prowadzone przez instruktora (online lub na miejscu) jest przeznaczone dla inżynierów ML na poziomie średnim oraz profesjonalistów zajmujących się zgodnością AI, którzy chcą identyfikować, oceniać i redukować ryzyka związane z bezpieczeństwem oraz uprzedzenia w dopasowanych modelach językowych.
Na koniec tego szkolenia uczestnicy będą mogli:
- Zrozumieć etyczny i regulacyjny kontekst dla bezpiecznych systemów AI.
- Identyfikować i oceniać powszechne formy uprzedzeń w dopasowanych modelach.
- Zastosować techniki redukcji uprzedzeń podczas i po szkoleniu.
- Projektować i audytować modele pod kątem bezpieczeństwa, przejrzystości i sprawiedliwości.
Format kursu
- Interaktywne wykłady i dyskusje.
- Wiele ćwiczeń i praktyk.
- Ręczne wdrażanie w żywym środowisku laboratoryjnym.
Opcje dostosowywania kursu
- Aby poprosić o dostosowane szkolenie dla tego kursu, skontaktuj się z nami w celu uzgodnienia.
Plan Szkolenia
Zasady bezpiecznego i sprawiedliwego AI
- Kluczowe pojęcia: bezpieczeństwo, uprzedzenia, sprawiedliwość, przejrzystość
- Rodzaje uprzedzeń: zestaw danych, reprezentacja, algorytmiczna
- Przegląd ram regulacyjnych (ustawa UE o AI, GDPR, itd.)
Uprzedzenia w modelach dopasowanych
- Jak dopasowywanie może wprowadzać lub wzmagać uprzedzenia
- Studia przypadków i rzeczywiste porażki
- Wykrywanie uprzedzeń w zestawach danych i przewidywaniach modeli
Techniki łagodzenia uprzedzeń
- Strategie na poziomie danych (ponowne zbalansowanie, powiększanie)
- Strategie podczas uczenia (regularyzacja, przeciwdziałanie uprzedzeniom)
- Strategie po przetwarzaniu (filtrowanie wyjść, kalibracja)
Bezpieczeństwo i odporność modeli
- Wykrywanie niebezpiecznych lub szkodliwych wyjść
- Obsługa przeciwdziałającego wejściu
- Red teaming i testowanie pod wysokim obciążeniem modeli dopasowanych
Audytowanie i monitorowanie systemów AI
- Wskaźniki oceny uprzedzeń i sprawiedliwości (np. równowaga demograficzna)
- Narzędzia wyjaśniania i ramy przejrzystości
- Praktyki monitorowania i zarządzania w ciągłości
Narzędzia i praktyczne ćwiczenia
- Używanie bibliotek open-source (np. Fairlearn, Transformers, CheckList)
- Praktyczne ćwiczenia: wykrywanie i łagodzenie uprzedzeń w dopasowanym modelu
- Generowanie bezpiecznych wyjść za pomocą projektowania instrukcji i ograniczeń
Przykłady zastosowań w przedsiębiorstwach i przygotowanie do zgodności
- Najlepsze praktyki dotyczące integracji bezpieczeństwa w procesach LLM
- Dokumentacja i karty modeli dla zgodności
- Przygotowanie do audytów i zewnętrznych recenzji
Podsumowanie i następne kroki
Wymagania
- Zrozumienie modeli uczenia maszynowego i procesów trenowania
- Doświadczenie w pracy z dostrajaniem i LLM
- Znajomość Python i koncepcji NLP
Grupa docelowa
- Zespoły ds. zgodności z wymaganiami AI
- Inżynierowie ML
Szkolenia otwarte są realizowane w przypadku uzbierania się grupy szkoleniowej liczącej co najmniej 5 osób na dany termin.
Bezpieczeństwo i eliminacja uprzedzeń w dopracowanych modelach - Plan Szkolenia - Rezerwacja
Bezpieczeństwo i eliminacja uprzedzeń w dopracowanych modelach - Plan Szkolenia - Zapytanie
Bezpieczeństwo i eliminacja uprzedzeń w dopracowanych modelach - Zapytanie o Konsultacje
Zapytanie o Konsultacje
Propozycje terminów
Szkolenia Powiązane
Zaawansowane Techniki Transfer Learning
14 godzinTo prowadzone przez instruktora szkolenie na żywo w Polsce (na miejscu lub zdalnie) jest przeznaczone dla zaawansowanych specjalistów od uczenia maszynowego, którzy chcą opanować najnowocześniejsze techniki uczenia transferowego i zastosować je do złożonych problemów w świecie rzeczywistym.
Po zakończeniu tego szkolenia uczestnicy będą w stanie
- Zrozumieć zaawansowane koncepcje i metodologie w uczeniu transferowym.
- Wdrożyć techniki adaptacji specyficzne dla domeny dla wstępnie wytrenowanych modeli.
- Zastosować ciągłe uczenie się do zarządzania ewoluującymi zadaniami i zestawami danych.
- Opanować wielozadaniowe dostrajanie w celu zwiększenia wydajności modelu w różnych zadaniach.
Wdrażanie Dokładnie Dopasowanych Modeli w Produkcji
21 godzinTo prowadzone przez instruktora szkolenie na żywo w Polsce (na miejscu lub zdalnie) jest przeznaczone dla zaawansowanych profesjonalistów, którzy chcą niezawodnie i wydajnie wdrażać precyzyjnie dostrojone modele.
Pod koniec tego szkolenia uczestnicy będą mogli
- Zrozumieć wyzwania związane z wdrażaniem precyzyjnie dostrojonych modeli do produkcji.
- Konteneryzować i wdrażać modele przy użyciu narzędzi takich jak Docker i Kubernetes.
- Wdrożyć monitorowanie i rejestrowanie wdrożonych modeli.
- Optymalizować modele pod kątem opóźnień i skalowalności w rzeczywistych scenariuszach.
Domain-Specific Fine-Tuning dla Finansów
21 godzinTo prowadzone przez instruktora szkolenie na żywo w Polsce (na miejscu lub zdalnie) jest przeznaczone dla średniozaawansowanych profesjonalistów, którzy chcą zdobyć praktyczne umiejętności dostosowywania modeli AI do krytycznych zadań finansowych.
Pod koniec tego szkolenia uczestnicy będą mogli
- Zrozumieć podstawy dostrajania dla aplikacji finansowych.
- Wykorzystać wstępnie wytrenowane modele do zadań specyficznych dla domeny w finansach.
- Stosować techniki wykrywania oszustw, oceny ryzyka i generowania porad finansowych.
- Zapewnienie zgodności z przepisami finansowymi, takimi jak GDPR i SOX.
- Wdrożenie bezpieczeństwa danych i etycznych praktyk AI w aplikacjach finansowych.
Fine-Tuning Models and Large Language Models (LLMs)
14 godzinTo prowadzone przez instruktora szkolenie na żywo w Polsce (na miejscu lub zdalnie) jest przeznaczone dla średnio zaawansowanych i zaawansowanych profesjonalistów, którzy chcą dostosować wstępnie wytrenowane modele do określonych zadań i zestawów danych.
Pod koniec tego szkolenia uczestnicy będą mogli
- Zrozumieć zasady dostrajania i jego zastosowania.
- Przygotować zestawy danych do dostrajania wstępnie wytrenowanych modeli.
- Dostroić duże modele językowe (LLM) do zadań NLP.
- Optymalizować wydajność modeli i radzić sobie z typowymi wyzwaniami.
Skuteczne Dopasowywanie za pomocą Adaptacji Rangi Niskiej (LoRA)
14 godzinTo prowadzone przez instruktora szkolenie na żywo w Polsce (na miejscu lub zdalnie) jest przeznaczone dla średnio zaawansowanych programistów i praktyków AI, którzy chcą wdrożyć strategie dostrajania dużych modeli bez potrzeby korzystania z rozległych zasobów obliczeniowych.
Pod koniec tego szkolenia uczestnicy będą w stanie
- Zrozumieć zasady Low-Rank Adaptation (LoRA).
- Wdrożyć LoRA w celu wydajnego dostrajania dużych modeli.
- Zoptymalizować dostrajanie dla środowisk o ograniczonych zasobach.
- Ocenić i wdrożyć modele dostrojone LoRA do praktycznych zastosowań.
Fine-Tuning Multimodal Models
28 godzinTo prowadzone przez instruktora szkolenie na żywo w Polsce (na miejscu lub zdalnie) jest przeznaczone dla zaawansowanych profesjonalistów, którzy chcą opanować multimodalne dostrajanie modeli dla innowacyjnych rozwiązań AI.
Pod koniec tego szkolenia uczestnicy będą mogli
- Zrozumieć architekturę modeli multimodalnych, takich jak CLIP i Flamingo.
- Skutecznie przygotowywać i wstępnie przetwarzać multimodalne zestawy danych.
- Dostroić modele multimodalne do konkretnych zadań.
- Optymalizować modele pod kątem rzeczywistych zastosowań i wydajności.
Dostosowanie do Zadań Obsługi Języka Naturalnego (NLP)
21 godzinTo prowadzone przez instruktora szkolenie na żywo w Polsce (na miejscu lub zdalnie) jest przeznaczone dla średnio zaawansowanych profesjonalistów, którzy chcą ulepszyć swoje projekty NLP poprzez skuteczne dostrojenie wstępnie wytrenowanych modeli językowych.
Pod koniec tego szkolenia uczestnicy będą w stanie
- Zrozumieć podstawy dostrajania dla zadań NLP.
- Dostroić wstępnie wytrenowane modele, takie jak GPT, BERT i T5, do konkretnych zastosowań NLP.
- Optymalizacja hiperparametrów w celu poprawy wydajności modelu.
- Ocena i wdrażanie dostrojonych modeli w rzeczywistych scenariuszach.
Fine-Tuning DeepSeek LLM for Custom AI Models
21 godzinTo szkolenie prowadzone przez instruktora, dostępne online lub na miejscu, jest skierowane do zaawansowanych badaczy sztucznej inteligencji, inżynierów uczenia maszynowego i programistów, którzy chcą dostosowywać modele DeepSeek LLM w celu tworzenia specjalistycznych aplikacji AI dostosowanych do konkretnych branż, dziedzin lub potrzeb biznesowych.
Po ukończeniu tego szkolenia uczestnicy będą w stanie:
- Zrozumieć architekturę i możliwości modeli DeepSeek, w tym DeepSeek-R1 i DeepSeek-V3.
- Przygotowywać zestawy danych i przetwarzać dane do dostosowywania.
- Dostosowywać DeepSeek LLM do zastosowań w specyficznych dziedzinach.
- Optymalizować i wdrażać dostosowane modele w sposób efektywny.
Fine-Tuning Wielkie modele językowe za pomocą QLoRA
14 godzinTo szkolenie prowadzone przez instruktora, dostępne online lub na miejscu w Polsce, jest skierowane do inżynierów uczenia maszynowego, deweloperów AI oraz naukowców danych na poziomie średnim do zaawansowanym, którzy chcą nauczyć się używania QLoRA do efektywnego dopasowywania dużych modeli do określonych zadań i dostosowań.
Po ukończeniu tego szkolenia uczestnicy będą w stanie:
- Zrozumieć teorię stojącą za QLoRA i technikami kwantyzacji dla modeli językowych (LLMs).
- Wdrożyć QLoRA w procesie dopasowywania dużych modeli językowych do zastosowań specjalistycznych.
- Optymalizować wydajność dopasowywania przy ograniczonych zasobach obliczeniowych za pomocą kwantyzacji.
- Efektywnie wdrażać i oceniać dopasowane modele w rzeczywistych zastosowaniach.
Fine-Tuning z Reinforcement Learning z Odpowiedzi Użytkownika (RLHF)
14 godzinTo szkolenie prowadzone przez instruktora w trybie Polsce (online lub stacjonarnym) jest przeznaczone dla zaawansowanych inżynierów uczenia maszynowego i badaczy sztucznej inteligencji, którzy chcą zastosować RLHF do doszlifowania dużych modeli AI w celu uzyskania lepszej wydajności, bezpieczeństwa i zgodności.
Po zakończeniu tego szkolenia uczestnicy będą w stanie:
- Zrozumieć teoretyczne podstawy RLHF i dlaczego jest ono kluczowe w współczesnym rozwoju sztucznej inteligencji.
- Wdrożyć modele nagród opartych na opinii człowieka, aby kierować procesami uczenia wzmocnionego.
- Doszkolić duże modele językowe za pomocą technik RLHF, aby dostosować wyniki do preferencji człowieka.
- Zastosować najlepsze praktyki w zakresie skalowania procesów RLHF dla systemów sztucznej inteligencji przeznaczonych do produkcji.
Optymalizacja Dużych Modeli do Kosztowo-Efektywnego Dopasowywania
21 godzinTo prowadzone przez instruktora szkolenie na żywo w Polsce (na miejscu lub zdalnie) jest przeznaczone dla zaawansowanych profesjonalistów, którzy chcą opanować techniki optymalizacji dużych modeli pod kątem opłacalnego dostrajania w rzeczywistych scenariuszach.
Po zakończeniu tego szkolenia uczestnicy będą w stanie
- Zrozumieć wyzwania związane z dostrajaniem dużych modeli.
- Zastosować rozproszone techniki szkoleniowe do dużych modeli.
- Wykorzystać kwantyzację modelu i przycinanie w celu zwiększenia wydajności.
- Optymalizować wykorzystanie sprzętu do zadań dostrajania.
- Skutecznie wdrażać dostrojone modele w środowiskach produkcyjnych.
Inżynieria Promptów i Dopasowanie z Niewielką Ilością Danej
14 godzinTo prowadzone przez instruktora szkolenie na żywo w Polsce (na miejscu lub zdalnie) jest przeznaczone dla średniozaawansowanych profesjonalistów, którzy chcą wykorzystać moc szybkiej inżynierii i uczenia się kilku ujęć, aby zoptymalizować wydajność LLM w rzeczywistych zastosowaniach.
Po zakończeniu tego szkolenia uczestnicy będą w stanie
- Zrozumieć zasady inżynierii podpowiedzi i uczenia się kilku strzałów.
- Projektować skuteczne podpowiedzi dla różnych zadań NLP.
- Wykorzystywać techniki "few-shot" do adaptacji LLM przy minimalnej ilości danych.
- Optymalizować wydajność LLM pod kątem praktycznych zastosowań.
Parametrycznie Efiktywne Techniki Fine-Tuning (PEFT) dla Wielkich Modeli Językowych
14 godzinTo szkolenie prowadzone przez instruktora w formie Polsce (online lub na miejscu) jest przeznaczone dla data scientistów i inżynierów AI na poziomie średnim, którzy chcą doskonalić duże modele językowe w sposób bardziej ekonomiczny i efektywny, wykorzystując metody takie jak LoRA, Adapter Tuning i Prefix Tuning.
Po zakończeniu tego szkolenia uczestnicy będą w stanie:
- Zrozumieć teorię za podejściami do efektywnego parametru fine-tuning.
- Wdrożyć LoRA, Adapter Tuning i Prefix Tuning za pomocą Hugging Face PEFT.
- Porównać wydajność i koszty związane z metodami PEFT w porównaniu do pełnego fine-tuning.
- Wdrożyć i skalować doskonalone modele językowe z mniejszymi wymaganiami obliczeniowymi i miejsca na dysku.
Wprowadzenie do Przenoszenia Uczenia
14 godzinTo prowadzone przez instruktora szkolenie na żywo w Polsce (na miejscu lub zdalnie) jest przeznaczone dla początkujących i średnio zaawansowanych specjalistów od uczenia maszynowego, którzy chcą zrozumieć i zastosować techniki uczenia transferowego w celu poprawy wydajności i wydajności w projektach AI.
Pod koniec tego szkolenia uczestnicy będą w stanie
- Zrozumieć podstawowe pojęcia i korzyści płynące z uczenia transferowego.
- Poznaj popularne wstępnie wytrenowane modele i ich zastosowania.
- Dostrajać wstępnie wytrenowane modele do niestandardowych zadań.
- Zastosować uczenie transferowe do rozwiązywania rzeczywistych problemów w NLP i wizji komputerowej.
Rozwiązywanie Problemów Z Dostrajaniem
14 godzinTo prowadzone przez instruktora szkolenie na żywo w Polsce (na miejscu lub zdalnie) jest przeznaczone dla zaawansowanych profesjonalistów, którzy chcą udoskonalić swoje umiejętności w diagnozowaniu i rozwiązywaniu wyzwań związanych z dostrajaniem modeli uczenia maszynowego.
Pod koniec tego szkolenia uczestnicy będą w stanie
- Diagnozować kwestie takie jak nadmierne dopasowanie, niedopasowanie i brak równowagi danych.
- Wdrożyć strategie w celu poprawy konwergencji modelu.
- Optymalizować potoki dostrajania w celu uzyskania lepszej wydajności.
- Debugować procesy szkoleniowe przy użyciu praktycznych narzędzi i technik.