Plan Szkolenia
Moduł 1: Podstawy Python dla przepływów pracy ML
• Rozpoczęcie kursu i konfiguracja środowiska
Wyrównanie celów i przygotowanie powtarzalnego środowiska Python ML
• Podstawy języka Python (szybki kurs)
Przegląd składni, przepływu sterowania, funkcji i wzorców często używanych w bazach kodu ML
• Struktury danych dla ML
Listy, słowniki, zbiory i krotki dla cech, etykiet i metadanych
• Komprehensje i narzędzia funkcyjne
Wyrażanie transformacji przy użyciu komprehensji i funkcji wyższego rzędu
• Programowanie obiektowe w Pythonie dla deweloperów ML
Klasy, metody, kompozycja i praktyczne decyzje projektowe
• dataclasses i lekkie modelowanie
Typowane kontenery do konfiguracji, przykładów i wyników
• Dekoratory i menedżery kontekstu
Wzorce dotyczące czasu, buforowania, logowania i bezpiecznego zarządzania zasobami
• Praca z plikami i ścieżkami
Solidna obsługa zbiorów danych i formaty serializacji
• Wyjątki i programowanie defensywne
Pisanie skryptów ML, które kończą się bezpiecznie i przejrzyście
• Moduły, pakiety i struktura projektu
Organizowanie powtarzalnych baz kodu ML
• Typowanie i jakość kodu
Podpowiedzi typów, dokumentacja i struktura przyjazna dla linterów
Moduł 2: Numeryczny Python, SciPy i przetwarzanie danych
• Podstawy NumPy dla obliczeń wektorowych
Efektywne operacje na tablicach i kodowanie z uwzględnieniem wydajności
• Indeksowanie, cięcie, rozgłaszanie i kształty
Bezpieczna manipulacja tensorami i rozumienie kształtów
• Podstawy algebry liniowej z NumPy i SciPy
Stabilne operacje macierzowe i dekompozycje używane w ML
• Dogłębna analiza SciPy
Statystyka, optymalizacja, dopasowanie krzywych i macierze rzadkie
• Pandas dla danych tabelarycznych ML
Czyszczenie, łączenie, agregowanie i przygotowywanie zbiorów danych
• Dogłębna analiza scikit-learn
Interfejs estymatora, potoki i powtarzalne przepływy pracy
• Podstawy wizualizacji
Diagnostyczne wykresy do eksploracji danych i zachowania modelu
Moduł 3: Wzorce programowania dla budowania aplikacji ML
• Od notatnika do utrzymywalnego projektu
Refaktoryzacja kodu eksploracyjnego w strukturalne pakiety
• Zarządzanie konfiguracją
Parametry zewnętrzne i walidacja podczas uruchamiania
• Logowanie, ostrzeżenia i obserwowalność
Strukturalne logowanie dla debugowalnych systemów ML
• Ponowne użycie komponentów z OOP i kompozycją
Projektowanie rozszerzalnych transformatorów i predyktorów
• Praktyczne wzorce projektowe
Wzorce Pipeline, Factory lub Registry, Strategy i Adapter
• Walidacja danych i sprawdzanie schematów
Zapobieganie cichym problemom z danymi
• Wydajność i profilowanie
Identyfikacja wąskich gardeł i stosowanie technik optymalizacji
• Wejście-wyjście modelu i interfejsy wnioskowania
Bezpieczna trwałość i czyste interfejsy predykcyjne
• Minibuild end-to-end
Produkcyjny potok ML z konfiguracją i logowaniem
Moduł 4: Uczenie statystyczne dla danych tabelarycznych, tekstowych i obrazowych
• Podstawy oceny
Podziały na zbiory treningowe i walidacyjne, uczciwa walidacja krzyżowa i metryki zgodne z biznesem
• Zaawansowane ML dla danych tabelarycznych
Regularyzowane GLM, zespoły drzew i przetwarzanie wstępne bez wycieków
• Kalibracja i niepewność
Skalowanie Platta, regresja izotoniczna, bootstrap i predykcja konforemna
• Klasyczne metody NLP
Kompromisy tokenizacji, TF-IDF, modele liniowe i Naive Bayes
• Modelowanie tematów
Podstawy LDA i praktyczne ograniczenia
• Klasyczne przetwarzanie obrazów
HOG, PCA i potoki oparte na cechach
• Analiza błędów
Wykrywanie błędów, szum w etykietach i fałszywe korelacje
• Praktyczne laboratoria
Potok tabelaryczny odporny na wycieki
Porównanie i interpretacja bazowych tekstów
Bazowe przetwarzanie obrazów z analizą strukturalnych błędów
Moduł 5: Sieci neuronowe dla danych tabelarycznych, tekstowych i obrazowych
• Mistrzostwo pętli treningowych
Czyste pętle PyTorch z AMP, obcinaniem i powtarzalnością
• Optymalizacja i regularyzacja
Inicjalizacja, normalizacja, optymalizatory i harmonogramy
• Mieszana precyzja i skalowanie
Akumulacja gradientu i strategie punktów kontrolnych
• Sieci neuronowe dla danych tabelarycznych
Osadzenia kategoryczne, krzyżowanie cech i badania ablacyjne
• Sieci neuronowe dla tekstu
Osadzenia, CNNs, BiLSTM lub GRU i obsługa sekwencji
• Sieci neuronowe dla obrazów
Podstawy CNN i architektury w stylu ResNet
• Praktyczne laboratoria
Powtarzalna struktura treningowa
Porównanie sieci neuronowych tabelarycznych z boostingiem
CNN z eksperymentami augmentacji i harmonogramowania
Moduł 6: Zaawansowane architektury neuronowe
• Strategie transferu uczenia
Wzorce zamrażania i odmrażania, różnicowe stopy uczenia
• Architektury Transformer dla tekstu
Wewnętrzne mechanizmy self-attention i podejścia do dostrajania
• Backbony wizyjne i gęste predykcje
ResNet, EfficientNet, Vision Transformers i koncepcje U-Net
• Zaawansowane architektury tabelaryczne
TabTransformer, FT-Transformer i Deep and Cross networks
• Uwagi dotyczące szeregów czasowych
Podziały czasowe i wykrywanie przesunięć kowariantnych
• Techniki PEFT i efektywności
Kompromisy LoRA, destylacji i kwantyzacji
• Praktyczne laboratoria
Dostrajanie wstępnie wytrenowanego transformera tekstowego
Dostrajanie wstępnie wytrenowanego modelu wizyjnego
Porównanie transformera tabelarycznego z GBDT
Moduł 7: Systemy generatywne AI
• Podstawy promptingu
Strukturalne promptowanie i kontrolowana generacja
• Podstawy LLM
Tokenizacja, dostrajanie instrukcji i ograniczanie halucynacji
• Generacja wspomagana wyszukiwaniem (RAG)
Podział na fragmenty, osadzenia, hybrydowe wyszukiwanie i metryki oceny
• Strategie dostrajania
LoRA i QLoRA z kontrolą jakości danych
• Modele dyfuzyjne
Intuicja dotycząca dyfuzji latentnej i praktyczne dostosowanie
• Syntetyczne dane tabelaryczne
CTGAN i kwestie prywatności
• Praktyczne laboratoria
Miniaplikacja RAG w stylu produkcyjnym
Weryfikacja strukturalnych wyników z wymuszaniem schematu
Opcjonalne eksperymenty z dyfuzją
Moduł 8: Agenci AI i MCP
• Projektowanie pętli agenta
Obserwuj, planuj, działaj, odzwierciedlaj i utrzymuj
• Architektury agentów
ReAct, planowanie i wykonywanie oraz koordynacja wielu agentów
• Zarządzanie pamięcią
Podejścia epizodyczne, semantyczne i scratchpad
• Integracja narzędzi i bezpieczeństwo
Kontrakty narzędziowe, sandboxing i obrona przed iniekcją promptów
• Ramy oceny
Ślady do odtworzenia, zestawy zadań i testy regresji
• MCP i interoperacyjność oparta na protokołach
Projektowanie serwerów MCP z bezpiecznym udostępnianiem narzędzi
• Praktyczne laboratoria
Zbuduj agenta od zera
Udostępnij narzędzia przez serwer w stylu MCP
Utwórz system oceny z ograniczeniami bezpieczeństwa
Wymagania
Uczestnicy powinni posiadać praktyczną znajomość programowania w Pythonie.
Program jest przeznaczony dla średnio zaawansowanych i zaawansowanych specjalistów technicznych.
Opinie uczestników (2)
ekosystem ML obejmuje nie tylko MLFlow, ale także Optuna, hyperops, Docker i docker-compose
Guillaume GAUTIER - OLEA MEDICAL
Szkolenie - MLflow
Przetłumaczone przez sztuczną inteligencję
Cieszyłem się, biorąc udział w szkoleniu Kubeflow, które odbyło się zdalnie. To szkolenie pozwoliło mi ukonsolidować wiedzę na temat usług AWS, K8s oraz wszystkich narzędzi devOps związanych z Kubeflow, które stanowią niezbędne podstawy do właściwego podejścia do tego tematu. Chciałbym podziękować Marcina Malawskiego za jego cierpliwość i profesjonalizm w zakresie szkolenia oraz rad na temat najlepszych praktyk. Marcin podejmuje temat z różnych perspektyw, wykorzystując różne narzędzia wdrażania, takie jak Ansible, EKS kubectl, Terraform. Teraz jestem absolutnie przekonany, że wchodzę w właściwe pole zastosowania.
Guillaume Gautier - OLEA MEDICAL | Improved diagnosis for life TM
Szkolenie - Kubeflow
Przetłumaczone przez sztuczną inteligencję