Plan Szkolenia
Wprowadzenie do optymalizacji i wdrażania modeli
- Przegląd modeli DeepSeek i wyzwań związanych z wdrażaniem
- Zrozumienie wydajności modelu: szybkość vs. dokładność
- Kluczowe wskaźniki wydajności dla modeli AI
Optymalizacja modeli DeepSeek pod kątem wydajności
- Techniki zmniejszania opóźnień wnioskowania
- Strategie kwantyzacji i przycinania modeli
- Korzystanie ze zoptymalizowanych bibliotek dla modeli DeepSeek
Wdrażanie MLOps dla modeli DeepSeek
- Kontrola wersji i śledzenie modeli
- Automatyzacja ponownego szkolenia i wdrażania modeli
- Potoki CI/CD dla aplikacji AI
Wdrażanie modeli DeepSeek w środowiskach chmurowych i lokalnych
- Wybór odpowiedniej infrastruktury do wdrażania
- Wdrażanie przy użyciu Docker i Kubernetes
- Zarządzanie dostępem API i uwierzytelnianiem
Skalowanie i monitorowanie wdrożeń AI
- Strategie równoważenia obciążenia dla usług AI
- Monitorowanie dryfu modelu i spadku wydajności
- Wdrażanie automatycznego skalowania dla aplikacji AI
Zapewnienie bezpieczeństwa i zgodności we wdrożeniach AI
- Zarządzanie prywatnością danych w przepływach pracy AI
- Zgodność z przepisami dotyczącymi sztucznej inteligencji w przedsiębiorstwie
- Najlepsze praktyki w zakresie bezpiecznych wdrożeń sztucznej inteligencji
Przyszłe trendy i strategie optymalizacji AI
- Postępy w technikach optymalizacji modeli AI
- Pojawiające się trendy w MLOps i infrastrukturze AI
- Tworzenie mapy drogowej wdrażania sztucznej inteligencji
Podsumowanie i kolejne kroki
Wymagania
- Doświadczenie z wdrażaniem modeli AI i infrastrukturą chmurową
- Biegła znajomość języka programowania (np. Python, Java, C++)
- Zrozumienie MLOps i optymalizacja wydajności modelu
Uczestnicy
- Inżynierowie AI optymalizujący i wdrażający modele DeepSeek
- Naukowcy zajmujący się danymi pracujący nad dostrajaniem wydajności AI
- Specjaliści ds. uczenia maszynowego zarządzający systemami AI opartymi na chmurze
Opinie uczestników (2)
ekosystem ML nie tylko MLFlow, ale także Optuna, hyperops, docker i docker-compose
Guillaume GAUTIER - OLEA MEDICAL
Szkolenie - MLflow
Przetłumaczone przez sztuczną inteligencję
Uczestniczenie w szkoleniu Kubeflow, które odbyło się zdalnie, było dla mnie bardzo przyjemne. To szkolenie pozwoliło mi ugruntować moją wiedzę dotyczącą usług AWS, K8s oraz wszystkich narzędzi devOps związanych z Kubeflow, które są niezbędnymi podstawami do właściwego podejścia do tematu. Chciałbym podziękować Malawskiemu Marcinowi za jego cierpliwość i profesjonalizm w trakcie szkolenia oraz za rady dotyczące najlepszych praktyk. Malawski podejmuje temat z różnych perspektyw, różnych narzędzi wdrażania Ansible, EKS kubectl, Terraform. Teraz jestem zdecydowanie przekonany, że wybieram właściwy kierunek aplikacji.
Guillaume Gautier - OLEA MEDICAL | Improved diagnosis for life TM
Szkolenie - Kubeflow
Przetłumaczone przez sztuczną inteligencję