Plan Szkolenia
Wprowadzenie do Edge AI
- Definicja i kluczowe koncepcje
- Różnice między Edge AI a AI w chmurze
- Korzyści i przypadki użycia Edge AI
- Przegląd urządzeń i platform brzegowych
Konfiguracja środowiska brzegowego
- Wprowadzenie do urządzeń brzegowych (Raspberry Pi, NVIDIA Jetson itp.)
- Instalacja niezbędnego oprogramowania i bibliotek
- Konfiguracja środowiska deweloperskiego
- Przygotowanie sprzętu do wdrożenia AI
Tworzenie modeli AI dla urządzeń brzegowych
- Przegląd modeli uczenia maszynowego i głębokiego uczenia dla urządzeń brzegowych
- Techniki trenowania modeli w środowiskach lokalnych i chmurowych
- Optymalizacja modeli do wdrożenia na urządzeniach brzegowych (kwantyzacja, przycinanie itp.)
- Narzędzia i frameworki do rozwoju Edge AI (TensorFlow Lite, OpenVINO itp.)
Wdrażanie modeli AI na urządzeniach brzegowych
- Kroki do wdrożenia modeli AI na różnych urządzeniach brzegowych
- Przetwarzanie i wnioskowanie danych w czasie rzeczywistym na urządzeniach brzegowych
- Monitorowanie i zarządzanie wdrożonymi modelami
- Praktyczne przykłady i studia przypadków
Praktyczne rozwiązania i projekty AI
- Tworzenie aplikacji AI dla urządzeń brzegowych (np. przetwarzanie obrazu, przetwarzanie języka naturalnego)
- Praktyczny projekt: Budowa inteligentnego systemu kamer
- Praktyczny projekt: Implementacja rozpoznawania głosu na urządzeniach brzegowych
- Wspólne projekty grupowe i rzeczywiste scenariusze
Ocena wydajności i optymalizacja
- Techniki oceny wydajności modeli na urządzeniach brzegowych
- Narzędzia do monitorowania i debugowania aplikacji Edge AI
- Strategie optymalizacji wydajności modeli AI
- Rozwiązywanie problemów z opóźnieniami i zużyciem energii
Integracja z systemami IoT
- Łączenie rozwiązań Edge AI z urządzeniami i czujnikami IoT
- Protokoły komunikacyjne i metody wymiany danych
- Budowa kompleksowego rozwiązania Edge AI i IoT
- Praktyczne przykłady integracji
Kwestie etyczne i bezpieczeństwa
- Zapewnienie prywatności i bezpieczeństwa danych w aplikacjach Edge AI
- Rozwiązywanie problemów z uprzedzeniami i uczciwością w modelach AI
- Zgodność z przepisami i standardami
- Najlepsze praktyki odpowiedzialnego wdrażania AI
Praktyczne projekty i ćwiczenia
- Tworzenie kompleksowej aplikacji Edge AI
- Projekty rzeczywiste i scenariusze
- Wspólne ćwiczenia grupowe
- Prezentacje projektów i feedback
Podsumowanie i kolejne kroki
Wymagania
- Zrozumienie koncepcji AI i uczenia maszynowego
- Doświadczenie w programowaniu (zalecany Python)
- Znajomość koncepcji obliczeń brzegowych
Odbiorcy
- Programiści
- Naukowcy zajmujący się danymi
- Entuzjaści technologii
Opinie uczestników (2)
ekosystem ML obejmuje nie tylko MLFlow, ale także Optuna, hyperops, Docker i docker-compose
Guillaume GAUTIER - OLEA MEDICAL
Szkolenie - MLflow
Przetłumaczone przez sztuczną inteligencję
Cieszyłem się, biorąc udział w szkoleniu Kubeflow, które odbyło się zdalnie. To szkolenie pozwoliło mi ukonsolidować wiedzę na temat usług AWS, K8s oraz wszystkich narzędzi devOps związanych z Kubeflow, które stanowią niezbędne podstawy do właściwego podejścia do tego tematu. Chciałbym podziękować Marcina Malawskiego za jego cierpliwość i profesjonalizm w zakresie szkolenia oraz rad na temat najlepszych praktyk. Marcin podejmuje temat z różnych perspektyw, wykorzystując różne narzędzia wdrażania, takie jak Ansible, EKS kubectl, Terraform. Teraz jestem absolutnie przekonany, że wchodzę w właściwe pole zastosowania.
Guillaume Gautier - OLEA MEDICAL | Improved diagnosis for life TM
Szkolenie - Kubeflow
Przetłumaczone przez sztuczną inteligencję