Dziękujemy za wysłanie zapytania! Jeden z członków naszego zespołu skontaktuje się z Państwem wkrótce.
Dziękujemy za wysłanie rezerwacji! Jeden z członków naszego zespołu skontaktuje się z Państwem wkrótce.
Plan Szkolenia
Środowisko ML na iOS i konfiguracja rozwoju
- Architektura ML na urządzeniach Apple: CoreML, Vision, Speech, NaturalLanguage
- Konfiguracja środowiska deweloperskiego: Anaconda, Python, Xcode i Swift
- Wprowadzenie do coremltools i potoku konwersji ML na iOS
- Lab 1: Weryfikacja środowiska macOS/Swift, konfiguracja Python/Anaconda i weryfikacja integracji z linią poleceń Xcode
Trenowanie własnych modeli za pomocą Pythona i popularnych bibliotek ML
- Wybór modelu: Kiedy używać Keras/TensorFlow, scikit-learn lub libsvm
- Przetwarzanie wstępne danych, pętle treningowe i metryki oceny w Pythonie
- Integracja Anaconda i Spyder do efektywnego rozwoju i debugowania modeli
- Obsługa starszych modeli: importowanie sieci Caffe za pomocą coremltools
- Lab 2: Wytrenuj własny model klasyfikacji/regresji w Pythonie (Keras/scikit-learn) i eksportuj do .h5/.pkl
Konwersja modeli do CoreML i integracja z iOS
- Używanie coremltools do konwersji modeli TensorFlow, Keras, scikit-learn, libsvm i Caffe do .mlmodel
- Inspekcja modeli CoreML w Xcode: warstwy, wejścia/wyjścia, precyzja i poziomy optymalizacji
- Ładowanie modeli CoreML w Swift: MLModel, MLFeatureProvider i asynchroniczne wnioskowanie
- Lab 3: Przekonwertuj model wytrenowany w Pythonie do CoreML, przeanalizuj go w Xcode i załaduj w Swift playground
Budowanie inteligencji na iOS z CoreML i Vision
- Framework Vision: wykrywanie twarzy, wykrywanie obiektów, rozpoznawanie tekstu i skanowanie kodów kreskowych
- Integracja CoreGraphics: przetwarzanie wstępne obrazów, maskowanie ROI i renderowanie nakładek
- GameplayKit: stosowanie drzew zachowań AI, znajdowanie ścieżek i logiki gry obok ML w aplikacji
- Optymalizacja wnioskowania w czasie rzeczywistym: potoki wielomodelowe, buforowanie i zarządzanie pamięcią
- Lab 4: Zaimplementuj funkcję analizy obrazu w czasie rzeczywistym przy użyciu Vision + własny model CoreML + nakładka CoreGraphics
Rozpoznawanie mowy, NLP i integracja z Siri
- Framework Speech: zamiana mowy na tekst w czasie rzeczywistym, własne słownictwo i wstrzykiwanie modeli językowych
- Framework NaturalLanguage: tokenizacja, analiza sentymentu, NER i identyfikacja języka
- SiriKit i Shortcuts: dodawanie poleceń głosowych, własnych intencji i obsługi Siri na urządzeniu
- Prywatność i bezpieczeństwo: sandboxing CoreML, szyfrowanie danych i kompromisy między wnioskowaniem na urządzeniu a w chmurze
- Lab 5: Dodaj polecenia głosowe, analizę tekstu i Siri Shortcuts do aplikacji na iOS
Projekt końcowy i wdrażanie aplikacji
- Pełny przepływ pracy: trening w Pythonie → konwersja do CoreML → interfejs w Swift → wdrożenie na iOS
- Profilowanie wydajności: Instruments, diagnostyka CoreML i kwantyzacja modeli (FP16/INT8)
- Wytyczne App Store dla aplikacji ML: limity rozmiaru, manifesty prywatności i obsługa danych na urządzeniu
- Projekt końcowy: Wdróż kompletną aplikację na iOS z własnym modelem CoreML, przetwarzaniem Vision, funkcjami mowy/NLP i integracją z Siri
- Podsumowanie, Q&A i kolejne kroki: Skalowanie do SwiftUI, Core ML multi-modal i MLOps dla iOS
Aby poprosić o dostosowany plan kursu dla tego szkolenia, prosimy o kontakt.
Wymagania
- Doświadczenie w programowaniu w Swift (Xcode, SwiftUI/UIKit, async/await, closures)
- Brak wymaganego wcześniejszego doświadczenia w uczeniu maszynowym lub data science
- Znajomość podstaw linii poleceń i składni Pythona jest pomocna
Odbiorcy
- Deweloperzy iOS i aplikacji mobilnych
- Inżynierowie oprogramowania przechodzący na AI na urządzeniach
- Kierownicy techniczni oceniający strategie wdrażania ML na iOS
14 godzin
Opinie uczestników (1)
Sposób przekazywania wiedzy i zdolności trenera do jej przekazu.
Jakub Rekas - Bitcomp Sp. z o.o.
Szkolenie - Machine Learning on iOS
Przetłumaczone przez sztuczną inteligencję