Bądźmy w kontakcie

Plan Szkolenia

Środowisko ML na iOS i konfiguracja rozwoju

  • Architektura ML na urządzeniach Apple: CoreML, Vision, Speech, NaturalLanguage
  • Konfiguracja środowiska deweloperskiego: Anaconda, Python, Xcode i Swift
  • Wprowadzenie do coremltools i potoku konwersji ML na iOS
  • Lab 1: Weryfikacja środowiska macOS/Swift, konfiguracja Python/Anaconda i weryfikacja integracji z linią poleceń Xcode

Trenowanie własnych modeli za pomocą Pythona i popularnych bibliotek ML

  • Wybór modelu: Kiedy używać Keras/TensorFlow, scikit-learn lub libsvm
  • Przetwarzanie wstępne danych, pętle treningowe i metryki oceny w Pythonie
  • Integracja Anaconda i Spyder do efektywnego rozwoju i debugowania modeli
  • Obsługa starszych modeli: importowanie sieci Caffe za pomocą coremltools
  • Lab 2: Wytrenuj własny model klasyfikacji/regresji w Pythonie (Keras/scikit-learn) i eksportuj do .h5/.pkl

Konwersja modeli do CoreML i integracja z iOS

  • Używanie coremltools do konwersji modeli TensorFlow, Keras, scikit-learn, libsvm i Caffe do .mlmodel
  • Inspekcja modeli CoreML w Xcode: warstwy, wejścia/wyjścia, precyzja i poziomy optymalizacji
  • Ładowanie modeli CoreML w Swift: MLModel, MLFeatureProvider i asynchroniczne wnioskowanie
  • Lab 3: Przekonwertuj model wytrenowany w Pythonie do CoreML, przeanalizuj go w Xcode i załaduj w Swift playground

Budowanie inteligencji na iOS z CoreML i Vision

  • Framework Vision: wykrywanie twarzy, wykrywanie obiektów, rozpoznawanie tekstu i skanowanie kodów kreskowych
  • Integracja CoreGraphics: przetwarzanie wstępne obrazów, maskowanie ROI i renderowanie nakładek
  • GameplayKit: stosowanie drzew zachowań AI, znajdowanie ścieżek i logiki gry obok ML w aplikacji
  • Optymalizacja wnioskowania w czasie rzeczywistym: potoki wielomodelowe, buforowanie i zarządzanie pamięcią
  • Lab 4: Zaimplementuj funkcję analizy obrazu w czasie rzeczywistym przy użyciu Vision + własny model CoreML + nakładka CoreGraphics

Rozpoznawanie mowy, NLP i integracja z Siri

  • Framework Speech: zamiana mowy na tekst w czasie rzeczywistym, własne słownictwo i wstrzykiwanie modeli językowych
  • Framework NaturalLanguage: tokenizacja, analiza sentymentu, NER i identyfikacja języka
  • SiriKit i Shortcuts: dodawanie poleceń głosowych, własnych intencji i obsługi Siri na urządzeniu
  • Prywatność i bezpieczeństwo: sandboxing CoreML, szyfrowanie danych i kompromisy między wnioskowaniem na urządzeniu a w chmurze
  • Lab 5: Dodaj polecenia głosowe, analizę tekstu i Siri Shortcuts do aplikacji na iOS

Projekt końcowy i wdrażanie aplikacji

  • Pełny przepływ pracy: trening w Pythonie → konwersja do CoreML → interfejs w Swift → wdrożenie na iOS
  • Profilowanie wydajności: Instruments, diagnostyka CoreML i kwantyzacja modeli (FP16/INT8)
  • Wytyczne App Store dla aplikacji ML: limity rozmiaru, manifesty prywatności i obsługa danych na urządzeniu
  • Projekt końcowy: Wdróż kompletną aplikację na iOS z własnym modelem CoreML, przetwarzaniem Vision, funkcjami mowy/NLP i integracją z Siri
  • Podsumowanie, Q&A i kolejne kroki: Skalowanie do SwiftUI, Core ML multi-modal i MLOps dla iOS

Aby poprosić o dostosowany plan kursu dla tego szkolenia, prosimy o kontakt.

Wymagania

  • Doświadczenie w programowaniu w Swift (Xcode, SwiftUI/UIKit, async/await, closures)
  • Brak wymaganego wcześniejszego doświadczenia w uczeniu maszynowym lub data science
  • Znajomość podstaw linii poleceń i składni Pythona jest pomocna

Odbiorcy

  • Deweloperzy iOS i aplikacji mobilnych
  • Inżynierowie oprogramowania przechodzący na AI na urządzeniach
  • Kierownicy techniczni oceniający strategie wdrażania ML na iOS
 14 godzin

Liczba uczestników


Cena za uczestnika (netto)

Opinie uczestników (1)

Propozycje terminów

Powiązane Kategorie