Plan Szkolenia

Wprowadzenie

  • Porównanie ML Kit, TensorFlow i innych usług uczenia maszynowego
  • Przegląd funkcji i komponentów ML Kit

Rozpoczęcie pracy

  • Konfiguracja SDK ML Kit
  • Eksploracja API i przykładowych aplikacji

Implementacja API Vision ML Kit

  • Automatyzacja wprowadzania danych (Rozpoznawanie Tekstu)
  • Wykrywanie twarzy do selfie i portretów (Wykrywanie Twarzy)
  • Interpretacja pozycji ciała (Wykrywanie Pozy)
  • Dodawanie efektów tła (Segmentacja Selfie)
  • Integracja skanowania kodów kreskowych
  • Identyfikacja obiektów, miejsc, gatunków itp. (Etykietowanie Obrazów)
  • Lokalizacja widocznych obiektów na obrazie (Wykrywanie i Śledzenie Obiektów)
  • Rozpoznawanie ręcznie pisanych tekstów (Rozpoznawanie Cyfrowego Atramentu)

Praca z API Natural Language

  • Identyfikacja języków
  • Tłumaczenie tekstów
  • Generowanie inteligentnych odpowiedzi
  • Wykorzystanie ekstrakcji encji

Optymalizacja istniejących aplikacji za pomocą ML Kit

  • Używanie niestandardowych modeli z ML Kit
  • Migracja z Firebase do nowego SDK ML Kit
  • Migracja z Mobile Vision do SDK ML Kit
  • Redukcja rozmiaru aplikacji do wdrożenia
  • Refaktoryzacja aplikacji do wykorzystania modułów dynamicznych funkcji

Porady dotyczące rozwiązywania problemów

Podsumowanie i kolejne kroki

Wymagania

  • Zrozumienie podstaw uczenia maszynowego
  • Doświadczenie w rozwoju aplikacji mobilnych

Grupa docelowa

  • Inżynierowie oprogramowania
  • Programiści aplikacji mobilnych
 14 godzin

Liczba uczestników


Cena za uczestnika (netto)

Propozycje terminów

Powiązane Kategorie