Plan Szkolenia

Wprowadzenie do przetwarzania obrazu w autonomicznej jeździe

  • Rola przetwarzania obrazu w systemach pojazdów autonomicznych
  • Wyzwania i rozwiązania w przetwarzaniu wizyjnym w czasie rzeczywistym
  • Kluczowe koncepcje: wykrywanie obiektów, śledzenie i rozumienie sceny

Podstawy przetwarzania obrazu dla pojazdów autonomicznych

  • Pozyskiwanie obrazów z kamer i czujników
  • Podstawowe operacje: filtrowanie, wykrywanie krawędzi i transformacje
  • Potoki wstępnego przetwarzania dla zadań wizyjnych w czasie rzeczywistym

Wykrywanie i klasyfikacja obiektów

  • Ekstrakcja cech przy użyciu SIFT, SURF i ORB
  • Klasyczne algorytmy wykrywania: HOG i kaskady Haara
  • Podejścia oparte na uczeniu głębokim: CNN, YOLO i SSD

Wykrywanie pasów ruchu i oznaczeń drogowych

  • Transformacja Hougha do wykrywania linii i krzywych
  • Ekstrakcja obszarów zainteresowania (ROI) dla oznaczeń pasów ruchu
  • Implementacja wykrywania pasów ruchu przy użyciu OpenCV i TensorFlow

Segmentacja semantyczna dla rozumienia sceny

  • Zrozumienie segmentacji semantycznej w autonomicznej jeździe
  • Techniki uczenia głębokiego: FCN, U-Net i DeepLab
  • Segmentacja w czasie rzeczywistym przy użyciu głębokich sieci neuronowych

Wykrywanie przeszkód i pieszych

  • Wykrywanie obiektów w czasie rzeczywistym z YOLO i Faster R-CNN
  • Śledzenie wielu obiektów z SORT i DeepSORT
  • Rozpoznawanie pieszych przy użyciu HOG i modeli głębokiego uczenia

Fuzja danych z czujników dla lepszej percepcji

  • Łączenie danych wizyjnych z LiDAR i RADAR
  • Filtracja Kalmana i filtracja cząsteczkowa do integracji danych
  • Poprawa dokładności percepcji dzięki technikom fuzji danych z czujników

Ocena i testowanie systemów wizyjnych

  • Benchmarking modeli wizyjnych z wykorzystaniem zestawów danych motoryzacyjnych
  • Ocena i optymalizacja wydajności w czasie rzeczywistym
  • Implementacja potoku wizyjnego dla symulacji autonomicznej jazdy

Studia przypadków i zastosowania w rzeczywistych warunkach

  • Analiza udanych systemów wizyjnych w samochodach autonomicznych
  • Projekt: Implementacja potoku wykrywania pasów ruchu i przeszkód
  • Dyskusja: Przyszłe trendy w przetwarzaniu obrazu w motoryzacji

Podsumowanie i kolejne kroki

Wymagania

  • Znajomość programowania w Pythonie
  • Podstawowa znajomość koncepcji uczenia maszynowego
  • Znajomość technik przetwarzania obrazu

Grupa docelowa

  • Programiści AI pracujący nad aplikacjami związanymi z autonomiczną jazdą
  • Inżynierowie przetwarzania obrazu skupiający się na percepcji w czasie rzeczywistym
  • Badacze i programiści zainteresowani AI w motoryzacji
 21 godzin

Liczba uczestników


Cena za uczestnika

Opinie uczestników (1)

Propozycje terminów

Powiązane Kategorie