Dziękujemy za wysłanie zapytania! Jeden z członków naszego zespołu skontaktuje się z Państwem wkrótce.
Dziękujemy za wysłanie rezerwacji! Jeden z członków naszego zespołu skontaktuje się z Państwem wkrótce.
Plan Szkolenia
Wprowadzenie do przetwarzania obrazu w autonomicznej jeździe
- Rola przetwarzania obrazu w systemach pojazdów autonomicznych
- Wyzwania i rozwiązania w przetwarzaniu wizyjnym w czasie rzeczywistym
- Kluczowe koncepcje: wykrywanie obiektów, śledzenie i rozumienie sceny
Podstawy przetwarzania obrazu dla pojazdów autonomicznych
- Pozyskiwanie obrazów z kamer i czujników
- Podstawowe operacje: filtrowanie, wykrywanie krawędzi i transformacje
- Potoki wstępnego przetwarzania dla zadań wizyjnych w czasie rzeczywistym
Wykrywanie i klasyfikacja obiektów
- Ekstrakcja cech przy użyciu SIFT, SURF i ORB
- Klasyczne algorytmy wykrywania: HOG i kaskady Haara
- Podejścia oparte na uczeniu głębokim: CNN, YOLO i SSD
Wykrywanie pasów ruchu i oznaczeń drogowych
- Transformacja Hougha do wykrywania linii i krzywych
- Ekstrakcja obszarów zainteresowania (ROI) dla oznaczeń pasów ruchu
- Implementacja wykrywania pasów ruchu przy użyciu OpenCV i TensorFlow
Segmentacja semantyczna dla rozumienia sceny
- Zrozumienie segmentacji semantycznej w autonomicznej jeździe
- Techniki uczenia głębokiego: FCN, U-Net i DeepLab
- Segmentacja w czasie rzeczywistym przy użyciu głębokich sieci neuronowych
Wykrywanie przeszkód i pieszych
- Wykrywanie obiektów w czasie rzeczywistym z YOLO i Faster R-CNN
- Śledzenie wielu obiektów z SORT i DeepSORT
- Rozpoznawanie pieszych przy użyciu HOG i modeli głębokiego uczenia
Fuzja danych z czujników dla lepszej percepcji
- Łączenie danych wizyjnych z LiDAR i RADAR
- Filtracja Kalmana i filtracja cząsteczkowa do integracji danych
- Poprawa dokładności percepcji dzięki technikom fuzji danych z czujników
Ocena i testowanie systemów wizyjnych
- Benchmarking modeli wizyjnych z wykorzystaniem zestawów danych motoryzacyjnych
- Ocena i optymalizacja wydajności w czasie rzeczywistym
- Implementacja potoku wizyjnego dla symulacji autonomicznej jazdy
Studia przypadków i zastosowania w rzeczywistych warunkach
- Analiza udanych systemów wizyjnych w samochodach autonomicznych
- Projekt: Implementacja potoku wykrywania pasów ruchu i przeszkód
- Dyskusja: Przyszłe trendy w przetwarzaniu obrazu w motoryzacji
Podsumowanie i kolejne kroki
Wymagania
- Znajomość programowania w Pythonie
- Podstawowa znajomość koncepcji uczenia maszynowego
- Znajomość technik przetwarzania obrazu
Grupa docelowa
- Programiści AI pracujący nad aplikacjami związanymi z autonomiczną jazdą
- Inżynierowie przetwarzania obrazu skupiający się na percepcji w czasie rzeczywistym
- Badacze i programiści zainteresowani AI w motoryzacji
21 godzin
Opinie uczestników (1)
I genuinely enjoyed the hands-on approach.
Kevin De Cuyper
Szkolenie - Computer Vision with OpenCV
Przetłumaczone przez sztuczną inteligencję