Dziękujemy za wysłanie zapytania! Jeden z członków naszego zespołu skontaktuje się z Państwem wkrótce.
Dziękujemy za wysłanie rezerwacji! Jeden z członków naszego zespołu skontaktuje się z Państwem wkrótce.
Plan Szkolenia
Zasady klasyfikacji dźwięku
- Typy zdarzeń dźwiękowych: środowiskowe, mechaniczne, wygenerowane przez człowieka
- Przegląd przypadków użycia: nadzorowanie, monitorowanie, automatyzacja
- Klasyfikacja dźwięku vs wykrywanie vs segmentacja
Dane audio i ekstrakcja cech
- Typy plików audio i formatów
- Częstotliwość próbkowania, okienkowanie, rozmiar ramki
- Ekstrakcja MFCC, cech chroma, mel-spektrogramów
Przygotowanie i anotowanie danych
- UrbanSound8K, ESC-50 oraz niestandardowe zestawy danych
- Oznaczenie zdarzeń dźwiękowych i granic czasowych
- Bilansowanie zestawów danych i augmentacja audio
Budowanie modeli klasyfikacji dźwięku
- Używanie sieci neuronowych konwolucyjnych (CNNs) dla audio
- Wejście modelu: surowa fala vs cechy
- Funkcje strat, metryki oceny i przeuczenie
Wykrywanie zdarzeń i lokalizacja czasowa
- Strategie wykrywania oparte na ramkach i segmentach
- Ponowna obróbka wykryć za pomocą progu i wygładzania
- Wizualizacja przewidywań na czasowych liniach audio
Zaawansowane tematy i przetwarzanie w czasie rzeczywistym
- Transfer learning dla scenariuszy z małą ilością danych
- Wdrażanie modeli z TensorFlow Lite lub ONNX
- Strumieniowe przetwarzanie audio i uwzględnienie opóźnień
Rozwijanie projektów i scenariusze zastosowań
- Projektowanie pełnego przetwarzania: od pobierania do klasyfikacji
- Rozwijanie dowodu koncepcyjnego dla nadzoru, kontroli jakości lub monitorowania
- Logowanie, alertowanie i integracja z dashboardami lub API
Podsumowanie i następne kroki
Wymagania
- Zrozumienie koncepcji uczenia maszynowego i trenowania modeli
- Doświadczenie w programowaniu Python i przetwarzaniu danych
- Znałosc podstaw cyfrowego dźwięku
Grupa docelowa
- Naukowcy danych
- Inżynierowie uczenia maszynowego
- Badacze i deweloperzy przetwarzania sygnałów audio
21 godzin