Bądźmy w kontakcie

Plan Szkolenia

Podstawy klasyfikacji dźwięku

  • Typy zdarzeń dźwiękowych: środowiskowe, mechaniczne, generowane przez ludzi
  • Przegląd przypadków użycia: monitoring, nadzór, automatyzacja
  • Klasyfikacja dźwięku a wykrywanie a segmentacja

Dane dźwiękowe i ekstrakcja cech

  • Typy plików i formaty dźwiękowe
  • Częstotliwość próbkowania, okna, rozmiar ramki – uwagi
  • Ekstrakcja MFCC, cech chroma, mel-spektrogramów

Przygotowanie i adnotacja danych

  • Zbiory danych UrbanSound8K, ESC-50 i niestandardowe
  • Etykietowanie zdarzeń dźwiękowych i granic czasowych
  • Równoważenie zbiorów danych i augmentacja dźwięku

Budowanie modeli klasyfikacji dźwięku

  • Użycie konwolucyjnych sieci neuronowych (CNN) do dźwięku
  • Dane wejściowe modelu: surowy przebieg vs cechy
  • Funkcje straty, metryki oceny i problem przeuczenia

Wykrywanie zdarzeń i lokalizacja czasowa

  • Strategie wykrywania oparte na ramkach i segmentach
  • Post-processing wykryć przy użyciu progów i wygładzania
  • Wizualizacja predykcji na osi czasu dźwięku

Zaawansowane tematy i przetwarzanie w czasie rzeczywistym

  • Transfer learning w scenariuszach z małą ilością danych
  • Wdrażanie modeli z użyciem TensorFlow Lite lub ONNX
  • Przetwarzanie strumieniowe dźwięku i uwagi dotyczące opóźnienia

Rozwój projektu i scenariusze aplikacji

  • Projektowanie pełnego potoku: od pozyskania do klasyfikacji
  • Tworzenie proof-of-concept do monitoringu, kontroli jakości lub nadzoru
  • Logowanie, powiadamianie i integracja z dashboardami lub API

Podsumowanie i kolejne kroki

Wymagania

  • Zrozumienie koncepcji uczenia maszynowego i trenowania modeli
  • Doświadczenie w programowaniu w Pythonie i przetwarzaniu danych
  • Znajomość podstaw cyfrowego dźwięku

Grupa docelowa

  • Naukowcy zajmujący się danymi
  • Inżynierowie uczenia maszynowego
  • Badacze i programiści zajmujący się przetwarzaniem sygnałów dźwiękowych
 21 godzin

Liczba uczestników


Cena za uczestnika (netto)

Propozycje terminów

Powiązane Kategorie