Plan Szkolenia

Zasady klasyfikacji dźwięku

  • Typy zdarzeń dźwiękowych: środowiskowe, mechaniczne, wygenerowane przez człowieka
  • Przegląd przypadków użycia: nadzorowanie, monitorowanie, automatyzacja
  • Klasyfikacja dźwięku vs wykrywanie vs segmentacja

Dane audio i ekstrakcja cech

  • Typy plików audio i formatów
  • Częstotliwość próbkowania, okienkowanie, rozmiar ramki
  • Ekstrakcja MFCC, cech chroma, mel-spektrogramów

Przygotowanie i anotowanie danych

  • UrbanSound8K, ESC-50 oraz niestandardowe zestawy danych
  • Oznaczenie zdarzeń dźwiękowych i granic czasowych
  • Bilansowanie zestawów danych i augmentacja audio

Budowanie modeli klasyfikacji dźwięku

  • Używanie sieci neuronowych konwolucyjnych (CNNs) dla audio
  • Wejście modelu: surowa fala vs cechy
  • Funkcje strat, metryki oceny i przeuczenie

Wykrywanie zdarzeń i lokalizacja czasowa

  • Strategie wykrywania oparte na ramkach i segmentach
  • Ponowna obróbka wykryć za pomocą progu i wygładzania
  • Wizualizacja przewidywań na czasowych liniach audio

Zaawansowane tematy i przetwarzanie w czasie rzeczywistym

  • Transfer learning dla scenariuszy z małą ilością danych
  • Wdrażanie modeli z TensorFlow Lite lub ONNX
  • Strumieniowe przetwarzanie audio i uwzględnienie opóźnień

Rozwijanie projektów i scenariusze zastosowań

  • Projektowanie pełnego przetwarzania: od pobierania do klasyfikacji
  • Rozwijanie dowodu koncepcyjnego dla nadzoru, kontroli jakości lub monitorowania
  • Logowanie, alertowanie i integracja z dashboardami lub API

Podsumowanie i następne kroki

Wymagania

  • Zrozumienie koncepcji uczenia maszynowego i trenowania modeli
  • Doświadczenie w programowaniu Python i przetwarzaniu danych
  • Znałosc podstaw cyfrowego dźwięku

Grupa docelowa

  • Naukowcy danych
  • Inżynierowie uczenia maszynowego
  • Badacze i deweloperzy przetwarzania sygnałów audio
 21 godzin

Liczba uczestników


cena netto za uczestnika

Propozycje terminów

Powiązane Kategorie