Dziękujemy za wysłanie zapytania! Jeden z członków naszego zespołu skontaktuje się z Państwem wkrótce.
Dziękujemy za wysłanie rezerwacji! Jeden z członków naszego zespołu skontaktuje się z Państwem wkrótce.
Plan Szkolenia
Wprowadzenie do Cursora dla przepływów pracy danych i uczenia maszynowego
- Przegląd roli Cursora w inżynierii danych i ML
- Konfigurowanie środowiska i łączenie źródeł danych
- Zrozumienie asystencji kodu opartej na AI w notatnikach
Przyspieszenie rozwoju notatników
- Tworzenie i zarządzanie notatnikami Jupyter w Cursorze
- Używanie AI do uzupełniania kodu, eksploracji danych i wizualizacji
- Dokumentowanie eksperymentów i utrzymanie powtarzalności
Budowanie potoków ETL i inżynierii cech
- Generowanie i refaktoryzacja skryptów ETL z użyciem AI
- Strukturyzowanie potoków cech dla skalowalności
- Kontrola wersji komponentów potoków i zestawów danych
Trening modeli i ewaluacja z użyciem Cursora
- Scaffolding kodu treningowego modeli i pętli ewaluacji
- Integracja przetwarzania danych i optymalizacji hiperparametrów
- Zapewnienie powtarzalności modeli w różnych środowiskach
Integracja Cursora do potoków MLOps
- Łączenie Cursora z rejestrami modeli i przepływami CI/CD
- Używanie asystentów kodu opartych na AI do automatycznego ponownego treningu i wdrażania
- Monitorowanie cyklu życia modeli i śledzenie wersji
Asystent AI w dokumentacji i raportach
- Generowanie dokumentacji wewnątrzpotokowej dla potoków danych
- Tworzenie podsumowań eksperymentów i raportów postępów
- Poprawa współpracy zespołu dzięki dokumentacji powiązanej z kontekstem
Powtarzalność i zarządzanie w projektach ML
- Implementacja najlepszych praktyk dla linii danych i modeli
- Utrzymywanie zarządzania i zgodności za pomocą generowanego przez AI kodu
- Audyt decyzji AI i utrzymanie śledzenia
Optymalizacja produktywności i przyszłe zastosowania
- Stosowanie strategii podpowiedzi dla szybszej iteracji
- Badanie możliwości automatyzacji w operacjach danych
- Przygotowanie do przyszłych zaawansowań integracji Cursora i ML
Podsumowanie i kolejne kroki
Wymagania
- Doświadczenie w analizie danych opartej na Pythonie lub uczeniu maszynowym
- Zrozumienie przepływów pracy ETL i treningu modeli
- Znajomość kontroli wersji i narzędzi do potoków danych
Grupa docelowa
- Naukowcy danych tworzący i iterujący nad notatnikami ML
- Inżynierowie uczenia maszynowego projektujący potoki treningowe i wnioskowania
- Profesjonaliści MLOps zarządzający wdrażaniem modeli i powtarzalnością
14 godzin