Plan Szkolenia

Wprowadzenie

  • Sztuczne sieci neuronowe a algorytmy oparte na drzewach decyzyjnych

Przegląd funkcji XGBoost

  • Elementy algorytmu Gradient Boosting
  • Nacisk na szybkość obliczeniową i wydajność modelu
  • XGBoost a regresja logistyczna, Random Forest i standardowy Gradient Boosting

Ewolucja algorytmów drzewiastych

  • Drzewa decyzyjne, Bagging, Random Forest, Boosting, Gradient Boosting
  • Optymalizacja systemu
  • Udoskonalenia algorytmów

Przygotowanie środowiska

  • Instalacja SciPy i scikit-learn

Tworzenie modelu XGBoost

  • Pobieranie zestawu danych
  • Rozwiązywanie typowych problemów z klasyfikacją
  • Trenowanie modelu XGBoost na potrzeby klasyfikacji
  • Rozwiązywanie typowego zadania regresji

Monitorowanie wydajności

  • Ocena i raportowanie wyników
  • Wczesne zatrzymanie

Wykreślanie cech według ważności

  • Obliczanie ważności funkcji
  • Podejmowanie decyzji, które zmienne wejściowe zachować, a które odrzucić

Konfigurowanie funkcji Gradient Boosting

  • Przegląd krzywych uczenia na zestawach danych treningowych i walidacyjnych
  • Dostosowanie współczynnika uczenia
  • Dostosowanie liczby drzew

Dostrajanie hiperparametrów

  • Poprawa wydajności modelu XGBoost
  • Projektowanie kontrolowanego eksperymentu w celu dostrojenia hiperparametrów
  • Kombinacje parametrów Search

Tworzenie rurociągu

  • Włączenie modelu XGBoost do kompleksowego potoku uczenia maszynowego
  • Dostrajanie hiperparametrów w ramach potoku
  • Zaawansowane techniki przetwarzania wstępnego

Rozwiązywanie problemów

Podsumowanie i wnioski

Wymagania

  • Doświadczenie w pisaniu modeli uczenia maszynowego

Publiczność

  • Naukowcy danych
  • Inżynierowie uczenia maszynowego
 14 godzin

Liczba uczestników


Cena za uczestnika (netto)

Nadchodzące szkolenia