Plan Szkolenia

Wprowadzenie do NLG do podsumowywania tekstu i generowania treści

  • Przegląd generowania języka naturalnego (NLG)
  • Kluczowe różnice między NLG a NLP
  • Przypadki użycia NLG w generowaniu treści

Techniki podsumowywania tekstu w NLG

  • Ekstraktywne metody podsumowywania przy użyciu NLG
  • Streszczenie abstrakcyjne z modelami NLG
  • Metryki oceny podsumowania opartego na NLG

Generowanie treści za pomocą NLG

  • Przegląd modeli generatywnych NLG: GPT, T5 i BART
  • Trenowanie modeli NLG do generowania tekstu
  • Generowanie spójnego i kontekstowego tekstu za pomocą NLG

Dostrajanie modeli NLG do konkretnych zastosowań

  • Dostrajanie modeli NLG, takich jak GPT, do zadań specyficznych dla domeny
  • Uczenie transferowe w NLG
  • Obsługa dużych zbiorów danych do trenowania modeli NLG

Narzędzia i ramy dla NLG

  • Wprowadzenie do popularnych bibliotek NLG (Transformers, OpenAI GPT)
  • Ćwiczenia praktyczne z Hugging Face Transformers i OpenAI API
  • Tworzenie potoków NLG do generowania treści

Kwestie etyczne w NLG

  • Stronniczość w treściach generowanych przez sztuczną inteligencję
  • Ograniczanie szkodliwych lub nieodpowiednich wyników NLG
  • Etyczne implikacje NLG w tworzeniu treści

Przyszłe trendy w NLG

  • Najnowsze osiągnięcia w modelach NLG
  • Wpływ transformatorów na NLG
  • Przyszłe możliwości w NLG i zautomatyzowanym tworzeniu treści

Podsumowanie i kolejne kroki

Wymagania

  • Podstawowa znajomość koncepcji uczenia maszynowego
  • Znajomość programowania Python
  • Doświadczenie z frameworkami NLP

Uczestnicy

  • Programiści AI
  • Twórcy treści
  • Naukowcy zajmujący się danymi
 21 godzin

Liczba uczestników


cena netto za uczestnika

Propozycje terminów

Powiązane Kategorie