Plan Szkolenia

Wprowadzenie do NLG w zakresie podsumowywania tekstu i generowania treści

  • Przegląd Natural Language Generation (NLG)
  • Kluczowe różnice między NLG a NLP
  • Zastosowania NLG w generowaniu treści

Techniki podsumowywania tekstu w NLG

  • Metody ekstrakcyjnego podsumowywania z wykorzystaniem NLG
  • Abstrakcyjne podsumowywanie z modelami NLG
  • Metryki oceny podsumowań opartych na NLG

Generowanie treści z wykorzystaniem NLG

  • Przegląd generatywnych modeli NLG: GPT, T5 i BART
  • Trenowanie modeli NLG do generowania tekstu
  • Generowanie spójnego i kontekstowego tekstu z NLG

Dostosowywanie modeli NLG do konkretnych zastosowań

  • Dostosowywanie modeli NLG, takich jak GPT, do zadań specyficznych dla domeny
  • Transfer learning w NLG
  • Praca z dużymi zbiorami danych do trenowania modeli NLG

Narzędzia i frameworki do NLG

  • Wprowadzenie do popularnych bibliotek NLG (Transformers, OpenAI GPT)
  • Praktyczne zastosowanie Hugging Face Transformers i OpenAI API
  • Tworzenie pipeline'ów NLG do generowania treści

Zagadnienia etyczne w NLG

  • Błąd w treściach generowanych przez AI
  • Minimalizowanie szkodliwych lub nieodpowiednich wyników NLG
  • Etyczne implikacje NLG w tworzeniu treści

Przyszłe trendy w NLG

  • Ostatnie postępy w modelach NLG
  • Wpływ transformerów na NLG
  • Przyszłe możliwości w NLG i automatyzacji tworzenia treści

Podsumowanie i kolejne kroki

Wymagania

  • Podstawowa wiedza na temat uczenia maszynowego
  • Znajomość programowania w Pythonie
  • Doświadczenie w korzystaniu z frameworków NLP

Grupa docelowa

  • Programiści AI
  • Twórcy treści
  • Data scientist
 21 godzin

Liczba uczestników


Cena za uczestnika

Propozycje terminów

Powiązane Kategorie