Plan Szkolenia

Moduł I: Podstawy dużych modeli językowych

1. Mechanizmy i architektura modeli generatywnych

2. Kluczowe pojęcia – tokeny, temperatura, inne parametry modeli LLM

3. Okno kontekstowe i jego ograniczenia

4. Zjawisko halucynacji i strategie jego minimalizacji

5. Zasady skutecznego prompt engineeringu

6. Techniki formatowania promptów (few-shot learning, chain-of-thought)

7. Interfejs ChatGPT – możliwości i ograniczenia

8. Platforma OpenAI – playground, modele, zarządzanie API keys

9. Różnice między API a SDK

10. Przegląd dostępnych modeli i ich zastosowań

 

Moduł II: Komunikacja z modelami w Pythonie

1. Podstawy requestowania API przy użyciu biblioteki requests

2. Oficjalny SDK OpenAI

3. Obsługa odpowiedzi API i formatowanie wyników

4. Structured output – wymuszanie określonej struktury odpowiedzi

6. Streaming odpowiedzi w czasie rzeczywistym

7. Framework LangChain

9. OpenRouter jako agregator dostępu do różnych modeli

 

Moduł III: Reprezentacja wektorowa tekstu

1. Koncepcja embeddingów tekstowych

2. Jak modele rozumieją znaczenie – przestrzeń wektorowa

3. API embeddingów w OpenAI

4. Mierzenie podobieństwa semantycznego między tekstami

5. Praktyczne zastosowania embeddingów

 

Moduł IV: Praktyczne zastosowania LLM

1. Automatyczne podsumowywanie dokumentów

2. Ekstrakcja kluczowych informacji z tekstu

3. Tłumaczenie maszynowe z wykorzystaniem LLM

4. Klasyfikacja tekstów – sentiment analysis i kategoryzacja

 14 godzin

Liczba uczestników


cena netto za uczestnika

Opinie uczestników (5)

Propozycje terminów

Powiązane Kategorie