Dziękujemy za wysłanie zapytania! Jeden z członków naszego zespołu skontaktuje się z Państwem wkrótce.
Dziękujemy za wysłanie rezerwacji! Jeden z członków naszego zespołu skontaktuje się z Państwem wkrótce.
Plan Szkolenia
Wprowadzenie do LangGraph i koncepcji grafów
- Dlaczego grafy w aplikacjach LLM: orkiestracja vs. proste łańcuchy
- Węzły, krawędzie i stan w LangGraph
- Hello LangGraph: pierwszy uruchamialny graf
Zarządzanie stanem i łańcuchy promptów
- Projektowanie promptów jako węzłów grafu
- Przekazywanie stanu między węzłami i obsługa wyników
- Wzorce pamięci: kontekst krótkotrwały vs. trwały
Rozgałęzienia, przepływ sterowania i obsługa błędów
- Warunkowe routowanie i wielościeżkowe przepływy pracy
- Ponowne próby, limity czasu i strategie awaryjne
- Idempotentność i bezpieczne ponowne uruchomienia
Narzędzia i integracje zewnętrzne
- Wywoływanie funkcji/narzędzi z węzłów grafu
- Wywoływanie REST API i usług w ramach grafu
- Praca ze strukturalnymi wynikami
Przepływy pracy wzbogacone o pobieranie danych
- Podstawy przetwarzania i dzielenia dokumentów
- Embeddingi i magazyny wektorowe (np. ChromaDB)
- Odpowiedzi oparte na źródłach z cytatami
Testowanie, debugowanie i ocena
- Testy jednostkowe dla węzłów i ścieżek
- Śledzenie i obserwowalność
- Kontrola jakości: faktyczność, bezpieczeństwo i determinizm
Podstawy pakowania i wdrażania
- Konfiguracja środowiska i zarządzanie zależnościami
- Obsługa grafów za pośrednictwem API
- Wersjonowanie przepływów pracy i aktualizacje rollingowe
Podsumowanie i kolejne kroki
Wymagania
- Znajomość podstaw programowania w Pythonie
- Doświadczenie w pracy z REST API lub narzędziami CLI
- Zrozumienie podstawowych koncepcji LLM i inżynierii promptów
Grupa docelowa
- Programiści i inżynierowie oprogramowania nowicjusze w orkiestracji LLM opartej na grafach
- Inżynierowie promptów i nowicjusze w AI budujący wieloetapowe aplikacje LLM
- Praktycy danych eksplorujący automatyzację przepływów pracy z wykorzystaniem LLM
14 godzin