Bądźmy w kontakcie

Plan Szkolenia

Wprowadzenie do LangGraph i koncepcji grafów

  • Dlaczego grafy w aplikacjach LLM: orkiestracja vs. proste łańcuchy
  • Węzły, krawędzie i stan w LangGraph
  • Hello LangGraph: pierwszy uruchamialny graf

Zarządzanie stanem i łańcuchy promptów

  • Projektowanie promptów jako węzłów grafu
  • Przekazywanie stanu między węzłami i obsługa wyników
  • Wzorce pamięci: kontekst krótkotrwały vs. trwały

Rozgałęzienia, przepływ sterowania i obsługa błędów

  • Warunkowe routowanie i wielościeżkowe przepływy pracy
  • Ponowne próby, limity czasu i strategie awaryjne
  • Idempotentność i bezpieczne ponowne uruchomienia

Narzędzia i integracje zewnętrzne

  • Wywoływanie funkcji/narzędzi z węzłów grafu
  • Wywoływanie REST API i usług w ramach grafu
  • Praca ze strukturalnymi wynikami

Przepływy pracy wzbogacone o pobieranie danych

  • Podstawy przetwarzania i dzielenia dokumentów
  • Embeddingi i magazyny wektorowe (np. ChromaDB)
  • Odpowiedzi oparte na źródłach z cytatami

Testowanie, debugowanie i ocena

  • Testy jednostkowe dla węzłów i ścieżek
  • Śledzenie i obserwowalność
  • Kontrola jakości: faktyczność, bezpieczeństwo i determinizm

Podstawy pakowania i wdrażania

  • Konfiguracja środowiska i zarządzanie zależnościami
  • Obsługa grafów za pośrednictwem API
  • Wersjonowanie przepływów pracy i aktualizacje rollingowe

Podsumowanie i kolejne kroki

Wymagania

  • Znajomość podstaw programowania w Pythonie
  • Doświadczenie w pracy z REST API lub narzędziami CLI
  • Zrozumienie podstawowych koncepcji LLM i inżynierii promptów

Grupa docelowa

  • Programiści i inżynierowie oprogramowania nowicjusze w orkiestracji LLM opartej na grafach
  • Inżynierowie promptów i nowicjusze w AI budujący wieloetapowe aplikacje LLM
  • Praktycy danych eksplorujący automatyzację przepływów pracy z wykorzystaniem LLM
 14 godzin

Liczba uczestników


Cena za uczestnika (netto)

Propozycje terminów

Powiązane Kategorie