Plan Szkolenia

Wprowadzenie do LangGraph i koncepcji grafu

  • Dlaczego grafy dla aplikacji LLM: orkiestracja vs. proste łańcuchy
  • Węzły, krawędzie i stan w LangGraph
  • Witaj LangGraph: pierwszy wykonywalny graf

Zarządzanie stanem i łańcuchowaniem zapytań

  • Projektowanie zapytań jako węzłów grafu
  • Przekazywanie stanu między węzłami i obsługa wyjść
  • Wzorce pamięci: krótkoterminowe vs. zachowane konteksty

Rozgałęzianie, sterowanie przepływem i obsługa błędów

  • Warunkowe routowanie i wielościenne przepływy pracy
  • Ponowne próby, timeouty i strategie awaryjne
  • Idempotencja i bezpieczne ponowne uruchamianie

Narzędzia i zewnętrzne integracje

  • Wywołanie funkcji/narzędzi z węzłów grafu
  • Wywyływanie API REST i usług w ramach grafu
  • Praca ze strukturami wyjściowymi

Przepływy pracy z dodatkowym pobieraniem

  • Podstawy ingestowania i czarowania dokumentów
  • Zbiorniki wektorowe i embedingi (np. ChromaDB)
  • Odpowiedzi oparte na cytatach

Testowanie, debugowanie i ocena

  • Testy jednostkowe dla węzłów i ścieżek
  • Śledzenie i obserwowalność
  • Sprawdzanie jakości: faktyczność, bezpieczeństwo i determinizm

Podstawy pakowania i wdrażania

  • Konfiguracja środowiska i zarządzanie zależnościami
  • Obsługa grafów za pomocą API
  • Wersjonowanie przepływów pracy i aktualizacje w krokach

Podsumowanie i następne kroki

Wymagania

  • Zrozumienie podstawowego programowania w języku Python
  • Doświadczenie z API REST lub narzędziami CLI
  • Znałosc pojęć LLM i podstaw inżynierii promptów

Audience

  • Developers i inżynierowie oprogramowania, nowicjusze w zakresie orchestracji LLM opartych na grafach
  • Inżynierowie promptów i nowicjusze w dziedzinie AI, budujący aplikacje LLM o wielu krokach
  • Praktycy danych eksplorujący automatyzację przepływów pracy z LLM
 14 godzin

Liczba uczestników


cena netto za uczestnika

Propozycje terminów

Powiązane Kategorie