Building Secure and Responsible LLM Applications - Plan Szkolenia
Bezpieczeństwo aplikacji LLM jest dyscypliną projektowania, budowania i utrzymywania bezpiecznych, godnych zaufania i zgodnych z polityką systemów przy użyciu dużych modeli językowych.
To prowadzone przez instruktora szkolenie na żywo (online lub stacjonarne) jest skierowane do developerów AI, architektów i menedżerów produktów na poziomie średniozaawansowanym do zaawansowanym, którzy chcą identyfikować i łagodzić ryzyko związane z aplikacjami zasilanymi przez LLM, w tym wstrzykiwanie poleceń, wyciek danych i niezfiltrowane wyjście, jednocześnie wdrażając kontrolę bezpieczeństwa, taką jak walidacja wejścia, nadzór człowieka w pętli i ograniczenia wyjścia.
Na zakończenie tego szkolenia uczestnicy będą w stanie:
- Zrozumieć podstawowe wulnerabilności systemów opartych na LLM.
- Zastosować zasady bezpiecznego projektowania w architekturze aplikacji LLM.
- Używać narzędzi, takich jak Guardrails AI i LangChain do walidacji, filtrowania i bezpieczeństwa.
- Zintegrować techniki, takie jak izolowanie, red teaming i przegląd człowieka w pętli, do produkcji gotowych do rynku.
Format kursu
- Interaktywna wykład i dyskusja.
- Wiele ćwiczeń i praktyki.
- Ręczne wdrożenie w środowisku live-lab.
Opcje dostosowania kursu
- Aby poprosić o dostosowane szkolenie dla tego kursu, skontaktuj się z nami, aby umówić.
Plan Szkolenia
- Jak buduje się, wdraża i dostępuje do LLMs za pośrednictwem API
- Kluczowe komponenty w stosach aplikacji LLM (np. wpisy, agenci, pamięć, API)
- Gdzie i jak powstają problemy z bezpieczeństwem w realnym użyciu
- Co to jest iniekcja wpisów i dlaczego jest niebezpieczna
- Scenariusze bezpośredniej i pośredniej iniekcji wpisów
- Techniki przebicia ominięcia filtrów bezpieczeństwa
- Strategie wykrywania i przeciwdziałania
- Niechciane ujawnienie danych poprzez odpowiedzi
- Wycieki PII i nieprawidłowe użycie pamięci modelu
- Projektowanie wpisów z uwzględnieniem prywatności i generacja z wzmocnionym pobieraniem (RAG)
- Używanie Guardrails AI do filtrowania i weryfikacji treści
- Definiowanie schematów i ograniczeń wyjść
- Monitorowanie i logowanie niebezpiecznych wyjść
- Gdzie i kiedy wprowadzać nadzór człowieka
- Kolejki aprobaty, progi punktowania, obsługa rezerwowego
- Kalibrowanie zaufania i rola wyjaśnialności
- Najmniejsze uprawnienia i sandboxing dla wywołań API i agentów
- Ograniczenie szybkości, ograniczenie przepustowości i wykrywanie nadużyć
- Wytrwałe łączenie z LangChain i izolacja wpisów
- Zapewnienie możliwości audytu wyjść LLM
- Podtrzymywanie śledzenia i kontroli wersji/wpisów
- Dostosowanie się do wewnętrznych polityk bezpieczeństwa i wymagań regulacyjnych
Wymagania
- Zrozumienie dużych modeli językowych i interfejsów opartych na zapyciach
- Doświadczenie w budowaniu aplikacji LLM z użyciem Python
- Znajomość integracji API i wdrożeń opartych na chmurze
Grupa docelowa
- Programiści AI
- Architekci aplikacji i rozwiązań
- Menadżerowie technologiczni produktów pracujący z narzędziami LLM
Szkolenia otwarte są realizowane w przypadku uzbierania się grupy szkoleniowej liczącej co najmniej 5 osób na dany termin.
Building Secure and Responsible LLM Applications - Plan Szkolenia - Booking
Building Secure and Responsible LLM Applications - Plan Szkolenia - Enquiry
Building Secure and Responsible LLM Applications - Zapytanie o Konsultacje
Zapytanie o Konsultacje
Propozycje terminów
Szkolenia Powiązane
Advanced LangGraph: Optimization, Debugging, and Monitoring Complex Graphs
35 godzinLangGraph is a framework for building stateful, multi-actor LLM applications as composable graphs with persistent state and control over execution.
This instructor-led, live training (online or onsite) is aimed at advanced-level AI platform engineers, DevOps for AI, and ML architects who wish to optimize, debug, monitor, and operate production-grade LangGraph systems.
By the end of this training, participants will be able to:
- Design and optimize complex LangGraph topologies for speed, cost, and scalability.
- Engineer reliability with retries, timeouts, idempotency, and checkpoint-based recovery.
- Debug and trace graph executions, inspect state, and systematically reproduce production issues.
- Instrument graphs with logs, metrics, and traces, deploy to production, and monitor SLAs and costs.
Format of the Course
- Interactive lecture and discussion.
- Lots of exercises and practice.
- Hands-on implementation in a live-lab environment.
Course Customization Options
- To request a customized training for this course, please contact us to arrange.
Advanced Ollama Model Debugging & Evaluation
35 godzinAdvanced Ollama Model Debugging & Evaluation is an in-depth course focused on diagnosing, testing, and measuring model behavior when running local or private Ollama deployments.
This instructor-led, live training (online or onsite) is aimed at advanced-level AI engineers, ML Ops professionals, and QA practitioners who wish to ensure reliability, fidelity, and operational readiness of Ollama-based models in production.
By the end of this training, participants will be able to:
- Perform systematic debugging of Ollama-hosted models and reproduce failure modes reliably.
- Design and execute robust evaluation pipelines with quantitative and qualitative metrics.
- Implement observability (logs, traces, metrics) to monitor model health and drift.
- Automate testing, validation, and regression checks integrated into CI/CD pipelines.
Format of the Course
- Interactive lecture and discussion.
- Hands-on labs and debugging exercises using Ollama deployments.
- Case studies, group troubleshooting sessions, and automation workshops.
Course Customization Options
- To request a customized training for this course, please contact us to arrange.
Tworzenie prywatnych przepływów pracy AI z Ollama
14 godzinTen prowadzony przez instruktora kurs na żywo w Polsce (online lub na miejscu) jest skierowany do profesjonalistów na zaawansowanym poziomie, którzy chcą wdrożyć bezpieczne i efektywne przepływy pracy oparte na sztucznej inteligencji za pomocą Ollama.
Na zakończenie tego szkolenia uczestnicy będą w stanie:
- Wdrożyć i skonfigurować Ollama do prywatnej obróbki sztucznej inteligencji.
- Integrować modele sztucznej inteligencji w bezpieczne przepływy pracy w przedsiębiorstwie.
- Optymalizować wydajność sztucznej inteligencji przy zachowaniu prywatności danych.
- Automatyzować procesy biznesowe przy użyciu możliwości sztucznej inteligencji na miejscu.
- Zapewnić zgodność z politykami bezpieczeństwa i zarządzania przedsiębiorstwa.
Claude AI dla Programistów: Budowanie Aplikacji Zasilanych Sztuczną Inteligencją
14 godzinTo prowadzone przez instruktora szkolenie na żywo w Polsce (na miejscu lub zdalnie) jest przeznaczone dla średnio zaawansowanych programistów i inżynierów AI, którzy chcą zintegrować Claude AI ze swoimi aplikacjami, budować chatboty oparte na AI i zwiększać funkcjonalność oprogramowania dzięki automatyzacji opartej na AI.
Pod koniec tego szkolenia uczestnicy będą mogli
- Korzystać z interfejsu API Claude AI w celu zintegrowania sztucznej inteligencji z aplikacjami.
- Rozwijać chatboty i wirtualnych asystentów opartych na sztucznej inteligencji.
- Ulepszać aplikacje za pomocą automatyzacji opartej na sztucznej inteligencji i NLP.
- Optymalizować i dostrajać modele Claude AI dla różnych przypadków użycia.
Claude AI dla Automatyzacji Przepływu Pracy i Produktywności
14 godzinTo prowadzone przez instruktora szkolenie na żywo w Polsce (na miejscu lub zdalnie) jest przeznaczone dla początkujących profesjonalistów, którzy chcą zintegrować Claude AI ze swoimi codziennymi przepływami pracy, aby poprawić wydajność i automatyzację.
Pod koniec tego szkolenia uczestnicy będą mogli
- Używać Claude AI do automatyzacji powtarzalnych zadań i usprawniania przepływów pracy.
- Zwiększyć produktywność osobistą i zespołową za pomocą automatyzacji opartej na sztucznej inteligencji.
- Zintegrować Claude AI z istniejącymi narzędziami i platformami biznesowymi.
- Zoptymalizować podejmowanie decyzji i zarządzanie zadaniami w oparciu o sztuczną inteligencję.
Wdrażanie i optymalizowanie dużych modeli językowych z użyciem Ollamy
14 godzinTo prowadzone przez instruktora szkolenie na żywo w Polsce (na miejscu lub zdalnie) jest przeznaczone dla średniozaawansowanych profesjonalistów, którzy chcą wdrażać, optymalizować i integrować LLM przy użyciu Ollama.
Pod koniec tego szkolenia uczestnicy będą mogli
- Konfigurować i wdrażać LLM przy użyciu Ollama.
- Optymalizować modele AI pod kątem wydajności i efektywności.
- Wykorzystać akcelerację GPU w celu poprawy szybkości wnioskowania.
- Zintegrować Ollama z przepływami pracy i aplikacjami.
- Monitorowanie i utrzymywanie wydajności modeli AI w czasie.
Fine-Tuning i Dostosowywanie modeli AI na Ollama.
14 godzinTo ten szkolenie prowadzone przez instruktora (online lub stacjonarne) skierowane jest do zaawansowanych profesjonalistów, którzy chcą dostosowywać i personalizować modele AI na Ollama w celu poprawy wydajności i aplikacji specyficznych dla danego dziedziny.
Po zakończeniu tego szkolenia uczestnicy będą w stanie:
- Ustawić efektywne środowisko do dostosowywania modeli AI na Ollama.
- Przygotować zestawy danych do nadzorowanego dostosowywania i uczenia wzmacniającego.
- Optymalizować modele AI pod kątem wydajności, dokładności i efektywności.
- Wdrożyć spersonalizowane modele w środowiskach produkcyjnych.
- Ocenić poprawy modeli i zapewnić ich niezawodność.
Wprowadzenie do Claude AI: Conversational AI i Business Aplikacje
14 godzinTo prowadzone przez instruktora szkolenie na żywo w Polsce (na miejscu lub zdalnie) jest przeznaczone dla początkujących profesjonalistów biznesowych, zespołów obsługi klienta i entuzjastów technologii, którzy chcą zrozumieć podstawy Claude AI i wykorzystać ją w aplikacjach biznesowych.
Pod koniec tego szkolenia uczestnicy będą w stanie
- Zrozumieć możliwości i przypadki użycia Claude AI.
- Skutecznie skonfigurować i współdziałać z Claude AI.
- Zautomatyzować biznesowe przepływy pracy za pomocą konwersacyjnej sztucznej inteligencji.
- Zwiększyć zaangażowanie klientów i wsparcie za pomocą rozwiązań opartych na sztucznej inteligencji.
LangGraph Applications in Finance
35 godzinLangGraph is a framework for building stateful, multi-actor LLM applications as composable graphs with persistent state and control over execution.
This instructor-led, live training (online or onsite) is aimed at intermediate-level to advanced-level professionals who wish to design, implement, and operate LangGraph-based finance solutions with proper governance, observability, and compliance.
By the end of this training, participants will be able to:
- Design finance-specific LangGraph workflows aligned to regulatory and audit requirements.
- Integrate financial data standards and ontologies into graph state and tooling.
- Implement reliability, safety, and human-in-the-loop controls for critical processes.
- Deploy, monitor, and optimize LangGraph systems for performance, cost, and SLAs.
Format of the Course
- Interactive lecture and discussion.
- Lots of exercises and practice.
- Hands-on implementation in a live-lab environment.
Course Customization Options
- To request a customized training for this course, please contact us to arrange.
LangGraph Foundations: Graph-Based LLM Prompting and Chaining
14 godzinLangGraph is a framework for building graph-structured LLM applications that support planning, branching, tool use, memory, and controllable execution.
This instructor-led, live training (online or onsite) is aimed at beginner-level developers, prompt engineers, and data practitioners who wish to design and build reliable, multi-step LLM workflows using LangGraph.
By the end of this training, participants will be able to:
- Explain core LangGraph concepts (nodes, edges, state) and when to use them.
- Build prompt chains that branch, call tools, and maintain memory.
- Integrate retrieval and external APIs into graph workflows.
- Test, debug, and evaluate LangGraph apps for reliability and safety.
Format of the Course
- Interactive lecture and facilitated discussion.
- Guided labs and code walkthroughs in a sandbox environment.
- Scenario-based exercises on design, testing, and evaluation.
Course Customization Options
- To request a customized training for this course, please contact us to arrange.
LangGraph in Healthcare: Workflow Orchestration for Regulated Environments
35 godzinLangGraph enables stateful, multi-actor workflows powered by LLMs with precise control over execution paths and state persistence. In healthcare, these capabilities are crucial for compliance, interoperability, and building decision-support systems that align with medical workflows.
This instructor-led, live training (online or onsite) is aimed at intermediate-level to advanced-level professionals who wish to design, implement, and manage LangGraph-based healthcare solutions while addressing regulatory, ethical, and operational challenges.
By the end of this training, participants will be able to:
- Design healthcare-specific LangGraph workflows with compliance and auditability in mind.
- Integrate LangGraph applications with medical ontologies and standards (FHIR, SNOMED CT, ICD).
- Apply best practices for reliability, traceability, and explainability in sensitive environments.
- Deploy, monitor, and validate LangGraph applications in healthcare production settings.
Format of the Course
- Interactive lecture and discussion.
- Hands-on exercises with real-world case studies.
- Implementation practice in a live-lab environment.
Course Customization Options
- To request a customized training for this course, please contact us to arrange.
LangGraph for Legal Applications
35 godzinLangGraph is a framework for building stateful, multi-actor LLM applications as composable graphs with persistent state and precise control over execution.
This instructor-led, live training (online or onsite) is aimed at intermediate-level to advanced-level professionals who wish to design, implement, and operate LangGraph-based legal solutions with the necessary compliance, traceability, and governance controls.
By the end of this training, participants will be able to:
- Design legal-specific LangGraph workflows that preserve auditability and compliance.
- Integrate legal ontologies and document standards into graph state and processing.
- Implement guardrails, human-in-the-loop approvals, and traceable decision paths.
- Deploy, monitor, and maintain LangGraph services in production with observability and cost controls.
Format of the Course
- Interactive lecture and discussion.
- Lots of exercises and practice.
- Hands-on implementation in a live-lab environment.
Course Customization Options
- To request a customized training for this course, please contact us to arrange.
Building Dynamic Workflows with LangGraph and LLM Agents
14 godzinLangGraph is a framework for composing graph-structured LLM workflows that support branching, tool use, memory, and controllable execution.
This instructor-led, live training (online or onsite) is aimed at intermediate-level engineers and product teams who wish to combine LangGraph’s graph logic with LLM agent loops to build dynamic, context-aware applications such as customer support agents, decision trees, and information retrieval systems.
By the end of this training, participants will be able to:
- Design graph-based workflows that coordinate LLM agents, tools, and memory.
- Implement conditional routing, retries, and fallbacks for robust execution.
- Integrate retrieval, APIs, and structured outputs into agent loops.
- Evaluate, monitor, and harden agent behavior for reliability and safety.
Format of the Course
- Interactive lecture and facilitated discussion.
- Guided labs and code walkthroughs in a sandbox environment.
- Scenario-based design exercises and peer reviews.
Course Customization Options
- To request a customized training for this course, please contact us to arrange.
LangGraph for Marketing Automation
14 godzinLangGraph is a graph-based orchestration framework that enables conditional, multi-step LLM and tool workflows, ideal for automating and personalizing content pipelines.
This instructor-led, live training (online or onsite) is aimed at intermediate-level marketers, content strategists, and automation developers who wish to implement dynamic, branching email campaigns and content generation pipelines using LangGraph.
By the end of this training, participants will be able to:
- Design graph-structured content and email workflows with conditional logic.
- Integrate LLMs, APIs, and data sources for automated personalization.
- Manage state, memory, and context across multi-step campaigns.
- Evaluate, monitor, and optimize workflow performance and delivery outcomes.
Format of the Course
- Interactive lectures and group discussions.
- Hands-on labs implementing email workflows and content pipelines.
- Scenario-based exercises on personalization, segmentation, and branching logic.
Course Customization Options
- To request a customized training for this course, please contact us to arrange.
Pierwsze kroki z Ollama: Uruchamianie lokalnych modeli AI
7 godzinTo szkolenie prowadzone przez instruktora (online lub na miejscu) jest przeznaczone dla początkujących profesjonalistów, którzy chcą zainstalować, skonfigurować i używać Ollama do uruchamiania modeli AI na swoich lokalnych maszynach.
Po ukończeniu tego szkolenia uczestnicy będą w stanie:
- Zrozumieć podstawy Ollama i jego możliwości.
- Skonfigurować Ollama do uruchamiania lokalnych modeli AI.
- Wdrożyć i interagować z modelami LLM za pomocą Ollama.
- Optymalizować wydajność i zużycie zasobów dla obciążeń AI.
- Badanie przypadków użycia wdrażania lokalnego AI w różnych branżach.