Wprowadzenie do Dużych Modeli Językowych (LLMs) - Plan Szkolenia
Large Language Models (LLMs) to modele głębokich sieci neuronowych, które mogą generować teksty w języku naturalnym na podstawie danych wejściowych lub kontekstu. Są one trenowane na dużych ilościach danych tekstowych z różnych dziedzin i źródeł i mogą uchwycić wzorce składniowe i semantyczne języka naturalnego. LLM osiągnęły imponujące wyniki w różnych zadaniach związanych z językiem naturalnym, takich jak podsumowywanie tekstu, odpowiadanie na pytania, generowanie tekstu i inne.
To prowadzone przez instruktora szkolenie na żywo (na miejscu lub zdalnie) jest przeznaczone dla początkujących i średnio zaawansowanych programistów, którzy chcą korzystać z dużych modeli językowych do różnych zadań związanych z językiem naturalnym.
Pod koniec tego szkolenia uczestnicy będą mogli
- Skonfigurować środowisko programistyczne zawierające popularny LLM.
- Stworzyć podstawowy LLM i dostroić go na niestandardowym zestawie danych.
- Używać LLM do różnych zadań związanych z językiem naturalnym, takich jak podsumowywanie tekstu, odpowiadanie na pytania, generowanie tekstu i inne.
- Debuguj i oceniaj LLM za pomocą narzędzi takich jak TensorBoard, PyTorch Lightning i Hugging Face Datasets.
Format kursu
- Interaktywny wykład i dyskusja.
- Wiele ćwiczeń i praktyki.
- Praktyczne wdrożenie w środowisku laboratoryjnym na żywo.
Opcje dostosowywania kursu
- Aby poprosić o spersonalizowane szkolenie dla tego kursu, skontaktuj się z nami w celu ustalenia szczegółów.
Plan Szkolenia
Wprowadzenie
- Czym są Large Language Models (LLMs)?
- LLM a tradycyjne modele NLP
- Przegląd funkcji i architektury LLM
- Wyzwania i ograniczenia modeli LLM
Zrozumienie modeli LLM
- Cykl życia modelu LLM
- Jak działa LLM
- Główne komponenty LLM: koder, dekoder, uwaga, osadzanie itp.
Pierwsze kroki
- Konfiguracja środowiska programistycznego
- Instalowanie LLM jako narzędzia programistycznego, np. Go ogle Colab, Hugging Face
Praca z LLM
- Eksplorowanie dostępnych opcji LLM
- Tworzenie i używanie LLM
- Dostrajanie LLM na niestandardowym zestawie danych
Podsumowanie tekstu
- Zrozumienie zadania podsumowywania tekstu i jego zastosowań
- Używanie LLM do ekstrakcyjnego i abstrakcyjnego podsumowywania tekstu
- Ocena jakości wygenerowanych podsumowań przy użyciu wskaźników takich jak ROUGE, BLEU itp.
Odpowiadanie na pytania
- Zrozumienie zadania odpowiadania na pytania i jego zastosowań
- Wykorzystanie LLM do odpowiadania na pytania w domenie otwartej i zamkniętej
- Ocena dokładności wygenerowanych odpowiedzi przy użyciu wskaźników takich jak F1, EM itp.
Generowanie tekstu
- Zrozumienie zadania generowania tekstu i jego zastosowań
- Wykorzystanie LLM do warunkowego i bezwarunkowego generowania tekstu
- Kontrolowanie stylu, tonu i treści generowanych tekstów przy użyciu parametrów takich jak temperatura, top-k, top-p itp.
Integracja LLM z innymi frameworkami i platformami
- Używanie LLM z PyTorch lub TensorFlow
- Używanie LLM z Flask lub Streamlit
- Używanie LLM z Google Cloud lub AWS
Rozwiązywanie problemów
- Zrozumienie typowych błędów i usterek w LLM
- Używanie TensorBoard do monitorowania i wizualizacji procesu uczenia
- Korzystanie z PyTorch Lightning w celu uproszczenia kodu szkoleniowego i poprawy wydajności
- Używanie Hugging Face Datasets do ładowania i wstępnego przetwarzania danych
Podsumowanie i kolejne kroki
Wymagania
- Zrozumienie przetwarzania języka naturalnego i głębokiego uczenia się
- Doświadczenie z Python i PyTorch lub TensorFlow
- Podstawowe doświadczenie w programowaniu
Uczestnicy
- Programiści
- Entuzjaści NLP
- Naukowcy zajmujący się danymi
Szkolenia otwarte są realizowane w przypadku uzbierania się grupy szkoleniowej liczącej co najmniej 5 osób na dany termin.
Wprowadzenie do Dużych Modeli Językowych (LLMs) - Plan Szkolenia - Booking
Wprowadzenie do Dużych Modeli Językowych (LLMs) - Plan Szkolenia - Enquiry
Wprowadzenie do Dużych Modeli Językowych (LLMs) - Zapytanie o Konsultacje
Zapytanie o Konsultacje
Propozycje terminów
Szkolenia Powiązane
Advanced LangGraph: Optymalizacja, Debugowanie i Monitorowanie Złożonych Grafów
35 godzinLangGraph jest ramą do budowy aplikacji z wieloma aktorami o stanie, jako skomponowanych grafów z trwałym stanem i kontrolą nad wykonaniem.
To prowadzone przez instruktora, żywe szkolenie (online lub na miejscu) skierowane jest do zaawansowanych inżynierów platform AI, DevOps dla AI i architektów ML, którzy chcą optymalizować, debugować, monitorować i zarządzać systemami LangGraph w produkcji.
Po ukończeniu tego szkolenia uczestnicy będą w stanie:
- Projektować i optymalizować złożone topologie LangGraph pod względem prędkości, kosztów i skalowalności.
- Inżynierować niezawodność za pomocą powtórzeń, timeoutów, idempotencji i odzyskiwania opartego na punktach kontrolnych.
- Debugować i śledzić wykonanie grafów, sprawdzać stan i systematycznie odtwarzać problemy produkcji.
- Instrumentować grafy logami, metrykami i śladami, wdrażać do produkcji i monitorować SLA i koszty.
Format kursu
- Interaktywna wykład i dyskusja.
- Wiele ćwiczeń i praktyki.
- Ręczne wdrażanie w środowisku labolatorium online.
Opcje dostosowania kursu
- Aby złożyć wniosek o dostosowane szkolenie dla tego kursu, prosimy o kontakt z nami w celu uzgodnienia.
Zaawansowane diagnozowanie, testowanie i ocenianie modeli Ollama
35 godzinZaawansowane diagnostykowanie i ocena modeli Ollama jest kursem skierowanym na diagnostykowanie, testowanie i pomiar zachowania modeli podczas uruchamiania lokalnych lub prywatnych wdrożeń Ollama.
To prowadzony przez instruktora, żywe szkolenie (online lub stacjonarne) skierowane do zaawansowanych inżynierów AI, profesjonalistów ML Ops oraz praktyków QA, którzy chcą zapewnić niezawodność, wierność oraz gotowość operacyjną modeli Ollama w środowisku produkcyjnym.
Na zakończenie tego szkolenia uczestnicy będą w stanie:
- Wykonywać systematyczne diagnostykowanie modeli hostowanych przez Ollama i powtarzalne reprodukowanie trybów awarii.
- Projektować i wykonywać odporne na awarie linie oceny z metrykami ilościowymi i jakościowymi.
- Wdrażać obserwowalność (logi, ślady, metryki) w celu monitorowania stanu zdrowia modeli i ich drifta.
- Automatyzować testowanie, walidację i sprawdzanie regresji w ramach integrowanych z CI/CD procesów.
Format kursu
- Interaktywna wykład i dyskusja.
- Praktyczne laboratoria i ćwiczenia diagnostyczne z użyciem wdrożeń Ollama.
- Studia przypadków, grupowe sesje rozwiązywania problemów oraz warsztaty automatyzacji.
Opcje dostosowania kursu
- Aby zapytać o dostosowany kurs szkoleniowy, skontaktuj się z nami w celu umówienia.
Tworzenie prywatnych przepływów pracy AI z Ollama
14 godzinTen prowadzony przez instruktora kurs na żywo w Polsce (online lub na miejscu) jest skierowany do profesjonalistów na zaawansowanym poziomie, którzy chcą wdrożyć bezpieczne i efektywne przepływy pracy oparte na sztucznej inteligencji za pomocą Ollama.
Na zakończenie tego szkolenia uczestnicy będą w stanie:
- Wdrożyć i skonfigurować Ollama do prywatnej obróbki sztucznej inteligencji.
- Integrować modele sztucznej inteligencji w bezpieczne przepływy pracy w przedsiębiorstwie.
- Optymalizować wydajność sztucznej inteligencji przy zachowaniu prywatności danych.
- Automatyzować procesy biznesowe przy użyciu możliwości sztucznej inteligencji na miejscu.
- Zapewnić zgodność z politykami bezpieczeństwa i zarządzania przedsiębiorstwa.
Wdrażanie i optymalizowanie dużych modeli językowych z użyciem Ollamy
14 godzinTo prowadzone przez instruktora szkolenie na żywo w Polsce (na miejscu lub zdalnie) jest przeznaczone dla średniozaawansowanych profesjonalistów, którzy chcą wdrażać, optymalizować i integrować LLM przy użyciu Ollama.
Pod koniec tego szkolenia uczestnicy będą mogli
- Konfigurować i wdrażać LLM przy użyciu Ollama.
- Optymalizować modele AI pod kątem wydajności i efektywności.
- Wykorzystać akcelerację GPU w celu poprawy szybkości wnioskowania.
- Zintegrować Ollama z przepływami pracy i aplikacjami.
- Monitorowanie i utrzymywanie wydajności modeli AI w czasie.
Fine-Tuning i Dostosowywanie modeli AI na Ollama.
14 godzinTo ten szkolenie prowadzone przez instruktora (online lub stacjonarne) skierowane jest do zaawansowanych profesjonalistów, którzy chcą dostosowywać i personalizować modele AI na Ollama w celu poprawy wydajności i aplikacji specyficznych dla danego dziedziny.
Po zakończeniu tego szkolenia uczestnicy będą w stanie:
- Ustawić efektywne środowisko do dostosowywania modeli AI na Ollama.
- Przygotować zestawy danych do nadzorowanego dostosowywania i uczenia wzmacniającego.
- Optymalizować modele AI pod kątem wydajności, dokładności i efektywności.
- Wdrożyć spersonalizowane modele w środowiskach produkcyjnych.
- Ocenić poprawy modeli i zapewnić ich niezawodność.
Aplikacje LangGraph w Finansach
35 godzinLangGraph to ramka służąca do budowy aplikacji LLM o stanie, wieloaktorowych jako kompozycyjnych grafów ze stałym stanem i kontrolą nad wykonaniem.
To szkolenie prowadzone przez instruktora (online lub stacjonarne) jest skierowane do profesjonalistów na poziomie średniozaawansowanym do zaawansowanym, którzy chcą zaprojektować, wdrożyć i zarządzać rozwiązaniami finansowymi opartymi na LangGraph z właściwą rządząca, obserwowalnością i zgodnością.
Na zakończenie tego szkolenia uczestnicy będą w stanie:
- Projektować specyficzne dla finansów przepływy pracy LangGraph zgodne z wymaganiami regulacyjnymi i audytowymi.
- Integrować standardy i ontologie danych finansowych do stanu grafu i narzędzi.
- Wdrażać mechanizmy niezawodności, bezpieczeństwa i kontroli człowiek-w-pętli dla krytycznych procesów.
- Wdrażać, monitorować i optymalizować systemy LangGraph pod kątem wydajności, kosztów i SLA.
Format kursu
- Interaktywne wykłady i dyskusje.
- Wieloćwiczeniowe i praktyczne zajęcia.
- Ręczne wdrażanie w środowisku live-lab.
Opcje dostosowania kursu
- Aby złożyć wniosek o dostosowane szkolenie dla tego kursu, skontaktuj się z nami w celu ustalenia szczegółów.
LangGraph Foundations: Graph-Based LLM Prompting and Chaining
14 godzinLangGraph to framework do budowy aplikacji opartego na grafie modeli językowych dużej skalowości (LLM), które wspierają planowanie, rozgałęzienie, używanie narzędzi, pamięć oraz kontrolowane wykonywanie.
Ten prowadzony przez instruktora kurs (online lub stacjonarnie) jest skierowany do początkujących developerów, inżynierów promptów oraz praktyków danych, którzy chcą zaprojektować i zbudować niezawodne, wieloetapowe przepływy pracy modeli językowych dużej skalności z użyciem LangGraph.
Na zakończenie tego kursu uczestnicy będą w stanie:
- Wyjaśnić podstawowe koncepcje LangGraph (węzły, krawędzie, stan) oraz kiedy ich używać.
- Budować łańcuchy promptów, które rozgałęziają się, wywołują narzędzia oraz utrzymują pamięć.
- Integrować odzyskiwanie i zewnętrzne API z przepływami grafu.
- Testować, debugować i oceniać aplikacje LangGraph pod kątem niezawodności i bezpieczeństwa.
Format kursu
- Interaktywne wykłady i prowadzone dyskusje.
- Przewodowane laboratoria i przechadzki po kodzie w środowisku piaskownicy.
- Ćwiczenia oparte na scenariuszach dotyczące projektowania, testowania i oceny.
Opcje dostosowywania kursu
- Aby poprosić o dostosowany kurs dla tego kursu, prosimy o kontakt z nami w celu ustalenia.
LangGraph w Opiece Zdrowotnej: Orchestracja Przepływów Pracy dla Zaregulowanych Środowisk
35 godzinLangGraph umożliwia stanowe, wieloaktorowe przepływy pracy napędzane przez LLMs z precyzyjną kontrolą ścieżek wykonania i utrzymaniem stanu. W opiece zdrowotnej te możliwości są kluczowe dla zgodności, interoperacyjności i budowy systemów wspomagających podejmowanie decyzji, które są zgodne z medycznymi przepływami pracy.
To szkolenie prowadzone przez instruktora (online lub stacjonarne) jest przeznaczone dla profesjonalistów o poziomie zaawansowanym, którzy chcą zaprojektować, wdrożyć i zarządzać rozwiązaniami opartymi na LangGraph w opiece zdrowotnej, jednocześnie rozwiązując wyzwania związane z regulacjami, etyką i operacjami.
Po zakończeniu tego szkolenia uczestnicy będą mogli:
- Projektować specyficzne dla opieki zdrowotnej przepływy pracy LangGraph z uwzględnieniem zgodności i możliwości audytu.
- Integrować aplikacje LangGraph z medycznymi ontologiami i standardami (FHIR, SNOMED CT, ICD).
- Stosować najlepsze praktyki dla niezawodności, śledzenia i wyjaśniania w wrażliwych środowiskach.
- Wdrażać, monitorować i walidować aplikacje LangGraph w środowiskach produkcyjnych w opiece zdrowotnej.
Format kursu
- Interaktywne wykłady i dyskusje.
- Ćwiczenia praktyczne z przypadkami z życia rzeczywistego.
- Praktyka implementacji w środowisku live-lab.
Opcje dostosowania kursu
- Aby złożyć wniosek o dostosowane szkolenie dla tego kursu, skontaktuj się z nami w celu uzgodnień.
LangGraph dla Aplikacji Prawnych
35 godzinLangGraph to framework do tworzenia aplikacji LLM z wieloma aktorami i stanami, które mogą być tworzone jako złożone grafy z persystencyjnym stanem i precyjnym sterowaniem wykonaniem.
To szkolenie prowadzone przez instruktora (online lub na miejscu) jest skierowane do profesjonalistów na poziomie średnim do zaawansowanym, którzy chcą projektować, wdrażać i obsługiwać rozwiązania oparte na LangGraph w dziedzinie prawa z odpowiednimi środkami zgodności, śledzenia i zarządzania.
Na zakończenie tego szkolenia uczestnicy będą w stanie:
- Projektować specjalistyczne dla prawa przepływy pracy w LangGraph, które zachowują możliwość audytu i zgodność.
- Integrować ontologie prawnicze i standardy dokumentów do stanu grafu i przetwarzania.
- Wdrażać ograniczenia, zatwierdzania z udziałem człowieka i śledzalne ścieżki decyzji.
- Wdrażać, monitorować i utrzymywać usługi LangGraph w produkcji z obserwabilnością i kontrolą kosztów.
Format kursu
- Interaktywna wykład i dyskusja.
- Wiele ćwiczeń i praktyki.
- Praktyczna implementacja w żywym środowisku laboratoryjnym.
Opcje dostosowania kursu
- Aby zażądać dostosowanego szkolenia dla tego kursu, prosimy o kontakt z nami w celu uregulowania.
Budowanie dynamicznych przepływów pracy z LangGraph i agentami LLM
14 godzinLangGraph to framework do tworzenia przepływów pracy o strukturze grafu LLM, który obsługuje rozgałęzianie, użycie narzędzi, pamięć i kontrolowane wykonywanie.
To szkolenie prowadzone przez instruktora (online lub stacjonarnie) jest skierowane do inżynierów i zespołów produktowych na poziomie średnim, którzy chcą połączyć logikę grafu LangGraph z pętlami agentów LLM, aby tworzyć dynamiczne, świadome kontekstu aplikacje, takie jak agenci wsparcia klienta, drzewa decyzji i systemy odzyskiwania informacji.
Po zakończeniu tego szkolenia uczestnicy będą mogli:
- Projektować przepływy pracy oparte na grafach, które koordynują agentów LLM, narzędzia i pamięć.
- Wdrażać warunkowe trasowanie, powtórzenia i zapasowe ścieżki dla solidnego wykonywania.
- Integrować odzyskiwanie, API i wyjścia strukturalne w pętle agentów.
- Ocena, monitorowanie i zabezpieczanie zachowania agentów dla niezawodności i bezpieczeństwa.
Format kursu
- Interaktywne wykłady i prowadzone dyskusje.
- Przewodnikowe laboratoria i przejście przez kod w środowisku sandbox.
- Ćwiczenia projektowe oparte na scenariuszach i przegląd parowy.
Opcje dostosowania kursu
- Aby poprosić o dostosowane szkolenie dla tego kursu, skontaktuj się z nami w celu uregulowania.
LangGraph for Marketing Automation
14 godzinLangGraph jest frameworkiem orchestracji opartym na grafach, który umożliwia warunkowe, wieloetapowe przepływy LLM i narzędzi, idealne do automatyzacji i personalizacji kanałów treści.
To szkolenie prowadzone przez instruktora (online lub stacjonarne) jest skierowane do marketerów, strategów treści i deweloperów automatyzacji na poziomie średniozaawansowanym, którzy chcą wdrożyć dynamiczne, rozgałęzione kampanie emailowe i kanały generowania treści za pomocą LangGraph.
Na zakończenie tego szkolenia uczestnicy będą w stanie:
- Projektować strukturę grafu dla treści i przepływów emailowych z logiką warunkową.
- Integrować LLMs, API i źródła danych dla automatycznej personalizacji.
- Zarządzać stanem, pamięcią i kontekstem w wieloetapowych kampaniach.
- Oceniać, monitorować i optymalizować wydajność przepływów i wyniki dostarczania.
Format szkolenia
- Interaktywne wykłady i dyskusje grupowe.
- Praktyczne laboratoria wdrażające przepływy emailowe i kanały treści.
- Ćwiczenia scenariuszowe dotyczące personalizacji, segmentacji i logiki rozgałęzienia.
Opcje dostosowania kursu
- Aby złożyć wniosek o dostosowane szkolenie dla tego kursu, skontaktuj się z nami w celu uregulowania szczegółów.
Aplikacje Multimodalne z Ollama
21 godzinOllama to platforma, która umożliwia uruchamianie i dostrajanie dużych modeli językowych i multimodalnych lokalnie.
To szkolenie prowadzone przez instruktora (online lub na miejscu) jest skierowane do zaawansowanych inżynierów ML, badaczy AI i producentów, którzy chcą budować i wdrażać aplikacje multimodalne z Ollama.
Na koniec tego szkolenia uczestnicy będą mogli:
- Konfigurować i uruchamiać modele multimodalne z Ollama.
- Integrować wejścia tekstowe, obrazowe i dźwiękowe dla aplikacji rzeczywistych.
- Budować systemy rozumienia dokumentów i wizualnych systemów odpowiedzi na pytania.
- Rozwijanie multimodalnych agentów zdolnych do rozumowania w różnych modalnościach.
Format kursu
- Interaktywne wykłady i dyskusje.
- Praktyka z prawdziwymi zbiormi multimodalnymi.
- Wdrożenie na żywo pipeline multimodalnych za pomocą Ollama.
Opcje dostosowania kursu
- Aby zapytać o dostosowane szkolenie dla tego kursu, skontaktuj się z nami, aby ustalić.
Pierwsze kroki z Ollama: Uruchamianie lokalnych modeli AI
7 godzinTo szkolenie prowadzone przez instruktora (online lub na miejscu) jest przeznaczone dla początkujących profesjonalistów, którzy chcą zainstalować, skonfigurować i używać Ollama do uruchamiania modeli AI na swoich lokalnych maszynach.
Po ukończeniu tego szkolenia uczestnicy będą w stanie:
- Zrozumieć podstawy Ollama i jego możliwości.
- Skonfigurować Ollama do uruchamiania lokalnych modeli AI.
- Wdrożyć i interagować z modelami LLM za pomocą Ollama.
- Optymalizować wydajność i zużycie zasobów dla obciążeń AI.
- Badanie przypadków użycia wdrażania lokalnego AI w różnych branżach.
Ollama Scaling & Infrastructure Optimization
21 godzinOllama jest platformą do uruchamiania dużych modeli językowych i multimodalnych lokalnie i w dużą skalę.
To szkolenie prowadzone przez instruktora (online lub na miejscu) jest skierowane do inżynierów na poziomie średniozaawansowanym do zaawansowanym, którzy chcą skalować wdrożenia Ollamy w środowiskach wieloużytkownikowych, o wysokiej przepustowości i efektywnych kosztowo.
Po zakończeniu tego szkolenia uczestnicy będą w stanie:
- Konfigurować Ollamę dla wieloużytkowników i rozproszonych obciążeń.
- Optymalizować alokację zasobów GPU i CPU.
- Wdrażać strategie automaicznej skalowalności, grupowania i redukcji opóźnień.
- Monitorować i optymalizować infrastrukturę pod kątem wydajności i efektywności kosztowej.
Format kursu
- Interaktywne wykłady i dyskusje.
- Praktyczne laboratoria wdrażania i skalowania.
- Praktyczne ćwiczenia optymalizacyjne w żywych środowiskach.
Opcje dostosowania kursu
- Aby poprosić o dostosowane szkolenie dla tego kursu, skontaktuj się z nami w celu ustalenia.
Prompt Engineering Mastery with Ollama
14 godzinOllama to platforma, która pozwala uruchamiać duże modele językowe i multimodalne lokalnie.
To szkolenie prowadzone przez instruktora (online lub na miejscu) jest przeznaczone dla praktyków na poziomie średnim, którzy chcą opanować techniki inżynierii wyzwalaczy, aby optymalizować wyniki Ollama.
Na koniec tego szkolenia uczestnicy będą w stanie:
- Projektować skuteczne wyzwalacze dla różnorodnych przypadków użycia.
- Zastosować techniki, takie jak przygotowanie i strukturyzowanie myśli w łańcuchu.
- Wdrażać szablony wyzwalaczy i strategie zarządzania kontekstem.
- Budować wieloetapowe pipeline wyzwalaczy dla złożonych procesów pracy.
Format kursu
- Interaktywne wykłady i dyskusje.
- Praktyczne ćwiczenia z projektowaniem wyzwalaczy.
- Praktyczna implementacja w środowisku labora- torium na żywo.
Opcje dostosowania kursu
- Aby złożyć wniosek o dostosowane szkolenie dla tego kursu, skontaktuj się z nami w celu umówienia.