Fine-Tuning Open-Source LLMs (LLaMA, Mistral, Qwen, etc.) - Plan Szkolenia
Plan Szkolenia
- Co to są modele z otwartymi wagami i dlaczego są ważne
- Przegląd modeli LLaMA, Mistral, Qwen i innych modeli społecznościowych
- Przypadki użycia dla prywatnych, lokalnych lub bezpiecznych wdrożeń
- Instalowanie i konfigurowanie bibliotek Transformers, Datasets i PEFT
- Wybieranie odpowiedniego sprzętu do dostrajania
- Ładowanie wstępnie przeszkolonych modeli z Hugging Face lub innych repozytoriów
- Formaty zbiorów danych (dostrajanie instrukcji, dane czatu, tylko tekst)
- Tokenizacja i zarządzanie sekwencjami
- Tworzenie niestandardowych zbiorów danych i ładowaczy danych
- Standardowe pełne dostrajanie vs. parametrycznie efektywne metody
- Zastosowanie LoRA i QLoRA dla efektywnego dostrajania
- Używanie API Trainer do szybkich eksperymentów
- Ocena dostrojonych modeli za pomocą metryk generacji i dokładności
- Zarządzanie przeciążaniem, uogólnieniem i zbiorami walidacyjnymi
- Wskazówki dotyczące optymalizacji wydajności i rejestrowania
- Zapisywanie i ładowanie modeli do wnioskowania
- Wdrażanie dostrojonych modeli w bezpiecznych środowiskach korporacyjnych
- Strategie wdrażania lokalnego vs. w chmurze
- Przykłady korzystania z modeli LLaMA, Mistral i Qwen w przedsiębiorstwach
- Obsługa wielojęzycznego i specyficznego dla dziedziny dostrajania
- Dyskusja: Kompromisy między modelami otwartymi i zamkniętymi
Wymagania
- Zrozumienie duzych modeli jezykowych (LLMs) i ich architektury
- Doswiadczenie z Python i PyTorch
- Podstawowa znajomość ekosystemu Hugging Face
Widownia
- Praktycy ML
- Developeri AI
Szkolenia otwarte są realizowane w przypadku uzbierania się grupy szkoleniowej liczącej co najmniej 5 osób na dany termin.
Fine-Tuning Open-Source LLMs (LLaMA, Mistral, Qwen, etc.) - Plan Szkolenia - Booking
Fine-Tuning Open-Source LLMs (LLaMA, Mistral, Qwen, etc.) - Plan Szkolenia - Enquiry
Fine-Tuning Open-Source LLMs (LLaMA, Mistral, Qwen, etc.) - Zapytanie o Konsultacje
Zapytanie o Konsultacje
Propozycje terminów
Szkolenia Powiązane
AI Automation with n8n and LangChain
14 godzinSzkolenie na żywo prowadzone przez instruktora (na miejscu lub zdalnie) jest przeznaczone dla programistów i specjalistów IT na wszystkich poziomach umiejętności, którzy chcą zautomatyzować zadania i procesy za pomocą sztucznej inteligencji bez pisania obszernego kodu.
Pod koniec tego szkolenia uczestnicy będą mogli
- Projektować i wdrażać złożone przepływy pracy przy użyciu wizualnego interfejsu programowania n8n.
- Zintegrować możliwości AI z przepływami pracy przy użyciu LangChain.
- Tworzyć niestandardowe chatboty i wirtualnych asystentów dla różnych przypadków użycia.
- Przeprowadzać zaawansowaną analizę i przetwarzanie danych za pomocą agentów AI.
Automating Workflows with LangChain and APIs
14 godzinTo prowadzone przez instruktora szkolenie na żywo w Polsce (na miejscu lub zdalnie) jest przeznaczone dla początkujących analityków biznesowych i inżynierów automatyzacji, którzy chcą zrozumieć, jak używać LangChain i interfejsów API do automatyzacji powtarzalnych zadań i przepływów pracy.
Pod koniec tego szkolenia uczestnicy będą mogli
- Zrozumieć podstawy integracji API z LangChain.
- Zautomatyzować powtarzalne przepływy pracy przy użyciu LangChain i Python.
- Wykorzystywać LangChain do łączenia różnych interfejsów API w celu zapewnienia wydajnych procesów biznesowych.
- Tworzyć i automatyzować niestandardowe przepływy pracy przy użyciu interfejsów API i możliwości automatyzacji LangChain.
Building Conversational Agents with LangChain
14 godzinTo prowadzone przez instruktora szkolenie na żywo w Polsce (na miejscu lub zdalnie) jest przeznaczone dla średniozaawansowanych profesjonalistów, którzy chcą pogłębić swoją wiedzę na temat agentów konwersacyjnych i zastosować LangChain do rzeczywistych przypadków użycia.
Pod koniec tego szkolenia uczestnicy będą w stanie
- Zrozumieć podstawy LangChain i jego zastosowanie w budowaniu agentów konwersacyjnych.
- Rozwijać i wdrażać agentów konwersacyjnych przy użyciu LangChain.
- Zintegrować agentów konwersacyjnych z interfejsami API i usługami zewnętrznymi.
- Stosować techniki Natural Language Processing (NLP) w celu poprawy wydajności agentów konwersacyjnych.
Building Private AI Workflows with Ollama
14 godzinTo prowadzone przez instruktora szkolenie na żywo w Polsce (na miejscu lub zdalnie) jest przeznaczone dla zaawansowanych profesjonalistów, którzy chcą wdrożyć bezpieczne i wydajne przepływy pracy oparte na sztucznej inteligencji przy użyciu Ollama.
Pod koniec tego szkolenia uczestnicy będą mogli
- Wdrożyć i skonfigurować Ollama do prywatnego przetwarzania AI.
- Zintegrować modele AI z bezpiecznymi przepływami pracy w przedsiębiorstwie.
- Optymalizować wydajność AI przy jednoczesnym zachowaniu prywatności danych.
- Automatyzować procesy biznesowe za pomocą lokalnych funkcji AI.
- Zapewnienie zgodności z zasadami bezpieczeństwa i zarządzania w przedsiębiorstwie.
Deploying and Optimizing LLMs with Ollama
14 godzinTo prowadzone przez instruktora szkolenie na żywo w Polsce (na miejscu lub zdalnie) jest przeznaczone dla średniozaawansowanych profesjonalistów, którzy chcą wdrażać, optymalizować i integrować LLM przy użyciu Ollama.
Pod koniec tego szkolenia uczestnicy będą mogli
- Konfigurować i wdrażać LLM przy użyciu Ollama.
- Optymalizować modele AI pod kątem wydajności i efektywności.
- Wykorzystać akcelerację GPU w celu poprawy szybkości wnioskowania.
- Zintegrować Ollama z przepływami pracy i aplikacjami.
- Monitorowanie i utrzymywanie wydajności modeli AI w czasie.
Ethical Considerations in AI Development with LangChain
21 godzinTo prowadzone przez instruktora szkolenie na żywo w Polsce (na miejscu lub zdalnie) jest przeznaczone dla zaawansowanych badaczy sztucznej inteligencji i decydentów, którzy chcą zbadać etyczne implikacje rozwoju sztucznej inteligencji i dowiedzieć się, jak stosować wytyczne etyczne podczas tworzenia rozwiązań sztucznej inteligencji z LangChain.
Pod koniec tego szkolenia uczestnicy będą w stanie
- Zidentyfikować kluczowe kwestie etyczne w rozwoju AI z LangChain.
- Zrozumieć wpływ sztucznej inteligencji na społeczeństwo i procesy decyzyjne.
- Opracować strategie budowania sprawiedliwych i przejrzystych systemów sztucznej inteligencji.
- Wdrożyć wytyczne dotyczące etycznej sztucznej inteligencji w projektach opartych na LangChain.
Enhancing User Experience with LangChain in Web Apps
14 godzinTo prowadzone przez instruktora szkolenie na żywo w Polsce (na miejscu lub zdalnie) jest przeznaczone dla średnio zaawansowanych programistów internetowych i projektantów UX, którzy chcą wykorzystać LangChain do tworzenia intuicyjnych i przyjaznych dla użytkownika aplikacji internetowych.
Pod koniec tego szkolenia uczestnicy będą w stanie
- Zrozumieć podstawowe pojęcia LangChain i jego rolę w zwiększaniu doświadczenia użytkownika w sieci.
- Wdrażać LangChain w aplikacjach internetowych w celu tworzenia dynamicznych i responsywnych interfejsów.
- Zintegrować interfejsy API z aplikacjami internetowymi w celu poprawy interaktywności i zaangażowania użytkowników.
- Optymalizacja doświadczenia użytkownika przy użyciu zaawansowanych funkcji dostosowywania LangChain.
- Analizuj dane o zachowaniu użytkowników, aby dostosować wydajność i doświadczenie aplikacji internetowych.
Fine-Tuning Models and Large Language Models (LLMs)
14 godzinTo prowadzone przez instruktora szkolenie na żywo w Polsce (na miejscu lub zdalnie) jest przeznaczone dla średnio zaawansowanych i zaawansowanych profesjonalistów, którzy chcą dostosować wstępnie wytrenowane modele do określonych zadań i zestawów danych.
Pod koniec tego szkolenia uczestnicy będą mogli
- Zrozumieć zasady dostrajania i jego zastosowania.
- Przygotować zestawy danych do dostrajania wstępnie wytrenowanych modeli.
- Dostroić duże modele językowe (LLM) do zadań NLP.
- Optymalizować wydajność modeli i radzić sobie z typowymi wyzwaniami.
Fine-Tuning for Natural Language Processing (NLP)
21 godzinTo prowadzone przez instruktora szkolenie na żywo w Polsce (na miejscu lub zdalnie) jest przeznaczone dla średnio zaawansowanych profesjonalistów, którzy chcą ulepszyć swoje projekty NLP poprzez skuteczne dostrojenie wstępnie wytrenowanych modeli językowych.
Pod koniec tego szkolenia uczestnicy będą w stanie
- Zrozumieć podstawy dostrajania dla zadań NLP.
- Dostroić wstępnie wytrenowane modele, takie jak GPT, BERT i T5, do konkretnych zastosowań NLP.
- Optymalizacja hiperparametrów w celu poprawy wydajności modelu.
- Ocena i wdrażanie dostrojonych modeli w rzeczywistych scenariuszach.
Fine-Tuning and Customizing AI Models on Ollama
14 godzinTo prowadzone przez instruktora szkolenie na żywo w Polsce (na miejscu lub zdalnie) jest przeznaczone dla zaawansowanych profesjonalistów, którzy chcą dostroić i dostosować modele sztucznej inteligencji w Ollama w celu zwiększenia wydajności i aplikacji specyficznych dla domeny.
Pod koniec tego szkolenia uczestnicy będą mogli
- Skonfigurować wydajne środowisko do dostrajania modeli AI na Ollama.
- Przygotować zestawy danych do nadzorowanego dostrajania i uczenia się ze wzmocnieniem.
- Optymalizować modele AI pod kątem wydajności, dokładności i efektywności.
- Wdrażanie dostosowanych modeli w środowiskach produkcyjnych.
- Ocenianie ulepszeń modeli i zapewnianie solidności.
LangChain: Building AI-Powered Applications
14 godzinThis instructor-led, live training in Polsce (online or onsite) is aimed at intermediate-level developers and software engineers who wish to build AI-powered applications using the LangChain framework.
By the end of this training, participants will be able to:
- Understand the fundamentals of LangChain and its components.
- Integrate LangChain with large language models (LLMs) like GPT-4.
- Build modular AI applications using LangChain.
- Troubleshoot common issues in LangChain applications.
Integrating LangChain with Cloud Services
14 godzinTo prowadzone przez instruktora szkolenie na żywo w Polsce (na miejscu lub zdalnie) jest przeznaczone dla zaawansowanych inżynierów danych i DevOps specjalistów, którzy chcą wykorzystać możliwości LangChain, integrując go z różnymi usługami w chmurze.
Pod koniec tego szkolenia uczestnicy będą w stanie
- Zintegrować LangChain z głównymi platformami chmurowymi, takimi jak AWS, Azure i Google Cloud.
- Korzystać z interfejsów API i usług opartych na chmurze w celu ulepszenia aplikacji opartych na LangChain.
- Skalowanie i wdrażanie agentów konwersacyjnych w chmurze w celu interakcji w czasie rzeczywistym.
- Wdrażanie najlepszych praktyk w zakresie monitorowania i bezpieczeństwa w środowiskach chmurowych.
LangChain for Data Analysis and Visualization
14 godzinTo prowadzone przez instruktora szkolenie na żywo w Polsce (na miejscu lub zdalnie) jest przeznaczone dla średniozaawansowanych specjalistów ds. danych, którzy chcą wykorzystać LangChain do zwiększenia swoich możliwości analizy i wizualizacji danych.
Pod koniec tego szkolenia uczestnicy będą mogli
- Zautomatyzować pobieranie i czyszczenie danych przy użyciu LangChain.
- Przeprowadzać zaawansowaną analizę danych przy użyciu Python i LangChain.
- Tworzyć wizualizacje za pomocą Matplotlib i innych bibliotek Python zintegrowanych z LangChain.
- Wykorzystanie LangChain do generowania wniosków z analizy danych w języku naturalnym.
LangChain Fundamentals
14 godzinThis instructor-led, live training in Polsce (online or onsite) is aimed at beginner-level to intermediate-level developers and software engineers who wish to learn the core concepts and architecture of LangChain and gain the practical skills for building AI-powered applications.
By the end of this training, participants will be able to:
- Grasp the fundamental principles of LangChain.
- Set up and configure the LangChain environment.
- Understand the architecture and how LangChain interacts with large language models (LLMs).
- Develop simple applications using LangChain.
Getting Started with Ollama: Running Local AI Models
7 godzinTo prowadzone przez instruktora szkolenie na żywo w Polsce (na miejscu lub zdalnie) jest przeznaczone dla początkujących profesjonalistów, którzy chcą zainstalować, skonfigurować i używać Ollama do uruchamiania modeli AI na swoich lokalnych komputerach.
Pod koniec tego szkolenia uczestnicy będą mogli
- Zrozumieć podstawy Ollama i jego możliwości.
- Skonfigurować Ollama do uruchamiania lokalnych modeli AI.
- Wdrażać i współdziałać z LLM przy użyciu Ollama.
- Optymalizacja wydajności i wykorzystania zasobów dla obciążeń AI.
- Poznanie przypadków użycia dla lokalnych wdrożeń AI w różnych branżach.