Dostrajanie dużych modeli językowych przy użyciu QLoRA - Plan Szkolenia
QLoRA to zaawansowana technika dostrajania dużych modeli językowych (LLM) wykorzystująca metody kwantyzacji, oferująca bardziej efektywny sposób dostrajania tych modeli bez ponoszenia ogromnych kosztów obliczeniowych. Szkolenie to obejmie zarówno podstawy teoretyczne, jak i praktyczną implementację dostrajania LLM przy użyciu QLoRA.
Szkolenie prowadzone przez instruktora, na żywo (online lub na miejscu) skierowane jest do inżynierów uczenia maszynowego, programistów AI i naukowców zajmujących się danymi na poziomie średniozaawansowanym i zaawansowanym, którzy chcą nauczyć się, jak używać QLoRA do efektywnego dostrajania dużych modeli pod kątem konkretnych zadań i dostosowań.
Po zakończeniu szkolenia uczestnicy będą w stanie:
- Zrozumieć teorię stojącą za QLoRA i technikami kwantyzacji dla LLM.
- Zaimplementować QLoRA w dostrajaniu dużych modeli językowych dla aplikacji specyficznych dla domeny.
- Optymalizować wydajność dostrajania przy ograniczonych zasobach obliczeniowych przy użyciu kwantyzacji.
- Efektywnie wdrażać i oceniać dostrojone modele w rzeczywistych aplikacjach.
Format kursu
- Interaktywny wykład i dyskusja.
- Wiele ćwiczeń i praktyki.
- Praktyczna implementacja w środowisku live-lab.
Opcje dostosowania kursu
- Aby zamówić dostosowane szkolenie z tego kursu, prosimy o kontakt w celu uzgodnienia.
Plan Szkolenia
Wprowadzenie do QLoRA i kwantyzacji
- Przegląd kwantyzacji i jej roli w optymalizacji modeli
- Wprowadzenie do frameworka QLoRA i jego zalet
- Kluczowe różnice między QLoRA a tradycyjnymi metodami dostrajania
Podstawy dużych modeli językowych (LLM)
- Wprowadzenie do LLM i ich architektury
- Wyzwania związane z dostrajaniem dużych modeli na dużą skalę
- Jak kwantyzacja pomaga pokonać ograniczenia obliczeniowe w dostrajaniu LLM
Implementacja QLoRA do dostrajania LLM
- Konfiguracja frameworka QLoRA i środowiska
- Przygotowywanie zbiorów danych do dostrajania QLoRA
- Krok po kroku implementacja QLoRA na LLM przy użyciu Pythona i PyTorch/TensorFlow
Optymalizacja wydajności dostrajania przy użyciu QLoRA
- Jak zrównoważyć dokładność modelu i wydajność przy użyciu kwantyzacji
- Techniki redukcji kosztów obliczeniowych i zużycia pamięci podczas dostrajania
- Strategie dostrajania przy minimalnych wymaganiach sprzętowych
Ocena dostrojonych modeli
- Jak ocenić skuteczność dostrojonych modeli
- Typowe metryki oceny dla modeli językowych
- Optymalizacja wydajności modelu po dostrojeniu i rozwiązywanie problemów
Wdrażanie i skalowanie dostrojonych modeli
- Najlepsze praktyki wdrażania skwantyzowanych LLM do środowisk produkcyjnych
- Skalowanie wdrożenia do obsługi żądań w czasie rzeczywistym
- Narzędzia i frameworki do wdrażania i monitorowania modeli
Przypadki użycia i studia przypadków z rzeczywistych zastosowań
- Studium przypadku: Dostrajanie LLM do obsługi klienta i zadań NLP
- Przykłady dostrajania LLM w różnych branżach, takich jak opieka zdrowotna, finanse i e-commerce
- Lekcje wyniesione z rzeczywistych wdrożeń modeli opartych na QLoRA
Podsumowanie i kolejne kroki
Wymagania
- Zrozumienie podstaw uczenia maszynowego i sieci neuronowych
- Doświadczenie w dostrajaniu modeli i uczeniu transferowym
- Znajomość dużych modeli językowych (LLM) i frameworków do głębokiego uczenia (np. PyTorch, TensorFlow)
Grupa docelowa
- Inżynierowie uczenia maszynowego
- Programiści AI
- Naukowcy zajmujący się danymi
Szkolenia otwarte są realizowane w przypadku uzbierania się grupy szkoleniowej liczącej co najmniej 5 osób na dany termin.
Dostrajanie dużych modeli językowych przy użyciu QLoRA - Plan Szkolenia - Rezerwacja
Dostrajanie dużych modeli językowych przy użyciu QLoRA - Plan Szkolenia - Zapytanie
Dostrajanie dużych modeli językowych przy użyciu QLoRA - Zapytanie o Konsultacje
Propozycje terminów
Szkolenia Powiązane
Zaawansowany LangGraph: Optymalizacja, Debugowanie i Monitorowanie Złożonych Grafów
35 godzinLangGraph to framework do budowania stanowych, wieloaktorowych aplikacji LLM jako komponowalnych grafów z trwałym stanem i kontrolą nad wykonaniem.
To szkolenie prowadzone przez instruktora na żywo (online lub na miejscu) jest skierowane do zaawansowanych inżynierów platform AI, DevOps dla AI oraz architektów ML, którzy chcą optymalizować, debugować, monitorować i zarządzać systemami LangGraph na poziomie produkcyjnym.
Po zakończeniu szkolenia uczestnicy będą mogli:
- Projektować i optymalizować złożone topologie LangGraph pod kątem szybkości, kosztów i skalowalności.
- Zapewniać niezawodność poprzez retry, timeouty, idempotentność i odzyskiwanie oparte na checkpointach.
- Debugować i śledzić wykonania grafów, inspekcjonować stan i systematycznie odtwarzać problemy produkcyjne.
- Instrumentować grafy za pomocą logów, metryk i śladów, wdrażać do produkcji oraz monitorować SLA i koszty.
Format kursu
- Interaktywny wykład i dyskusja.
- Wiele ćwiczeń i praktyki.
- Praktyczna implementacja w środowisku live-lab.
Opcje dostosowania kursu
- Aby zamówić dostosowane szkolenie, prosimy o kontakt w celu ustalenia szczegółów.
Tworzenie agentów kodujących z Devstral: od projektowania agentów po narzędzia
14 godzinDevstral to otwartoźródłowe framework zaprojektowany do tworzenia i uruchamiania agentów kodujących, które mogą współdziałać z bazami kodu, narzędziami deweloperskimi i API w celu zwiększenia produktywności inżynierskiej.
To szkolenie prowadzone przez instruktora (online lub na miejscu) jest skierowane do inżynierów ML na poziomie średnio zaawansowanym i zaawansowanym, zespołów zajmujących się narzędziami deweloperskimi oraz SRE, którzy chcą projektować, implementować i optymalizować agentów kodujących przy użyciu Devstral.
Po zakończeniu szkolenia uczestnicy będą mogli:
- Konfigurować i dostosowywać Devstral do rozwoju agentów kodujących.
- Projektować przepływy pracy agentów do eksploracji i modyfikacji baz kodu.
- Integrować agentów kodujących z narzędziami deweloperskimi i API.
- Wdrażać najlepsze praktyki w zakresie bezpiecznego i efektywnego wdrażania agentów.
Format kursu
- Interaktywne wykłady i dyskusje.
- Wiele ćwiczeń i praktyki.
- Praktyczna implementacja w środowisku live-lab.
Opcje dostosowania kursu
- Aby zamówić dostosowane szkolenie, prosimy o kontakt w celu ustalenia szczegółów.
Open-Source Model Ops: Samodzielne hostowanie, dostrajanie i zarządzanie z modelami Devstral i Mistral
14 godzinModele Devstral i Mistral to otwartoźródłowe technologie AI zaprojektowane do elastycznego wdrażania, dostrajania i skalowalnej integracji.
To szkolenie prowadzone przez instruktora na żywo (online lub na miejscu) jest skierowane do inżynierów uczenia maszynowego, zespołów platformowych i inżynierów badawczych na poziomie średnio zaawansowanym i zaawansowanym, którzy chcą samodzielnie hostować, dostrajać i zarządzać modelami Mistral i Devstral w środowiskach produkcyjnych.
Po zakończeniu szkolenia uczestnicy będą mogli:
- Konfigurować i przygotowywać środowiska samodzielnego hostowania dla modeli Mistral i Devstral.
- Stosować techniki dostrajania w celu uzyskania wydajności dostosowanej do domeny.
- Wdrażać wersjonowanie, monitorowanie i zarządzanie cyklem życia modeli.
- Zapewniać bezpieczeństwo, zgodność i odpowiedzialne korzystanie z modeli open-source.
Format kursu
- Interaktywny wykład i dyskusja.
- Ćwiczenia praktyczne w zakresie samodzielnego hostowania i dostrajania.
- Implementacja w czasie rzeczywistym potoków zarządzania i monitorowania.
Opcje dostosowania kursu
- Aby zamówić dostosowane szkolenie, skontaktuj się z nami w celu uzgodnienia szczegółów.
Zastosowania LangGraph w Finansach
35 godzinLangGraph to framework do budowania stanowych, wieloagentowych aplikacji LLM jako komponowalnych grafów z trwałym stanem i kontrolą nad wykonaniem.
To szkolenie prowadzone przez instruktora (online lub na miejscu) jest skierowane do profesjonalistów na poziomie średniozaawansowanym i zaawansowanym, którzy chcą projektować, implementować i zarządzać rozwiązaniami opartymi na LangGraph w finansach, z zachowaniem właściwego zarządzania, obserwowalności i zgodności.
Po zakończeniu szkolenia uczestnicy będą w stanie:
- Projektować przepływy pracy LangGraph specyficzne dla finansów, zgodne z wymaganiami regulacyjnymi i audytowymi.
- Integrować standardy i ontologie danych finansowych w stan i narzędzia grafu.
- Implementować niezawodność, bezpieczeństwo i kontrolę z udziałem człowieka w kluczowych procesach.
- Wdrażaæ, monitorować i optymalizować systemy LangGraph pod kątem wydajności, kosztów i SLA.
Format kursu
- Interaktywny wykład i dyskusja.
- Wiele ćwiczeń i praktyki.
- Praktyczna implementacja w środowisku live-lab.
Opcje dostosowania kursu
- Aby zamówić dostosowane szkolenie, skontaktuj się z nami.
LangGraph Foundations: Grafowe Łańcuchy i Promptowanie LLM
14 godzinLangGraph to framework do budowania aplikacji LLM opartych na grafach, które wspierają planowanie, rozgałęzienia, korzystanie z narzędzi, pamięć oraz kontrolowane wykonanie.
To szkolenie prowadzone przez instruktora (online lub na miejscu) jest skierowane do początkujących programistów, inżynierów promptów oraz praktyków danych, którzy chcą projektować i budować niezawodne, wieloetapowe przepływy pracy LLM przy użyciu LangGraph.
Pod koniec szkolenia uczestnicy będą w stanie:
- Wyjaśnić podstawowe koncepcje LangGraph (węzły, krawędzie, stan) oraz kiedy ich używać.
- Budować łańcuchy promptów, które rozgałęziają się, wywołują narzędzia i utrzymują pamięć.
- Integrować pobieranie danych i zewnętrzne API w przepływach pracy opartych na grafach.
- Testować, debugować i oceniać aplikacje LangGraph pod kątem niezawodności i bezpieczeństwa.
Format kursu
- Interaktywny wykład i moderowana dyskusja.
- Prowadzone laboratoria i omówienie kodu w środowisku sandbox.
- Ćwiczenia oparte na scenariuszach dotyczące projektowania, testowania i oceny.
Opcje dostosowania kursu
- Aby zamówić dostosowane szkolenie, skontaktuj się z nami.
LangGraph w Ochronie Zdrowia: Orchestracja Procesów w Środowiskach Regulowanych
35 godzinLangGraph umożliwia tworzenie stanowych, wieloagentowych procesów opartych na LLM z precyzyjną kontrolą ścieżek wykonania i trwałości stanu. W ochronie zdrowia te możliwości są kluczowe dla zapewnienia zgodności, interoperacyjności oraz budowania systemów wsparcia decyzyjnego dostosowanych do medycznych procesów.
To szkolenie prowadzone przez instruktora (online lub na miejscu) jest skierowane do profesjonalistów na poziomie średnio zaawansowanym i zaawansowanym, którzy chcą projektować, wdrażać i zarządzać rozwiązaniami opartymi na LangGraph w ochronie zdrowia, uwzględniając wyzwania regulacyjne, etyczne i operacyjne.
Po zakończeniu szkolenia uczestnicy będą w stanie:
- Projektować procesy LangGraph specyficzne dla ochrony zdrowia z uwzględnieniem zgodności i możliwości audytu.
- Integrować aplikacje LangGraph z medycznymi ontologiami i standardami (FHIR, SNOMED CT, ICD).
- Stosować najlepsze praktyki w zakresie niezawodności, możliwości śledzenia i wyjaśnialności w wrażliwych środowiskach.
- Wdrażaæ, monitorować i walidować aplikacje LangGraph w środowiskach produkcyjnych w ochronie zdrowia.
Format kursu
- Interaktywny wykład i dyskusja.
- Ćwiczenia praktyczne z rzeczywistymi studiami przypadków.
- Praktyka wdrażania w środowisku live-lab.
Opcje dostosowania kursu
- Aby zamówić dostosowane szkolenie, prosimy o kontakt w celu uzgodnienia szczegółów.
LangGraph dla Aplikacji Prawniczych
35 godzinLangGraph to framework do budowania stanowych, wieloagentowych aplikacji LLM w formie komponowalnych grafów z trwałym stanem i precyzyjną kontrolą nad wykonaniem.
To szkolenie prowadzone przez instruktora (online lub na miejscu) jest skierowane do profesjonalistów na poziomie średniozaawansowanym i zaawansowanym, którzy chcą projektować, implementować i obsługiwać rozwiązania oparte na LangGraph z niezbędnymi kontrolami zgodności, śledzenia i zarządzania.
Po zakończeniu szkolenia uczestnicy będą mogli:
- Projektować przepływy pracy LangGraph specyficzne dla prawników, zachowując możliwość audytu i zgodność.
- Integrować ontologie prawne i standardy dokumentów w stan i przetwarzanie grafu.
- Implementować zabezpieczenia, zatwierdzenia z udziałem człowieka i śledzone ścieżki decyzyjne.
- Wdrażać, monitorować i utrzymywać usługi LangGraph w produkcji z możliwością obserwacji i kontroli kosztów.
Format Kursu
- Interaktywny wykład i dyskusja.
- Wiele ćwiczeń i praktyki.
- Praktyczna implementacja w środowisku live-lab.
Opcje Dostosowania Kursu
- Aby zamówić dostosowane szkolenie, skontaktuj się z nami.
Tworzenie dynamicznych przepływów pracy z LangGraph i agentami LLM
14 godzinLangGraph to framework do tworzenia grafowych przepływów pracy opartych na LLM, które wspierają rozgałęzienia, wykorzystanie narzędzi, pamięć i kontrolowaną egzekucję.
Szkolenie prowadzone przez instruktora na żywo (online lub na miejscu) jest skierowane do inżynierów i zespołów produktowych na poziomie średnio zaawansowanym, którzy chcą połączyć logikę grafów LangGraph z pętlami agentów LLM, aby budować dynamiczne, kontekstowo świadome aplikacje, takie jak agenci obsługi klienta, drzewa decyzyjne i systemy wyszukiwania informacji.
Po zakończeniu szkolenia uczestnicy będą mogli:
- Projektować przepływy pracy oparte na grafach, które koordynują agentów LLM, narzędzia i pamięć.
- Implementować warunkowe routingi, ponowne próby i zabezpieczenia dla niezawodnej egzekucji.
- Integrować wyszukiwanie, API i strukturalne wyniki w pętle agentów.
- Oceniać, monitorować i wzmacniać zachowanie agentów pod kątem niezawodności i bezpieczeństwa.
Format kursu
- Interaktywny wykład i moderowana dyskusja.
- Prowadzone laboratoria i przeglądy kodu w środowisku piaskownicy.
- Ćwiczenia projektowe oparte na scenariuszach i recenzje koleżeńskie.
Opcje dostosowania kursu
- Aby zamówić dostosowane szkolenie, skontaktuj się z nami, aby uzgodnić szczegóły.
LangGraph do Automatyzacji Marketingu
14 godzinLangGraph to framework orkiestracji oparty na grafach, który umożliwia warunkowe, wieloetapowe przepływy pracy z wykorzystaniem LLM i narzędzi, idealny do automatyzacji i personalizacji procesów tworzenia treści.
To szkolenie prowadzone przez instruktora (online lub na miejscu) jest skierowane do marketerów, strategów treści i developerów automatyzacji na poziomie średniozaawansowanym, którzy chcą wdrożyć dynamiczne, rozgałęzione kampanie e-mailowe i procesy generowania treści z wykorzystaniem LangGraph.
Po zakończeniu szkolenia uczestnicy będą mogli:
- Projektować przepływy pracy treści i e-maili oparte na grafach z logiką warunkową.
- Integrować LLM, API i źródła danych w celu automatyzacji personalizacji.
- Zarządzać stanem, pamięcią i kontekstem w wieloetapowych kampaniach.
- Oceniać, monitorować i optymalizować wydajność przepływów pracy i wyniki dostarczania.
Format Kursu
- Interaktywne wykłady i dyskusje grupowe.
- Praktyczne laboratoria wdrażające przepływy pracy e-mail i procesy treści.
- Ćwiczenia oparte na scenariuszach dotyczące personalizacji, segmentacji i logiki rozgałęzień.
Opcje Dostosowania Kursu
- Aby zamówić dostosowane szkolenie, skontaktuj się z nami.
Le Chat Enterprise: Prywatne ChatOps, Integracje i Kontrole Administracyjne
14 godzinLe Chat Enterprise to prywatne rozwiązanie ChatOps, które zapewnia bezpieczne, konfigurowalne i zarządzane możliwości konwersacyjnej sztucznej inteligencji dla organizacji, z obsługą RBAC, SSO, łączników oraz integracji z aplikacjami korporacyjnymi.
Szkolenie prowadzone przez instruktora na żywo (online lub na miejscu) jest skierowane do menedżerów produktów, liderów IT, inżynierów rozwiązań oraz zespołów ds. bezpieczeństwa i zgodności na poziomie średnio zaawansowanym, którzy chcą wdrożyć, skonfigurować i zarządzać Le Chat Enterprise w środowiskach korporacyjnych.
Po zakończeniu szkolenia uczestnicy będą mogli:
- Skonfigurować i wdrożyć Le Chat Enterprise w bezpieczny sposób.
- Włączyć RBAC, SSO oraz kontrole oparte na zgodności.
- Zintegrować Le Chat z aplikacjami korporacyjnymi i magazynami danych.
- Projektować i wdrażać playbooki zarządzania i administracji dla ChatOps.
Format kursu
- Interaktywne wykłady i dyskusje.
- Wiele ćwiczeń i praktyki.
- Praktyczna implementacja w środowisku live-lab.
Opcje dostosowania kursu
- Aby zamówić dostosowane szkolenie, skontaktuj się z nami.
Ekonomiczne Architektury LLM: Mistral na Dużą Skalę (Inżynieria Wydajności / Kosztów)
14 godzinMistral to rodzina wysokowydajnych modeli językowych zoptymalizowanych pod kątem ekonomicznego wdrożenia na dużą skalę.
To szkolenie prowadzone przez instruktora na żywo (online lub na miejscu) jest skierowane do inżynierów infrastruktury zaawansowanego poziomu, architektów chmurowych oraz liderów MLOps, którzy chcą projektować, wdrażać i optymalizować architektury oparte na Mistralu, aby osiągnąć maksymalną przepustowość przy minimalnych kosztach.
Po zakończeniu szkolenia uczestnicy będą w stanie:
- Wdrożyć skalowalne wzorce wdrożenia dla Mistral Medium 3.
- Zastosować strategie wsadowe, kwantyzacji i efektywnego serwowania.
- Optymalizować koszty wnioskowania przy zachowaniu wydajności.
- Projektować gotowe do produkcji topologie serwowania dla obciążeń przedsiębiorstw.
Format kursu
- Interaktywny wykład i dyskusja.
- Wiele ćwiczeń i praktyki.
- Praktyczna implementacja w środowisku live-lab.
Opcje dostosowania kursu
- Aby zamówić dostosowane szkolenie, skontaktuj się z nami w celu uzgodnienia szczegółów.
Produktyzacja Asystentów Konwersacyjnych z Wykorzystaniem Łączników i Integracji Mistral
14 godzinMistral AI to otwarta platforma AI, która umożliwia zespołom tworzenie i integrację asystentów konwersacyjnych w przepływach pracy przedsiębiorstw i klientów.
To szkolenie prowadzone przez instruktora, na żywo (online lub na miejscu), jest skierowane do menedżerów produktu, programistów full-stack oraz inżynierów integracji na poziomie podstawowym i średnio zaawansowanym, którzy chcą projektować, integrować i produktyzować asystentów konwersacyjnych przy użyciu łączników i integracji Mistral.
Po zakończeniu szkolenia uczestnicy będą w stanie:
- Integrować modele konwersacyjne Mistral z łącznikami przedsiębiorstw i SaaS.
- Implementować generowanie wspomagane pobieraniem (RAG) w celu udzielania uzasadnionych odpowiedzi.
- Projektować wzorce UX dla wewnętrznych i zewnętrznych asystentów czatu.
- Wdrażać asystentów w przepływach pracy produktowych dla rzeczywistych przypadków użycia.
Format kursu
- Interaktywny wykład i dyskusja.
- Ćwiczenia praktyczne z integracji.
- Tworzenie asystentów konwersacyjnych w laboratorium na żywo.
Opcje dostosowania kursu
- Aby zamówić dostosowane szkolenie dla tego kursu, prosimy o kontakt w celu ustalenia szczegółów.
Wdrożenia na skalę przedsiębiorstwa z Mistral Medium 3
14 godzinMistral Medium 3 to wysokowydajny, multimodalny duży model językowy zaprojektowany do wdrożeń produkcyjnych w środowiskach przedsiębiorstw.
To szkolenie prowadzone przez instruktora, na żywo (online lub na miejscu) jest skierowane do inżynierów AI/ML, architektów platform i zespołów MLOps na poziomie średnio zaawansowanym i zaawansowanym, którzy chcą wdrożyć, zoptymalizować i zabezpieczyć Mistral Medium 3 dla przypadków użycia w przedsiębiorstwach.
Pod koniec szkolenia uczestnicy będą w stanie:
- Wdrożyć Mistral Medium 3 przy użyciu API i opcji samodzielnego hostingu.
- Optymalizować wydajność wnioskowania i koszty.
- Implementować multimodalne przypadki użycia z Mistral Medium 3.
- Stosować najlepsze praktyki w zakresie bezpieczeństwa i zgodności dla środowisk przedsiębiorstw.
Format kursu
- Interaktywny wykład i dyskusja.
- Dużo ćwiczeń i praktyki.
- Praktyczna implementacja w środowisku live-lab.
Opcje dostosowania kursu
- Aby zamówić dostosowane szkolenie, prosimy o kontakt w celu ustalenia szczegółów.
Mistral dla Odpowiedzialnej Sztucznej Inteligencji: Prywatność, Rezydencja Danych i Kontrole Przedsiębiorstwa
14 godzinMistral AI to otwarta i gotowa na potrzeby przedsiębiorstw platforma AI, która oferuje funkcje umożliwiające bezpieczne, zgodne z przepisami i odpowiedzialne wdrażanie sztucznej inteligencji.
To szkolenie prowadzone przez instruktora, dostępne online lub na miejscu, jest skierowane do średnio zaawansowanych liderów ds. zgodności, architektów bezpieczeństwa oraz interesariuszy prawnych/operacyjnych, którzy chcą wdrożyć odpowiedzialne praktyki AI z wykorzystaniem Mistral, korzystając z mechanizmów prywatności, rezydencji danych i kontroli przedsiębiorstwa.
Po zakończeniu szkolenia uczestnicy będą mogli:
- Wdrożyć techniki zachowania prywatności w ramach wdrożeń Mistral.
- Stosować strategie rezydencji danych w celu spełnienia wymogów regulacyjnych.
- Konfigurować kontrole na poziomie przedsiębiorstwa, takie jak RBAC, SSO i dzienniki audytu.
- Oceniać opcje dostawców i wdrożeń pod kątem zgodności.
Format kursu
- Interaktywny wykład i dyskusja.
- Studia przypadków i ćwiczenia skoncentrowane na zgodności.
- Praktyczne wdrażanie kontroli AI na poziomie przedsiębiorstwa.
Opcje dostosowania kursu
- Aby zamówić spersonalizowane szkolenie, skontaktuj się z nami.
Aplikacje multimodalne z wykorzystaniem modeli Mistral (Widzenie, OCR i rozumienie dokumentów)
14 godzinModele Mistral to otwarte technologie AI, które obecnie rozszerzają się na wielomodalne przepływy pracy, wspierając zarówno zadania językowe, jak i wizyjne dla zastosowań przedsiębiorczych i badawczych.
To szkolenie prowadzone przez instruktora na żywo (online lub na miejscu) jest skierowane do badaczy ML na poziomie średniozaawansowanym, inżynierów stosowanych i zespołów produktowych, którzy chcą budować aplikacje multimodalne z wykorzystaniem modeli Mistral, w tym potoki OCR i rozumienia dokumentów.
Po zakończeniu szkolenia uczestnicy będą mogli:
- Skonfigurować modele Mistral do zadań multimodalnych.
- Zaimplementować przepływy pracy OCR i zintegrować je z potokami NLP.
- Projektować aplikacje do rozumienia dokumentów dla przypadków użycia w przedsiębiorstwach.
- Tworzyć funkcje wyszukiwania wizyjno-tekstowego oraz asystentów interfejsu użytkownika.
Format kursu
- Interaktywne wykłady i dyskusje.
- Ćwiczenia praktyczne z kodowania.
- Implementacja wielomodalnych potoków w laboratorium na żywo.
Opcje dostosowania kursu
- Aby zamówić dostosowane szkolenie, prosimy o kontakt w celu uzgodnienia szczegółów.