Wielkie Modele Językowe (LLMs) i Uczenie przez Wzmocnienie (RL) - Plan Szkolenia
Large Language Models (LLMs) są zaawansowanymi typami sieci neuronowych zaprojektowanych do zrozumienia i generowania tekstu przypominającego ludzkie na podstawie otrzymywanych danych wejściowych. Reinforcement Learning (RL) to rodzaj uczenia maszynowego, w którym agent naucza się podejmować decyzje poprzez wykonywanie działań w środowisku w celu maksymalizacji kumulatywnych nagród.
Ten szkolenie prowadzone przez instruktora (online lub na miejscu) jest skierowane do pośrednio zaawansowanych naukowców danych, którzy chcą zdobyć kompleksową wiedzę i praktyczne umiejętności w dziedzinie Large Language Models (LLMs) oraz Reinforcement Learning (RL).
Po zakończeniu tego szkolenia uczestnicy będą w stanie:
- Zrozumieć składniki i funkcjonalność modeli transformer.
- Optymalizować i dopasowywać LLMs do konkretnych zadań i zastosowań.
- Zrozumieć podstawowe zasady i metodyki uczenia wzmacniającego.
- Nauczyć się, jak techniki uczenia wzmacniającego mogą poprawiać wydajność LLMs.
Format Kursu
- Interaktywne wykłady i dyskusje.
- Wiele ćwiczeń i praktyki.
- Ręczne wdrażanie w środowisku laboratoryjnym.
Opcje dostosowania kursu
- Aby zapytać o dostosowane szkolenie dla tego kursu, skontaktuj się z nami w celu uregulowania.
Plan Szkolenia
Wprowadzenie do dużej liczbie językowych modeli (LLMs)
- Przegląd LLMs
- Definicja i znaczenie
- Zastosowania w dzisiejszej sztucznej inteligencji
Architektura Transformerów
- Co to jest transformer i jak działa?
- Główne składniki i cechy
- Zagnieżdżanie i kodowanie pozycyjne
- Wielogłowe uwaga
- Sieć neuronowa z przewidywaniem do przodu
- Normalizacja i połączenia rezidualne
Modele Transformerów
- Mechanizm samouwagi
- Architektura kodera-dekodera
- Zagnieżdżenia pozycyjne
- BERT (Bidirectional Encoder Representations from Transformers)
- GPT (Generative Pretrained Transformer)
Optymalizacja wydajności i pułapki
- Długość kontekstu
- Modele Mamba i przestrzeni stanowej
- Błyskawiczna uwaga
- Rzadkie transformatory
- Transformatory wizualne
- Znaczenie kwantyzacji
Poprawianie Transformerów
- Generowanie tekstu z wzbogaconą pamięcią
- Mieszanka modeli
- Drzewo myśli
Dostrajanie
- Teoria adaptacji o niskim stopniu
- Dostrajanie z QLora
Prawo skali i optymalizacja w LLMs
- Znaczenie prawa skali dla LLMs
- Skalowanie danych i rozmiaru modelu
- Skalowanie obliczeniowe
- Skalowanie efektywności parametrów
Optymalizacja
- Zależność między rozmiarem modelu, rozmiarem danych, budżetem obliczeniowym i wymaganiami wnioskowania
- Optymalizowanie wydajności i efektywności LLMs
- Najlepsze praktyki i narzędzia do szkolenia i dostrajania LLMs
Szkolenie i dostrajanie LLMs
- Kroki i wyzwania związane ze szkoleniem LLMs od podstaw
- Nabywanie i utrzymywanie danych
- Wymagania dotyczące dużej ilości danych, CPU i pamięci
- Wyzwania optymalizacyjne
- Krajobraz otwartych źródeł LLMs
Podstawy uczenia się przez wzmocnienie (RL)
- Wprowadzenie do uczenia się przez wzmocnienie
- Uczenie się poprzez pozytywne wzmocnienie
- Definicja i podstawowe pojęcia
- Markov Decision Process (MDP)
- Programowanie dynamiczne
- Metody Monte Carlo
- Uczenie się różnicy czasowej
Głębokie uczenie się przez wzmocnienie
- Głębokie sieci Q (DQN)
- Proksymalna optymalizacja polityki (PPO)
- Elementy uczenia się przez wzmocnienie
Integracja LLMs i uczenia się przez wzmocnienie
- Łączenie LLMs z uczeniem się przez wzmocnienie
- Jak RL jest używane w LLMs
- Uczenie się przez wzmocnienie z opinią człowieka (RLHF)
- Alternatywy dla RLHF
Przypadki użycia i zastosowania
- Zastosowania w rzeczywistym świecie
- Sukcesy i wyzwania
Zaawansowane tematy
- Zaawansowane techniki
- Zaawansowane metody optymalizacji
- Najnowsze badania i rozwój
Podsumowanie i kolejne kroki
Wymagania
- Podstawowa wiedza o uczeniu maszynowym
Grupa docelowa
- Naukowcy danych
- Inżynierowie oprogramowania
Szkolenia otwarte są realizowane w przypadku uzbierania się grupy szkoleniowej liczącej co najmniej 5 osób na dany termin.
Wielkie Modele Językowe (LLMs) i Uczenie przez Wzmocnienie (RL) - Plan Szkolenia - Rezerwacja
Wielkie Modele Językowe (LLMs) i Uczenie przez Wzmocnienie (RL) - Plan Szkolenia - Zapytanie
Wielkie Modele Językowe (LLMs) i Uczenie przez Wzmocnienie (RL) - Zapytanie o Konsultacje
Zapytanie o Konsultacje
Propozycje terminów
Szkolenia Powiązane
Advanced LangGraph: Optymalizacja, Debugowanie i Monitorowanie Złożonych Grafów
35 godzinLangGraph jest ramą do budowy aplikacji z wieloma aktorami o stanie, jako skomponowanych grafów z trwałym stanem i kontrolą nad wykonaniem.
To prowadzone przez instruktora, żywe szkolenie (online lub na miejscu) skierowane jest do zaawansowanych inżynierów platform AI, DevOps dla AI i architektów ML, którzy chcą optymalizować, debugować, monitorować i zarządzać systemami LangGraph w produkcji.
Po ukończeniu tego szkolenia uczestnicy będą w stanie:
- Projektować i optymalizować złożone topologie LangGraph pod względem prędkości, kosztów i skalowalności.
- Inżynierować niezawodność za pomocą powtórzeń, timeoutów, idempotencji i odzyskiwania opartego na punktach kontrolnych.
- Debugować i śledzić wykonanie grafów, sprawdzać stan i systematycznie odtwarzać problemy produkcji.
- Instrumentować grafy logami, metrykami i śladami, wdrażać do produkcji i monitorować SLA i koszty.
Format kursu
- Interaktywna wykład i dyskusja.
- Wiele ćwiczeń i praktyki.
- Ręczne wdrażanie w środowisku labolatorium online.
Opcje dostosowania kursu
- Aby złożyć wniosek o dostosowane szkolenie dla tego kursu, prosimy o kontakt z nami w celu uzgodnienia.
Budowanie Agentów Kodowania z Devstral: Od Projektowania Agentów do Narzędzi
14 godzin- Konfigurować i ustawiać Devstral do rozwoju agentów kodowych.
- Projektować agentowe przepływy pracy do eksploracji i modyfikacji baz kodów.
- Integrować agentów kodowych z narzędziami programistycznymi i API.
- Wdrażać najlepsze praktyki dla bezpiecznego i wydajnego wdrażania agentów.
Format kursu
- Interaktywne wykłady i dyskusje.
- Dużo ćwiczeń i praktyki.
- Ręczne wdrożenie w środowisku laboratoryjnym w trybie na żywo.
Opcje dostosowywania kursu
- Aby zapytać o dostosowany szkolenie dla tego kursu, skontaktuj się z nami, aby umówić.
Open-Source Model Ops: Self-Hosting, Fine-Tuning and Governance with Devstral & Mistral Models
14 godzinDevstral i Mistral to otwarte technologie AI zaprojektowane do elastycznego wdrażania, dopasowywania i skalowalnej integracji.
To prowadzone przez instruktora szkolenie live (online lub na miejscu) jest skierowane do inżynierów ML na poziomie średnim do zaawansowanym, zespołów platformowych i inżynierów badawczych, którzy chcą samodzielnie hostować, dopasowywać i zarządzać modelami Mistral i Devstral w środowiskach produkcyjnych.
Po zakończeniu tego szkolenia uczestnicy będą mogli:
- Konfigurować i uruchamiać w środowiskach samodzielnie hostowanych modeli Mistral i Devstral.
- Zastosować techniki dopasowywania dla wydajności w specyficznych domenach.
- Wdrożyć wersjonowanie, monitorowanie i zarządzanie cyklem życia.
- Zapewnić bezpieczeństwo, zgodność i odpowiedzialne wykorzystywanie modeli open-source.
Format kursu
- Interaktywne wykłady i dyskusje.
- Ćwiczenia praktyczne w hostowaniu i dopasowywaniu.
- Wdrożenie na żywo ścieżek zarządzania i monitorowania.
Opcje dostosowania kursu
- Aby poprosić o dostosowane szkolenie dla tego kursu, skontaktuj się z nami, aby to uregulować.
Aplikacje LangGraph w Finansach
35 godzinLangGraph to ramka służąca do budowy aplikacji LLM o stanie, wieloaktorowych jako kompozycyjnych grafów ze stałym stanem i kontrolą nad wykonaniem.
To szkolenie prowadzone przez instruktora (online lub stacjonarne) jest skierowane do profesjonalistów na poziomie średniozaawansowanym do zaawansowanym, którzy chcą zaprojektować, wdrożyć i zarządzać rozwiązaniami finansowymi opartymi na LangGraph z właściwą rządząca, obserwowalnością i zgodnością.
Na zakończenie tego szkolenia uczestnicy będą w stanie:
- Projektować specyficzne dla finansów przepływy pracy LangGraph zgodne z wymaganiami regulacyjnymi i audytowymi.
- Integrować standardy i ontologie danych finansowych do stanu grafu i narzędzi.
- Wdrażać mechanizmy niezawodności, bezpieczeństwa i kontroli człowiek-w-pętli dla krytycznych procesów.
- Wdrażać, monitorować i optymalizować systemy LangGraph pod kątem wydajności, kosztów i SLA.
Format kursu
- Interaktywne wykłady i dyskusje.
- Wieloćwiczeniowe i praktyczne zajęcia.
- Ręczne wdrażanie w środowisku live-lab.
Opcje dostosowania kursu
- Aby złożyć wniosek o dostosowane szkolenie dla tego kursu, skontaktuj się z nami w celu ustalenia szczegółów.
LangGraph Foundations: Graph-Based LLM Prompting and Chaining
14 godzinLangGraph to framework do budowy aplikacji opartego na grafie modeli językowych dużej skalowości (LLM), które wspierają planowanie, rozgałęzienie, używanie narzędzi, pamięć oraz kontrolowane wykonywanie.
Ten prowadzony przez instruktora kurs (online lub stacjonarnie) jest skierowany do początkujących developerów, inżynierów promptów oraz praktyków danych, którzy chcą zaprojektować i zbudować niezawodne, wieloetapowe przepływy pracy modeli językowych dużej skalności z użyciem LangGraph.
Na zakończenie tego kursu uczestnicy będą w stanie:
- Wyjaśnić podstawowe koncepcje LangGraph (węzły, krawędzie, stan) oraz kiedy ich używać.
- Budować łańcuchy promptów, które rozgałęziają się, wywołują narzędzia oraz utrzymują pamięć.
- Integrować odzyskiwanie i zewnętrzne API z przepływami grafu.
- Testować, debugować i oceniać aplikacje LangGraph pod kątem niezawodności i bezpieczeństwa.
Format kursu
- Interaktywne wykłady i prowadzone dyskusje.
- Przewodowane laboratoria i przechadzki po kodzie w środowisku piaskownicy.
- Ćwiczenia oparte na scenariuszach dotyczące projektowania, testowania i oceny.
Opcje dostosowywania kursu
- Aby poprosić o dostosowany kurs dla tego kursu, prosimy o kontakt z nami w celu ustalenia.
LangGraph w Opiece Zdrowotnej: Orchestracja Przepływów Pracy dla Zaregulowanych Środowisk
35 godzinLangGraph umożliwia stanowe, wieloaktorowe przepływy pracy napędzane przez LLMs z precyzyjną kontrolą ścieżek wykonania i utrzymaniem stanu. W opiece zdrowotnej te możliwości są kluczowe dla zgodności, interoperacyjności i budowy systemów wspomagających podejmowanie decyzji, które są zgodne z medycznymi przepływami pracy.
To szkolenie prowadzone przez instruktora (online lub stacjonarne) jest przeznaczone dla profesjonalistów o poziomie zaawansowanym, którzy chcą zaprojektować, wdrożyć i zarządzać rozwiązaniami opartymi na LangGraph w opiece zdrowotnej, jednocześnie rozwiązując wyzwania związane z regulacjami, etyką i operacjami.
Po zakończeniu tego szkolenia uczestnicy będą mogli:
- Projektować specyficzne dla opieki zdrowotnej przepływy pracy LangGraph z uwzględnieniem zgodności i możliwości audytu.
- Integrować aplikacje LangGraph z medycznymi ontologiami i standardami (FHIR, SNOMED CT, ICD).
- Stosować najlepsze praktyki dla niezawodności, śledzenia i wyjaśniania w wrażliwych środowiskach.
- Wdrażać, monitorować i walidować aplikacje LangGraph w środowiskach produkcyjnych w opiece zdrowotnej.
Format kursu
- Interaktywne wykłady i dyskusje.
- Ćwiczenia praktyczne z przypadkami z życia rzeczywistego.
- Praktyka implementacji w środowisku live-lab.
Opcje dostosowania kursu
- Aby złożyć wniosek o dostosowane szkolenie dla tego kursu, skontaktuj się z nami w celu uzgodnień.
LangGraph dla Aplikacji Prawnych
35 godzinLangGraph to framework do tworzenia aplikacji LLM z wieloma aktorami i stanami, które mogą być tworzone jako złożone grafy z persystencyjnym stanem i precyjnym sterowaniem wykonaniem.
To szkolenie prowadzone przez instruktora (online lub na miejscu) jest skierowane do profesjonalistów na poziomie średnim do zaawansowanym, którzy chcą projektować, wdrażać i obsługiwać rozwiązania oparte na LangGraph w dziedzinie prawa z odpowiednimi środkami zgodności, śledzenia i zarządzania.
Na zakończenie tego szkolenia uczestnicy będą w stanie:
- Projektować specjalistyczne dla prawa przepływy pracy w LangGraph, które zachowują możliwość audytu i zgodność.
- Integrować ontologie prawnicze i standardy dokumentów do stanu grafu i przetwarzania.
- Wdrażać ograniczenia, zatwierdzania z udziałem człowieka i śledzalne ścieżki decyzji.
- Wdrażać, monitorować i utrzymywać usługi LangGraph w produkcji z obserwabilnością i kontrolą kosztów.
Format kursu
- Interaktywna wykład i dyskusja.
- Wiele ćwiczeń i praktyki.
- Praktyczna implementacja w żywym środowisku laboratoryjnym.
Opcje dostosowania kursu
- Aby zażądać dostosowanego szkolenia dla tego kursu, prosimy o kontakt z nami w celu uregulowania.
Budowanie dynamicznych przepływów pracy z LangGraph i agentami LLM
14 godzinLangGraph to framework do tworzenia przepływów pracy o strukturze grafu LLM, który obsługuje rozgałęzianie, użycie narzędzi, pamięć i kontrolowane wykonywanie.
To szkolenie prowadzone przez instruktora (online lub stacjonarnie) jest skierowane do inżynierów i zespołów produktowych na poziomie średnim, którzy chcą połączyć logikę grafu LangGraph z pętlami agentów LLM, aby tworzyć dynamiczne, świadome kontekstu aplikacje, takie jak agenci wsparcia klienta, drzewa decyzji i systemy odzyskiwania informacji.
Po zakończeniu tego szkolenia uczestnicy będą mogli:
- Projektować przepływy pracy oparte na grafach, które koordynują agentów LLM, narzędzia i pamięć.
- Wdrażać warunkowe trasowanie, powtórzenia i zapasowe ścieżki dla solidnego wykonywania.
- Integrować odzyskiwanie, API i wyjścia strukturalne w pętle agentów.
- Ocena, monitorowanie i zabezpieczanie zachowania agentów dla niezawodności i bezpieczeństwa.
Format kursu
- Interaktywne wykłady i prowadzone dyskusje.
- Przewodnikowe laboratoria i przejście przez kod w środowisku sandbox.
- Ćwiczenia projektowe oparte na scenariuszach i przegląd parowy.
Opcje dostosowania kursu
- Aby poprosić o dostosowane szkolenie dla tego kursu, skontaktuj się z nami w celu uregulowania.
LangGraph for Marketing Automation
14 godzinLangGraph to framework oparty o grafach służący do orchestracji, który umożliwia warunkowe, wieloetapowe przepływy LLM i narzędzi, idealne do automatyzacji i personalizacji rurociągów treści.
To szkolenie prowadzone przez instruktora (online lub stacjonarnie) jest skierowane do marketingowców, strategów treści i programistów automatyzujących na poziomie średnim, którzy chcą wdrożyć dynamiczne, rozgałęzione kampanie emailowe i rurociągi generacji treści przy użyciu LangGraph.
Na koniec tego szkolenia uczestnicy będą w stanie:
- Projektować strukturę grafu przepływów treści i emailów z logiką warunkową.
- Integrować LLMs, API i źródła danych dla automatycznej personalizacji.
- Zarządzać stanem, pamięcią i kontekstem w wieloetapowych kampaniach.
- Oceniać, monitorować i optymalizować wydajność i wyniki dostarczania przepływów.
Format kursu
- Interaktywne wykłady i dyskusje grupowe.
- Praktyczne laboratoria wdrażające przepływy emailowe i rurociągi treści.
- Ćwiczenia scenariusze dotyczące personalizacji, segmentacji i logiki rozgałęziania.
Opcje dostosowania kursu
- Aby zażądać dostosowanego szkolenia dla tego kursu, prosimy o kontakt w celu uzgodnienia.
Le Chat Enterprise: Prywatne ChatOps, integracje i kontrole administratora
14 godzinLe Chat Enterprise to prywatne rozwiązanie ChatOps, które zapewnia bezpieczne, dostosowywalne i kontrolowane zdolności sztucznej inteligencji konwersacyjnej dla organizacji, z obsługą RBAC, SSO, konektorów i integracji z aplikacjami przedsiębiorstw.
To prowadzone przez instruktora szkolenie w trybie online lub stacjonarnym jest przeznaczone dla produktowych menedżerów, liderów IT, inżynierów rozwiązań oraz zespołów odpowiedzialnych za bezpieczeństwo i zgodność, którzy chcą wdrażać, konfigurować i zarządzać Le Chat Enterprise w środowiskach przedsiębiorstw.
Po zakończeniu tego szkolenia uczestnicy będą w stanie:
- Ustawiać i konfigurować Le Chat Enterprise dla bezpiecznych wdrażeń.
- Włączać RBAC, SSO oraz sterowanie zgodne z wymaganiami zgodności.
- Integrować Le Chat z aplikacjami przedsiębiorstw i magazynami danych.
- Projektować i wdrażać playbooki zarządzania i administrowania dla ChatOps.
Format kursu
- Interaktywne wykłady i dyskusje.
- Wiele ćwiczeń i praktyk.
- Ręczne wdrażanie w żywym środowisku laboratoryjnym.
Opcje dostosowywania kursu
- Aby poprosić o dostosowane szkolenie dla tego kursu, prosimy o kontakt z nami w celu ustalenia.
Architektury LLM Oszczędne Kosztowo: Mistral w Skali (Inżynieria wydajności/kosztów)
14 godzinMistral to wysokowydajna rodzina dużych modeli językowych optymalizowanych dla kosztownego wdrażania produkcji w dużych skalach.
To prowadzone przez instruktora szkolenie na żywo (online lub stacjonarne) jest skierowane do zaawansowanych inżynierów infrastruktury, architektów chmurowych i kierowników MLOps, którzy chcą zaprojektować, wdrożyć i optymalizować architektury oparte na Mistralu dla maksymalnej przepustowości i minimalnych kosztów.
Po zakończeniu tego szkolenia uczestnicy będą w stanie:
- Wdrożyć skalowalne wzorce wdrażania Mistral Medium 3.
- Zastosować strategie grupowania, kwantyzacji i efektywnego serwowania.
- Optymalizować koszty wnioskowania przy zachowaniu wydajności.
- Projektować gotowe do produkcji topologie serwowania dla zadań przedsiębiorstwa.
Format kursu
- Interaktywne wykłady i dyskusje.
- Wiele ćwiczeń i praktyki.
- Praktyczne wdrożenie w środowisku live-lab.
Opcje dostosowania kursu
- Aby poprosić o dostosowane szkolenie dla tego kursu, skontaktuj się z nami, aby umówić się.
Produktowanie Asystentów Konwersacyjnych z Mistral Connectors & Integrations
14 godzinMistral AI to otwarta platforma AI, która umożliwia zespołom budowanie i integrowanie asystentów konwersacyjnych w przepływach pracy skierowanych do przedsiębiorstw i klientów.
To szkolenie prowadzone przez instruktora (online lub na miejscu) skierowane jest do produktowych menedżerów na poziomie początkującego do średnio zaawansowanego, pełnośrodkowych deweloperów oraz inżynierów integracji, którzy chcą zaprojektować, zintegrować i produktować asystentów konwersacyjnych za pomocą połączeń i integracji Mistral.
Po zakończeniu tego szkolenia uczestnicy będą w stanie:
- Zintegrować modele konwersacyjne Mistral z połączeniami przedsiębiorstw i SaaS.
- Wdrożyć generację z wzmocnieniem pobieraniem (RAG) dla odpowiedzi oparte na faktach.
- Projektować wzorce UX dla wewnętrznych i zewnętrznych asystentów czatu.
- Wdrażać asystentów w przepływy pracy produktów w przypadku zastosowań rzeczywistych.
Format kursu
- Interaktywne wykłady i dyskusje.
- Ćwiczenia praktyczne związane z integracją.
- Rozwijanie asystentów konwersacyjnych w żywym laboratorium.
Opcje dostosowywania kursu
- Aby poprosić o dostosowane szkolenie dla tego kursu, skontaktuj się z nami, aby umówić się.
Enterprise-Grade Deployments with Mistral Medium 3
14 godzinMistral Medium 3 jest wysokowydajnym, wielomodalnym dużym modelem językowym zaprojektowanym do wdrażania w środowiskach przedsiębiorstw na poziomie produkcyjnym.
To szkolenie prowadzone przez instruktora (online lub na miejscu) jest przeznaczone dla inżynierów AI/ML na poziomie średniozaawansowanym do zaawansowanym, architektów platform oraz zespołów MLOps, którzy chcą wdrażać, optymalizować i bezpiecznie zarządzać Mistral Medium 3 w zastosowaniach przedsiębiorstw.
Po zakończeniu tego szkolenia uczestnicy będą w stanie:
- Wdrażać Mistral Medium 3 za pomocą opcji API i samodzielnego hostowania.
- Optymalizować wydajność i koszty wnioskowania.
- Wdrażać wielomodalne zastosowania z Mistral Medium 3.
- Stosować najlepsze praktyki bezpieczeństwa i zgodności w środowiskach przedsiębiorstw.
Format kursu
- Interaktywne wykłady i dyskusje.
- Wiele ćwiczeń i praktyki.
- Ręczne wdrażanie w środowisku laboratoryjnym.
Opcje dostosowywania kursu
- Aby zapytać o niestandardowe szkolenie dla tego kursu, skontaktuj się z nami w celu uzgodnienia.
Mistral dla Odpowiedzialnego AI: Prywatność, Rezygnacja z Danych & Kontrola Przedsiębiorstw
14 godzinMistral AI to otwarta i gotowa do użycia w przedsiębiorstwach platforma AI, która oferuje funkcje umożliwiające bezpieczne, zgodne z przepisami i odpowiedzialne wdrażanie AI.
To szkolenie prowadzone przez instruktora (online lub stacjonarnie) skierowane jest do osób z poziomem zaawansowanym w dziedzinie zgodności, architektów bezpieczeństwa oraz przedstawicieli działów prawnych i operacyjnych, którzy chcą wdrożyć odpowiedzialne praktyki AI z Mistral poprzez wykorzystanie mechanizmów ochrony prywatności, miejsca przechowywania danych oraz kontroli przedsiębiorstw.
Na zakończenie tego szkolenia uczestnicy będą mogli:
- Wdrażać techniki zachowywania prywatności w wdrożeniach Mistral.
- Stosować strategie miejsca przechowywania danych w celu spełnienia wymagań regulacyjnych.
- Konfigurować kontrolę dostępu opartą na rolach (RBAC), pojedyncze logowanie (SSO) i dzienniki audytowe.
- Ocena opcji dostawców i wdrażania w celu dostosowania zgodności.
Format kursu
- Interaktywne wykłady i dyskusje.
- Studia przypadków i ćwiczenia skupione na zgodności.
- Praktyczne wdrażanie kontroli AI przedsiębiorstw.
Opcje dostosowania kursu
- Aby zapytać o dostosowane szkolenie dla tego kursu, skontaktuj się z nami w celu ustalenia szczegółów.
Multimodal Applications with Mistral Models (Vision, OCR, & Document Understanding)
14 godzinModele Mistral są otwartymi technologiami AI, które teraz rozciągają się na wielomodalne przepływy pracy, wspierając zarówno zadania związane z językiem, jak i wizją dla zastosowań przedsiębiorstw i badań.
To prowadzone przez instruktora szkolenie na żywo (online lub na miejscu) jest skierowane do badaczy ML na poziomie średnim, inżynierów aplikacyjnych i zespołów produktowych, którzy chcą budować wielomodalne aplikacje z modelami Mistral, w tym przepływy OCR i zrozumienia dokumentów.
Na zakończenie tego szkolenia uczestnicy będą mogli:
- Konfigurować i ustawiać modele Mistral dla zadań wielomodowych.
- Wdrażać przepływy OCR i integrować je z NLP.
- Projektować aplikacje zrozumienia dokumentów dla przypadków użycia w przedsiębiorstwach.
- Rozwijać funkcjonalności wyszukiwania tekst-wizja i interfejsów użytkownika wspomagających.
Format kursu
- Interaktywne wykłady i dyskusje.
- Ćwiczenia kodowania w praktyce.
- Implementacja multimodalnych przepływów w laboratorium na żywo.
Opcje dostosowywania kursu
- Aby poprosić o dostosowane szkolenie dla tego kursu, skontaktuj się z nami w celu ustalenia.