Plan Szkolenia

Wprowadzenie do Ollama dla wdrożenia LLM

  • Przegląd możliwości Ollama
  • Zalety lokalnego wdrażania modeli AI
  • Porównanie z rozwiązaniami hostingowymi AI opartymi na chmurze

Konfiguracja środowiska wdrożeniowego

  • Instalacja Ollama i wymaganych zależności
  • Konfiguracja sprzętu i GPU akceleracji
  • Dockerizowanie Ollama dla skalowalnych wdrożeń

Wdrażanie LLM z Ollama

  • Ładowanie modeli AI i zarządzanie nimi
  • Wdrażanie Llama 3, DeepSeek, Mistral i innych modeli
  • Tworzenie interfejsów API i punktów końcowych dostępu do modeli AI

Optymalizacja wydajności LLM

  • Dostrajanie modeli pod kątem wydajności
  • Zmniejszanie opóźnień i poprawa czasów reakcji
  • Zarządzanie pamięcią i alokacją zasobów

Integracja Ollama z przepływami pracy AI

  • Łączenie Ollama z aplikacjami i usługami
  • Automatyzacja procesów opartych na sztucznej inteligencji
  • Korzystanie z Ollama w środowiskach przetwarzania brzegowego

Monitorowanie i konserwacja

  • Śledzenie wydajności i debugowanie problemów
  • Aktualizowanie modeli AI i zarządzanie nimi
  • Zapewnienie bezpieczeństwa i zgodności we wdrożeniach AI

Skalowanie wdrożeń modeli AI

  • Najlepsze praktyki w zakresie obsługi dużych obciążeń
  • Skalowanie Ollama dla przypadków użycia w przedsiębiorstwie
  • Przyszłe postępy w lokalnym wdrażaniu modeli AI

Podsumowanie i kolejne kroki

Wymagania

  • Podstawowe doświadczenie z uczeniem maszynowym i modelami AI
  • Znajomość interfejsów wiersza poleceń i skryptów
  • Zrozumienie środowisk wdrażania (lokalne, brzegowe, chmura)

Odbiorcy

  • Inżynierowie AI optymalizujący lokalne i oparte na chmurze wdrożenia AI
  • Praktycy ML wdrażający i dostrajający LLM
  • Specjaliści DevOps zarządzający integracją modeli AI
 14 godzin

Liczba uczestników


cena netto za uczestnika

Propozycje terminów

Powiązane Kategorie