Plan Szkolenia

Wprowadzenie do Ollama

  • Co to jest Ollama i jak działa?
  • Korzyści z uruchamiania modeli AI lokalnie
  • Przegląd obsługiwanych modeli językowych (Llama, DeepSeek, Mistral, itd.)

Instalowanie i Konfigurowanie Ollama

  • Wymagania systemowe i uwagi dotyczące sprzętu
  • Instalowanie Ollama na różnych systemach operacyjnych
  • Konfiguracja zależności i ustawianie środowiska

Uruchamianie Modeli AI Lokalnie

  • Pobieranie i ładowanie modeli AI w Ollama
  • Interakcje z modelami za pomocą wiersza polecenia
  • Podstawowa inżynieria pytań dla zadań AI lokalnych

Optymalizacja Wydajności i Zużycia Zasobów

  • Zarządzanie zasobami sprzętowymi dla efektywnego wykonywania AI
  • Redukcja opóźnień i poprawa czasu odpowiedzi modelu
  • Ocenianie wydajności dla różnych modeli

Przypadki użycia wdrożeń AI lokalnych

  • Chatboty i wirtualni asystenci zasilane AI
  • Zadania przetwarzania danych i automatyzacji
  • Aplikacje AI zorientowane na prywatność

Podsumowanie i Krok Dalej

Wymagania

  • Podstawowa wiedza na temat koncepcji sztucznej inteligencji i uczenia maszynowego
  • Znajomość interfejsów wiersza polecenia

Grupa docelowa

  • Programiści uruchamiający modele AI bez zależności od chmur
  • Specjaliści Business zainteresowani prywatnością AI i kosztowym wdrożeniem
  • Entuzjaści AI badający lokalne wdrożenie modeli
 7 godzin

Liczba uczestników


cena netto za uczestnika

Propozycje terminów

Powiązane Kategorie