Bądźmy w kontakcie

Plan Szkolenia

Wprowadzenie do Ollamy

  • Czym jest Ollama i jak działa?
  • Korzyści z uruchamiania modeli AI lokalnie
  • Przegląd obsługiwanych LLM (Llama, DeepSeek, Mistral itp.)

Instalacja i konfiguracja Ollamy

  • Wymagania systemowe i uwagi dotyczące sprzętu
  • Instalacja Ollamy na różnych systemach operacyjnych
  • Konfiguracja zależności i środowiska

Uruchamianie modeli AI lokalnie

  • Pobieranie i ładowanie modeli AI w Ollamie
  • Interakcja z modelami za pomocą wiersza poleceń
  • Podstawowe inżynieria promptów dla lokalnych zadań AI

Optymalizacja wydajności i wykorzystania zasobów

  • Zarządzanie zasobami sprzętowymi dla efektywnego wykonywania AI
  • Zmniejszanie opóźnień i poprawa czasu reakcji modelu
  • Benchmarking wydajności dla różnych modeli

Przypadki użycia lokalnego wdrażania AI

  • Chatboty i asystenci wirtualni napędzani AI
  • Przetwarzanie danych i zadania automatyzacji
  • Aplikacje AI skupione na prywatności

Podsumowanie i kolejne kroki

Wymagania

  • Podstawowa znajomość koncepcji AI i uczenia maszynowego
  • Znajomość interfejsów wiersza poleceń

Grupa docelowa

  • Programiści uruchamiający modele AI bez zależności od chmury
  • Profesjonaliści biznesowi zainteresowani prywatnością AI i ekonomicznym wdrażaniem
  • Entuzjaści AI eksplorujący lokalne wdrażanie modeli
 7 godzin

Liczba uczestników


Cena za uczestnika (netto)

Propozycje terminów

Powiązane Kategorie