Plan Szkolenia

Wprowadzenie do Ollamy

  • Co to jest Ollama i jak działa?
  • Korzyści z lokalnego uruchamiania modeli AI
  • Przegląd obsługiwanych LLM (Llama, DeepSeek, Mistral itp.)

Instalacja i konfiguracja Ollamy

  • Wymagania systemowe i kwestie sprzętu
  • Instalowanie Ollamy na różnych systemach operacyjnych
  • Konfigurowanie zależności i ustawianie środowiska

Uruchamianie modeli AI lokalnie

  • Pobieranie i ładowanie modeli AI w Ollamy
  • Interakcje z modelami za pomocą wiersza poleceń
  • Podstawowe inżynieria promptów dla lokalnych zadań AI

Optymalizacja wydajności i zużycia zasobów

  • Zarządzanie zasobami sprzętowymi dla efektywnego wykonania AI
  • Zmniejszanie opóźnień i poprawa czasu odpowiedzi modelu
  • Testowanie wydajności dla różnych modeli

Przypadki użycia lokalnego wdrożenia AI

  • Rozmówcy i asystenci wirtualni oparte na AI
  • Procesowanie danych i zadania automatyzacji
  • Aplikacje AI skupione na prywatności

Podsumowanie i dalsze kroki

Wymagania

  • Podstawowe zrozumienie koncepcji sztucznej inteligencji i uczenia maszynowego
  • Znajomość interfejsów wiersza poleceń

Grupa docelowa

  • Deweloperzy uruchamiający modele AI bez zależności od chmury
  • Profesjonaliści biznesowi zainteresowani prywatnością i kosztowo efektywnym wdrażaniem AI
  • Entuzjaści AI badający lokalne wdrażanie modeli
 7 godzin

Liczba uczestników


Cena za uczestnika

Propozycje terminów

Powiązane Kategorie