Thank you for sending your enquiry! One of our team members will contact you shortly.
Thank you for sending your booking! One of our team members will contact you shortly.
Plan Szkolenia
Wprowadzenie do Ollama
- Co to jest Ollama i jak działa?
- Korzyści z uruchamiania modeli AI lokalnie
- Przegląd obsługiwanych modeli językowych (Llama, DeepSeek, Mistral, itd.)
Instalowanie i Konfigurowanie Ollama
- Wymagania systemowe i uwagi dotyczące sprzętu
- Instalowanie Ollama na różnych systemach operacyjnych
- Konfiguracja zależności i ustawianie środowiska
Uruchamianie Modeli AI Lokalnie
- Pobieranie i ładowanie modeli AI w Ollama
- Interakcje z modelami za pomocą wiersza polecenia
- Podstawowa inżynieria pytań dla zadań AI lokalnych
Optymalizacja Wydajności i Zużycia Zasobów
- Zarządzanie zasobami sprzętowymi dla efektywnego wykonywania AI
- Redukcja opóźnień i poprawa czasu odpowiedzi modelu
- Ocenianie wydajności dla różnych modeli
Przypadki użycia wdrożeń AI lokalnych
- Chatboty i wirtualni asystenci zasilane AI
- Zadania przetwarzania danych i automatyzacji
- Aplikacje AI zorientowane na prywatność
Podsumowanie i Krok Dalej
Wymagania
- Podstawowa wiedza na temat koncepcji sztucznej inteligencji i uczenia maszynowego
- Znajomość interfejsów wiersza polecenia
Grupa docelowa
- Programiści uruchamiający modele AI bez zależności od chmur
- Specjaliści Business zainteresowani prywatnością AI i kosztowym wdrożeniem
- Entuzjaści AI badający lokalne wdrożenie modeli
7 godzin