Dziękujemy za wysłanie zapytania! Jeden z członków naszego zespołu skontaktuje się z Państwem wkrótce.
Dziękujemy za wysłanie rezerwacji! Jeden z członków naszego zespołu skontaktuje się z Państwem wkrótce.
Plan Szkolenia
Wprowadzenie do Ollama
- Co to jest Ollama i jak działa?
- Korzyści z uruchamiania modeli AI lokalnie
- Przegląd obsługiwanych modeli językowych (Llama, DeepSeek, Mistral, itd.)
Instalowanie i Konfigurowanie Ollama
- Wymagania systemowe i uwagi dotyczące sprzętu
- Instalowanie Ollama na różnych systemach operacyjnych
- Konfiguracja zależności i ustawianie środowiska
Uruchamianie Modeli AI Lokalnie
- Pobieranie i ładowanie modeli AI w Ollama
- Interakcje z modelami za pomocą wiersza polecenia
- Podstawowa inżynieria pytań dla zadań AI lokalnych
Optymalizacja Wydajności i Zużycia Zasobów
- Zarządzanie zasobami sprzętowymi dla efektywnego wykonywania AI
- Redukcja opóźnień i poprawa czasu odpowiedzi modelu
- Ocenianie wydajności dla różnych modeli
Przypadki użycia wdrożeń AI lokalnych
- Chatboty i wirtualni asystenci zasilane AI
- Zadania przetwarzania danych i automatyzacji
- Aplikacje AI zorientowane na prywatność
Podsumowanie i Krok Dalej
Wymagania
- Podstawowa wiedza na temat koncepcji sztucznej inteligencji i uczenia maszynowego
- Znajomość interfejsów wiersza polecenia
Grupa docelowa
- Programiści uruchamiający modele AI bez zależności od chmur
- Specjaliści Business zainteresowani prywatnością AI i kosztowym wdrożeniem
- Entuzjaści AI badający lokalne wdrożenie modeli
7 godzin