Lokalne, prowadzone przez instruktora kursy szkoleniowe na żywo dotyczące GPU (Graphics Processing Unit) demonstrują poprzez interaktywną dyskusję i praktyczne ćwiczenie podstaw GPU i programowania GPU. Szkolenie GPU jest dostępne jako "szkolenie online na żywo" lub "szkolenie na żywo na miejscu". Szkolenie na żywo online (inaczej "zdalne szkolenie na żywo") odbywa się za pomocą interaktywnego, zdalnego pulpitu . Szkolenie na żywo na miejscu może odbywać się lokalnie w siedzibie klienta w Trójmiasto lub w korporacyjnych centrach szkoleniowych NobleProg w Trójmiasto. NobleProg — Twój lokalny dostawca szkoleń
Gdynia
Hotel Nadmorski, Ejsmonda 2, Gdynia, Polska, 81-409
Sala szkoleniowa znajduje się zaledwie 3 kilometry od Dworca PKP/PKS w Gdyni, co sprawia, że jest łatwo dostępna dla uczestników podróżujących pociągiem lub autobusem. Dodatkowo, jest oddalona tylko o 400 metrów od przystanku autobusowego, ułatwiając dojazd nawet tym, którzy podróżują komunikacją miejską. Wyposażona jest w niezbędne narzędzia do prowadzenia szkoleń, takie jak rzutnik, ekran oraz flipchart, co zapewnia komfortowe warunki dla uczestników i prowadzącego zajęcia.
Gdańsk
Hotel Fahrenheit, Grodzka 19, Gdańsk, Polska, 80-841
Sala szkoleniowa znajduje się w samym sercu malowniczej gdańskiej starówki, co sprawia, że otoczenie jest nie tylko inspirujące, ale także wyjątkowo atrakcyjne dla uczestników. W niedalekiej odległości można znaleźć dworzec PKP oraz PKS, ułatwiając przyjazd zarówno tym podróżującym pociągiem, jak i autobusem. Dodatkowo, lotnisko i port są również w zasięgu ręki, co czyni tę lokalizację wygodną dla osób przybywających z dalszych miejscowości, zarówno z kraju, jak i spoza jego granic.
Huawei Ascend to rodzina procesorów AI zaprojektowanych do wysokowydajnego wnioskowania i trenowania modeli.
To szkolenie prowadzone przez instruktora (online lub na miejscu) jest skierowane do inżynierów AI i naukowców zajmujących się danymi na poziomie średnio zaawansowanym, którzy chcą rozwijać i optymalizować modele sieci neuronowych przy użyciu platformy Huawei Ascend oraz zestawu narzędzi CANN.
Po zakończeniu szkolenia uczestnicy będą w stanie:
Skonfigurować środowisko deweloperskie CANN.
Tworzyć aplikacje AI przy użyciu MindSpore i przepływów pracy CloudMatrix.
Optymalizować wydajność na procesorach NPU Ascend przy użyciu niestandardowych operatorów i tilingu.
Wdrażać modele w środowiskach brzegowych lub chmurowych.
Format kursu
Interaktywny wykład i dyskusja.
Praktyczne wykorzystanie Huawei Ascend i zestawu narzędzi CANN w przykładowych aplikacjach.
Ćwiczenia z przewodnikiem skupione na budowaniu, trenowaniu i wdrażaniu modeli.
Opcje dostosowania kursu
Aby zamówić dostosowane szkolenie na podstawie swojej infrastruktury lub zbiorów danych, skontaktuj się z nami.
Stos AI Huawei — od niskopoziomowego SDK CANN do wysokopoziomowego frameworka MindSpore — oferuje zintegrowane środowisko do tworzenia i wdrażania rozwiązań AI, zoptymalizowane pod kątem sprzętu Ascend.
To szkolenie prowadzone przez instruktora (online lub na miejscu) jest skierowane do specjalistów technicznych na poziomie początkującym i średniozaawansowanym, którzy chcą zrozumieć, jak komponenty CANN i MindSpore współpracują, aby wspierać zarządzanie cyklem życia AI i decyzje dotyczące infrastruktury.
Pod koniec szkolenia uczestnicy będą w stanie:
Zrozumieć warstwową architekturę stosu obliczeniowego AI Huawei.
Zidentyfikować, jak CANN wspiera optymalizację modeli i wdrażanie na poziomie sprzętowym.
Ocenić framework MindSpore i jego narzędzia w porównaniu z alternatywami branżowymi.
Określić miejsce stosu AI Huawei w środowiskach przedsiębiorstw lub chmury/on-prem.
Format kursu
Interaktywny wykład i dyskusja.
Demo systemu na żywo i przykłady oparte na przypadkach.
Opcjonalne warsztaty z przewodnikiem dotyczące przepływu modeli z MindSpore do CANN.
Opcje dostosowania kursu
Aby zamówić dostosowane szkolenie, skontaktuj się z nami.
To szkolenie prowadzone przez instruktora (online lub na miejscu) jest skierowane do programistów na poziomie podstawowym i średniozaawansowanym, którzy chcą wykorzystać OpenACC do programowania urządzeń heterogenicznych i wykorzystania ich równoległości.
Po zakończeniu szkolenia uczestnicy będą mogli:
Skonfigurować środowisko programistyczne OpenACC.
Napisać i uruchomić podstawowy program OpenACC.
Adnotować kod za pomocą dyrektyw i klauzul OpenACC.
Korzystać z API i bibliotek OpenACC.
Profilować, debugować i optymalizować programy OpenACC.
CANN SDK (Compute Architecture for Neural Networks) oferuje potężne narzędzia do wdrażania i optymalizacji aplikacji AI w czasie rzeczywistym w dziedzinie przetwarzania obrazu i języka naturalnego, szczególnie na sprzęcie Huawei Ascend.
To szkolenie prowadzone przez instruktora (online lub na miejscu) jest skierowane do praktyków AI na poziomie średniozaawansowanym, którzy chcą budować, wdrażać i optymalizować modele wizyjne i językowe przy użyciu CANN SDK w przypadkach użycia produkcyjnego.
Po zakończeniu szkolenia uczestnicy będą mogli:
Wdrażać i optymalizować modele CV i NLP przy użyciu CANN i AscendCL.
Korzystać z narzędzi CANN do konwersji modeli i integrowania ich w potoki produkcyjne.
Optymalizować wydajność wnioskowania dla zadań takich jak detekcja, klasyfikacja i analiza sentymentu.
Budować potoki CV/NLP w czasie rzeczywistym dla scenariuszy wdrażania na krawędzi lub w chmurze.
Format kursu
Interaktywny wykład i demonstracja.
Praktyczne laboratorium z wdrażaniem modeli i profilowaniem wydajności.
Projektowanie potoków w czasie rzeczywistym na podstawie rzeczywistych przypadków użycia CV i NLP.
Opcje dostosowania kursu
Aby zamówić dostosowane szkolenie, skontaktuj się z nami w celu uzgodnienia szczegółów.
To szkolenie prowadzone przez instruktora (online lub na miejscu) jest skierowane do programistów na poziomie podstawowym i średniozaawansowanym, którzy chcą poznać podstawy programowania GPU oraz główne frameworki i narzędzia do tworzenia aplikacji GPU.
Pod koniec szkolenia uczestnicy będą mogli: Zrozumieć różnicę między obliczeniami CPU i GPU oraz korzyści i wyzwania związane z programowaniem GPU.
Wybrać odpowiedni framework i narzędzie dla swojej aplikacji GPU.
Stworzyć podstawowy program GPU wykonujący dodawanie wektorów przy użyciu jednego lub więcej frameworków i narzędzi.
Używać odpowiednich interfejsów API, języków i bibliotek do pobierania informacji o urządzeniu, alokowania i zwalniania pamięci urządzenia, kopiowania danych między hostem a urządzeniem, uruchamiania jąder i synchronizacji wątków.
Używać odpowiednich przestrzeni pamięci, takich jak globalna, lokalna, stała i prywatna, aby zoptymalizować transfery danych i dostęp do pamięci.
Używać odpowiednich modeli wykonania, takich jak elementy robocze, grupy robocze, wątki, bloki i siatki, aby kontrolować równoległość.
Debugować i testować programy GPU przy użyciu narzędzi takich jak CodeXL, CUDA-GDB, CUDA-MEMCHECK i NVIDIA Nsight.
Optymalizować programy GPU przy użyciu technik takich jak łączenie, buforowanie, pobieranie z wyprzedzeniem i profilowanie.
CANN TIK (Tensor Instruction Kernel) i Apache TVM umożliwiają zaawansowaną optymalizację i dostosowanie operatorów modeli AI dla sprzętu Huawei Ascend.
To szkolenie prowadzone przez instruktora (online lub na miejscu) jest skierowane do zaawansowanych programistów systemowych, którzy chcą tworzyć, wdrażać i dostrajać niestandardowe operatory dla modeli AI, korzystając z modelu programowania TIK w CANN oraz integracji z kompilatorem TVM.
Po zakończeniu szkolenia uczestnicy będą mogli:
Pisać i testować niestandardowe operatory AI przy użyciu TIK DSL dla procesorów Ascend.
Integrować niestandardowe operatory w środowisku wykonawczym CANN i grafie wykonania.
Korzystać z TVM do planowania, automatycznego dostrajania i benchmarkowania operatorów.
Debugować i optymalizować wydajność na poziomie instrukcji dla niestandardowych wzorców obliczeniowych.
Format kursu
Interaktywny wykład i demonstracja.
Praktyczne kodowanie operatorów przy użyciu potoków TIK i TVM.
Testowanie i dostrajanie na sprzęcie Ascend lub symulatorach.
Opcje dostosowania kursu
Aby zamówić dostosowane szkolenie, skontaktuj się z nami w celu uzgodnienia szczegółów.
To szkolenie prowadzone przez instruktora (online lub na miejscu) w Trójmiasto jest skierowane do programistów na poziomie początkującym i średnio zaawansowanym, którzy chcą korzystać z różnych frameworków do programowania GPU i porównać ich funkcje, wydajność i kompatybilność.
Po zakończeniu szkolenia uczestnicy będą mogli:
Skonfigurować środowisko deweloperskie obejmujące OpenCL SDK, CUDA Toolkit, platformę ROCm, urządzenie obsługujące OpenCL, CUDA lub ROCm oraz Visual Studio Code.
Stworzyć podstawowy program GPU wykonujący dodawanie wektorów przy użyciu OpenCL, CUDA i ROCm oraz porównać składnię, strukturę i wykonanie każdego frameworka.
Korzystać z odpowiednich interfejsów API do uzyskiwania informacji o urządzeniu, alokowania i zwalniania pamięci urządzenia, kopiowania danych między hostem a urządzeniem, uruchamiania kernelów i synchronizacji wątków.
Korzystać z odpowiednich języków do pisania kernelów wykonywanych na urządzeniu i manipulowania danymi.
Korzystać z wbudowanych funkcji, zmiennych i bibliotek do wykonywania typowych zadań i operacji.
Korzystać z odpowiednich przestrzeni pamięci, takich jak globalna, lokalna, stała i prywatna, aby zoptymalizować transfery danych i dostęp do pamięci.
Korzystać z odpowiednich modeli wykonania do kontrolowania wątków, bloków i siatek definiujących równoległość.
Debugować i testować programy GPU przy użyciu narzędzi takich jak CodeXL, CUDA-GDB, CUDA-MEMCHECK i NVIDIA Nsight.
Optymalizować programy GPU przy użyciu technik takich jak łączenie, buforowanie, prefetching i profilowanie.
CloudMatrix to zunifikowana platforma Huawei do rozwoju i wdrażania sztucznej inteligencji, zaprojektowana do obsługi skalowalnych, produkcyjnych potoków wnioskowania.
To szkolenie prowadzone przez instruktora (online lub na miejscu) jest skierowane do profesjonalistów AI na poziomie podstawowym i średnio zaawansowanym, którzy chcą wdrażać i monitorować modele AI za pomocą platformy CloudMatrix z integracją CANN i MindSpore.
Po zakończeniu szkolenia uczestnicy będą mogli:
Korzystać z CloudMatrix do pakowania, wdrażania i udostępniania modeli.
Konwertować i optymalizować modele pod kątem chipsetów Ascend.
Konfigurować potoki do zadań wnioskowania w czasie rzeczywistym i wsadowego.
Monitorować wdrożenia i dostrajać wydajność w środowiskach produkcyjnych.
Format kursu
Interaktywny wykład i dyskusja.
Praktyczne wykorzystanie CloudMatrix w rzeczywistych scenariuszach wdrażania.
Ćwiczenia z przewodnikiem skupione na konwersji, optymalizacji i skalowaniu.
Opcje dostosowania kursu
Aby zamówić dostosowane szkolenie do tego kursu na podstawie swojej infrastruktury AI lub środowiska chmurowego, skontaktuj się z nami w celu ustalenia szczegółów.
Narzędzie Huawei Ascend CANN umożliwia wydajną inferencję AI na urządzeniach brzegowych, takich jak Ascend 310. CANN dostarcza niezbędnych narzędzi do kompilowania, optymalizowania i wdrażania modeli w środowiskach z ograniczonymi zasobami obliczeniowymi i pamięciowymi.
To szkolenie prowadzone przez instruktora (online lub na miejscu) jest skierowane do średniozaawansowanych programistów i integratorów AI, którzy chcą wdrażać i optymalizować modele na urządzeniach brzegowych Ascend przy użyciu łańcucha narzędziowego CANN.
Po ukończeniu szkolenia uczestnicy będą mogli:
Przygotowywać i konwertować modele AI dla Ascend 310 za pomocą narzędzi CANN.
Budować lekkie potoki inferencyjne przy użyciu MindSpore Lite i AscendCL.
Optymalizować wydajność modeli w środowiskach z ograniczonymi zasobami obliczeniowymi i pamięciowymi.
Wdrażać i monitorować aplikacje AI w rzeczywistych przypadkach użycia na urządzeniach brzegowych.
Format kursu
Interaktywny wykład i demonstracja.
Praktyczne ćwiczenia z modelami i scenariuszami specyficznymi dla urządzeń brzegowych.
Przykłady wdrożeń na wirtualnym lub fizycznym sprzęcie brzegowym.
Opcje dostosowania kursu
Aby zamówić spersonalizowane szkolenie, skontaktuj się z nami w celu uzgodnienia szczegółów.
To szkolenie prowadzone przez instruktora w Trójmiasto (online lub na miejscu) jest skierowane do programistów na poziomie początkującym i średniozaawansowanym, którzy chcą zainstalować i korzystać z ROCm w systemie Windows, aby programować karty graficzne AMD i wykorzystywać ich możliwości równoległego przetwarzania.
Pod koniec szkolenia uczestnicy będą mogli:
Skonfigurować środowisko programistyczne obejmujące platformę ROCm, kartę graficzną AMD oraz Visual Studio Code w systemie Windows.
Stworzyć podstawowy program ROCm, który wykonuje dodawanie wektorów na GPU i pobiera wyniki z pamięci GPU.
Korzystać z interfejsu ROCm API do pozyskiwania informacji o urządzeniu, alokowania i zwalniania pamięci urządzenia, kopiowania danych między hostem a urządzeniem, uruchamiania jąder i synchronizacji wątków.
Korzystać z języka HIP do pisania jąder, które wykonują się na GPU i manipulują danymi.
Korzystać z wbudowanych funkcji, zmiennych i bibliotek HIP do wykonywania typowych zadań i operacji.
Korzystać z przestrzeni pamięci ROCm i HIP, takich jak globalna, współdzielona, stała i lokalna, aby optymalizować transfery danych i dostęp do pamięci.
Korzystać z modeli wykonania ROCm i HIP do kontrolowania wątków, bloków i siatek, które definiują równoległe przetwarzanie.
Debugować i testować programy ROCm i HIP za pomocą narzędzi takich jak ROCm Debugger i ROCm Profiler.
Optymalizować programy ROCm i HIP przy użyciu technik takich jak łączenie, buforowanie, pobieranie z wyprzedzeniem i profilowanie.
To szkolenie prowadzone przez instruktora w Trójmiasto (online lub na miejscu) jest skierowane do programistów na poziomie początkującym i średniozaawansowanym, którzy chcą wykorzystać ROCm i HIP do programowania GPU AMD i wykorzystania ich równoległości.
Po zakończeniu szkolenia uczestnicy będą mogli:
Skonfigurować środowisko programistyczne obejmujące platformę ROCm, procesor graficzny AMD oraz Visual Studio Code.
Stworzyć podstawowy program ROCm, który wykonuje dodawanie wektorów na GPU i pobiera wyniki z pamięci GPU.
Używać interfejsu API ROCm do odpytywania o informacje o urządzeniu, alokowania i zwalniania pamięci urządzenia, kopiowania danych między hostem a urządzeniem, uruchamiania jąder i synchronizacji wątków.
Używać języka HIP do pisania jąder wykonywanych na GPU i manipulowania danymi.
Używać wbudowanych funkcji, zmiennych i bibliotek HIP do wykonywania typowych zadań i operacji.
Używać przestrzeni pamięci ROCm i HIP, takich jak globalna, współdzielona, stała i lokalna, aby optymalizować transfery danych i dostęp do pamięci.
Używać modeli wykonania ROCm i HIP do kontrolowania wątków, bloków i siatek, które definiują równoległość.
Debugować i testować programy ROCm i HIP za pomocą narzędzi takich jak ROCm Debugger i ROCm Profiler.
Optymalizować programy ROCm i HIP za pomocą technik takich jak łączenie, buforowanie, pobieranie z wyprzedzeniem i profilowanie.
CANN (Compute Architecture for Neural Networks) to zestaw narzędzi do obliczeń AI firmy Huawei, używany do kompilowania, optymalizacji i wdrażania modeli AI na procesorach Ascend AI.
To szkolenie prowadzone przez instruktora (online lub na miejscu) jest skierowane do początkujących deweloperów AI, którzy chcą zrozumieć, jak CANN wpisuje się w cykl życia modelu od szkolenia do wdrożenia, oraz jak współpracuje z frameworkami takimi jak MindSpore, TensorFlow i PyTorch.
Pod koniec szkolenia uczestnicy będą mogli:
Zrozumieć cel i architekturę zestawu narzędzi CANN.
Skonfigurować środowisko deweloperskie z CANN i MindSpore.
Przekształcić i wdrożyć prosty model AI na sprzęcie Ascend.
Zdobyć podstawową wiedzę na temat przyszłych projektów optymalizacji lub integracji CANN.
Format kursu
Interaktywny wykład i dyskusja.
Praktyczne laboratoria z prostym wdrażaniem modeli.
Krok po kroku omówienie łańcucha narzędzi CANN i punktów integracji.
Opcje dostosowania kursu
Aby zamówić dostosowane szkolenie, prosimy o kontakt w celu uzgodnienia szczegółów.
Ascend, Biren i Cambricon to wiodące platformy sprzętowe AI w Chinach, oferujące unikalne narzędzia do przyspieszania i profilowania na potrzeby produkcji na dużą skalę w obszarze obciążeń AI.
Ten prowadzony przez instruktora, żywy trening (online lub na miejscu) skierowany jest do zaawansowanych inżynierów infrastruktury AI i wydajności, którzy chcą optymalizować procesy wnioskowania i trenowania modeli na wielu chińskich platformach chipów AI.
Po zakończeniu szkolenia uczestnicy będą mogli:
Testować modele na platformach Ascend, Biren i Cambricon.
Identyfikować wąskie gardła systemowe i nieefektywności pamięci/obliczeń.
Stosować optymalizacje na poziomie grafu, jądra i operatora.
Dostosowywać potoki wdrożeniowe w celu poprawy przepustowości i opóźnienia.
Format kursu
Interaktywny wykład i dyskusja.
Praktyczne wykorzystanie narzędzi profilowania i optymalizacji na każdej platformie.
Prowadzone ćwiczenia skupione na praktycznych scenariuszach dostosowywania.
Opcje dostosowania kursu
Aby zamówić dostosowany trening na podstawie środowiska wydajnościowego lub typu modelu, skontaktuj się z nami w celu uzgodnienia.
CANN SDK (Compute Architecture for Neural Networks) to fundament obliczeniowy sztucznej inteligencji firmy Huawei, który umożliwia programistom dostrajanie i optymalizację wydajności wdrożonych sieci neuronowych na procesorach Ascend AI.
To szkolenie prowadzone przez instruktora, na żywo (online lub na miejscu), jest skierowane do zaawansowanych programistów AI i inżynierów systemowych, którzy chcą optymalizować wydajność wnioskowania, korzystając z zaawansowanych narzędzi CANN, takich jak Graph Engine, TIK i rozwój niestandardowych operatorów.
Pod koniec szkolenia uczestnicy będą w stanie:
Zrozumieć architekturę środowiska wykonawczego CANN i cykl życia wydajności.
Korzystać z narzędzi do profilowania i Graph Engine do analizy i optymalizacji wydajności.
Tworzyć i optymalizować niestandardowe operatory przy użyciu TIK i TVM.
Rozwiązywać problemy z wąskimi gardłami pamięci i poprawiać przepustowość modelu.
Format kursu
Interaktywny wykład i dyskusja.
Praktyczne laboratoria z profilowaniem w czasie rzeczywistym i dostrajaniem operatorów.
Ćwiczenia optymalizacyjne z wykorzystaniem przykładów wdrożeń skrajnych przypadków.
Opcje dostosowania kursu
Aby zamówić dostosowane szkolenie dla tego kursu, skontaktuj się z nami w celu ustalenia szczegółów.
Chińskie architektury GPU, takie jak Huawei Ascend, Biren i Cambricon MLU, oferują alternatywy dla CUDA dostosowane do lokalnych rynków AI i HPC.
To szkolenie prowadzone przez instruktora na żywo (online lub na miejscu) jest skierowane do zaawansowanych programistów GPU i specjalistów od infrastruktury, którzy chcą migrować i optymalizować istniejące aplikacje CUDA do wdrożenia na chińskich platformach sprzętowych.
Pod koniec szkolenia uczestnicy będą mogli:
Ocenić kompatybilność istniejących obciążeń CUDA z chińskimi alternatywami układów.
Przenosić bazy kodu CUDA na środowiska Huawei CANN, Biren SDK i Cambricon BANGPy.
Porównywać wydajność i identyfikować punkty optymalizacji na różnych platformach.
Radzić sobie z praktycznymi wyzwaniami związanymi z obsługą i wdrażaniem między architekturami.
Format kursu
Interaktywny wykład i dyskusja.
Praktyczne laboratoria tłumaczenia kodu i porównywania wydajności.
Kierowane ćwiczenia skupione na strategiach adaptacji wieloprocesorowych GPU.
Opcje dostosowania kursu
Aby zamówić dostosowane szkolenie na podstawie Twojej platformy lub projektu CUDA, skontaktuj się z nami w celu ustalenia szczegółów.
To szkolenie prowadzone przez instruktora (online lub na miejscu) jest skierowane do programistów na poziomie początkującym i średniozaawansowanym, którzy chcą używać CUDA do programowania procesorów graficznych NVIDIA i wykorzystywać ich równoległość.
Pod koniec szkolenia uczestnicy będą mogli:
Skonfigurować środowisko programistyczne zawierające CUDA Toolkit, procesor graficzny NVIDIA oraz Visual Studio Code.
Stworzyć podstawowy program CUDA, który wykonuje dodawanie wektorów na GPU i pobiera wyniki z pamięci GPU.
Używać CUDA API do pobierania informacji o urządzeniu, alokowania i zwalniania pamięci urządzenia, kopiowania danych między hostem a urządzeniem, uruchamiania jąder i synchronizacji wątków.
Używać języka CUDA C/C++ do pisania jąder wykonywanych na GPU i manipulowania danymi.
Używać wbudowanych funkcji, zmiennych i bibliotek CUDA do wykonywania typowych zadań i operacji.
Używać przestrzeni pamięci CUDA, takich jak globalna, współdzielona, stała i lokalna, aby optymalizować transfery danych i dostęp do pamięci.
Używać modelu wykonania CUDA do kontrolowania wątków, bloków i siatek, które definiują równoległość.
Debugować i testować programy CUDA za pomocą narzędzi takich jak CUDA-GDB, CUDA-MEMCHECK i NVIDIA Nsight.
Optymalizować programy CUDA za pomocą technik takich jak łączenie, buforowanie, pobieranie z wyprzedzeniem i profilowanie.
CANN (Compute Architecture for Neural Networks) to stos obliczeniowy AI firmy Huawei do wdrażania i optymalizacji modeli AI na procesorach Ascend AI.
To szkolenie prowadzone przez instruktora, na żywo (online lub na miejscu) jest skierowane do średniozaawansowanych programistów i inżynierów AI, którzy chcą efektywnie wdrażać wytrenowane modele AI na sprzęcie Huawei Ascend przy użyciu zestawu narzędzi CANN oraz narzędzi takich jak MindSpore, TensorFlow czy PyTorch.
Po zakończeniu szkolenia uczestnicy będą w stanie:
Zrozumieć architekturę CANN i jej rolę w procesie wdrażania AI.
Konwertować i adaptować modele z popularnych frameworków do formatów zgodnych z Ascend.
Korzystać z narzędzi takich jak ATC, konwersja modeli OM i MindSpore do wnioskowania na urządzeniach brzegowych i w chmurze.
Diagnozować problemy związane z wdrażaniem i optymalizować wydajność na sprzęcie Ascend.
Format kursu
Interaktywny wykład i demonstracja.
Praktyczne ćwiczenia z wykorzystaniem narzędzi CANN i symulatorów lub urządzeń Ascend.
Praktyczne scenariusze wdrażania oparte na rzeczywistych modelach AI.
Opcje dostosowania kursu
Aby zamówić dostosowane szkolenie, skontaktuj się z nami w celu uzgodnienia szczegółów.
Akceleratory AI Biren to wysokowydajne procesory graficzne (GPU) zaprojektowane do obciążeń związanych ze sztuczną inteligencją i obliczeniami wysokiej wydajności (HPC), z obsługą skalowalnego treningu i inferencji.
To szkolenie prowadzone przez instruktora (online lub na miejscu) jest skierowane do programistów na poziomie średniozaawansowanym i zaawansowanym, którzy chcą programować i optymalizować aplikacje przy użyciu własnego stosu GPU Biren, z praktycznymi porównaniami do środowisk opartych na CUDA.
Po zakończeniu szkolenia uczestnicy będą mogli:
Zrozumieć architekturę GPU Biren i hierarchię pamięci.
Skonfigurować środowisko programistyczne i korzystać z modelu programowania Biren.
Tłumaczyć i optymalizować kod w stylu CUDA na platformy Biren.
Stosować techniki dostrajania wydajności i debugowania.
Format kursu
Interaktywne wykłady i dyskusje.
Praktyczne wykorzystanie SDK Biren w przykładowych obciążeniach GPU.
Prowadzone ćwiczenia skupione na przenoszeniu i dostrajaniu wydajności.
Opcje dostosowania kursu
Aby zamówić dostosowane szkolenie na podstawie potrzeb dotyczących stosu aplikacji lub integracji, skontaktuj się z nami w celu uzgodnienia szczegółów.
Cambricon MLU (Machine Learning Units) to specjalizowane układy AI zoptymalizowane do wnioskowania i uczenia w scenariuszach brzegowych i centrów danych.
To szkolenie prowadzone przez instruktora, na żywo (online lub na miejscu) jest skierowane do programistów na średnim poziomie zaawansowania, którzy chcą budować i wdrażać modele AI przy użyciu frameworka BANGPy i SDK Neuware na sprzęcie Cambricon MLU.
Pod koniec szkolenia uczestnicy będą mogli:
Skonfigurować środowiska deweloperskie BANGPy i Neuware.
Tworzyć i optymalizować modele oparte na Pythonie i C++ dla Cambricon MLU.
Wdrażać modele na urządzeniach brzegowych i w centrach danych działających na środowisku uruchomieniowym Neuware.
Integrować przepływy pracy ML z funkcjami przyspieszania specyficznymi dla MLU.
Format kursu
Interaktywny wykład i dyskusja.
Praktyczne użycie BANGPy i Neuware do rozwoju i wdrażania.
Kierowane ćwiczenia skupiające się na optymalizacji, integracji i testowaniu.
Opcje dostosowania kursu
Aby zamówić dostosowane szkolenie dla tego kursu na podstawie modelu urządzenia Cambricon lub przypadku użycia, prosimy o kontakt w celu uzgodnienia.
To szkolenie prowadzone przez instruktora na żywo w Trójmiasto (online lub na miejscu) jest skierowane do początkujących administratorów systemów i specjalistów IT, którzy chcą instalować, konfigurować, zarządzać i rozwiązywać problemy w środowiskach CUDA.
Po zakończeniu szkolenia uczestnicy będą mogli:
Zrozumieć architekturę, komponenty i możliwości CUDA.
Ten prowadzony przez instruktora, żywy trening w Trójmiasto (online lub na miejscu) jest skierowany do programistów na poziomie podstawowym i średnio zaawansowanym, którzy chcą wykorzystać OpenCL do programowania urządzeń heterogenicznych i wykorzystać ich równoległość.
Pod koniec tego szkolenia uczestnicy będą mogli:
Skonfigurować środowisko programistyczne zawierające OpenCL SDK, urządzenie obsługujące OpenCL oraz Visual Studio Code.
Utworzyć podstawowy program OpenCL, który wykonuje dodawanie wektorowe na urządzeniu i pobiera wyniki z pamięci urządzenia.
Wykorzystać OpenCL API do pobierania informacji o urządzeniu, tworzenia kontekstów, kolejek poleceń, buforów, kernelów i zdarzeń.
Wykorzystać język OpenCL C do pisania kernelów, które wykonują się na urządzeniu i manipulują danymi.
Wykorzystać wbudowane funkcje, rozszerzenia i biblioteki OpenCL do wykonywania typowych zadań i operacji.
Wykorzystać modele pamięci hosta i urządzenia OpenCL do optymalizacji transferów danych i dostępu do pamięci.
Wykorzystać model wykonania OpenCL do kontrolowania work-items, work-groups i ND-ranges.
Debugować i testować programy OpenCL za pomocą narzędzi takich jak CodeXL, Intel VTune i NVIDIA Nsight.
Optymalizować programy OpenCL za pomocą technik takich jak wektoryzacja, rozwinięcie pętli, pamięć lokalna i profilowanie.
To szkolenie prowadzone przez instruktora, na żywo w Trójmiasto (online lub na miejscu) jest skierowane do programistów na poziomie średnio zaawansowanym, którzy chcą wykorzystać CUDA do tworzenia aplikacji w Pythonie działających równolegle na GPU NVIDIA.
Pod koniec szkolenia uczestnicy będą mogli:
Używać kompilatora Numba do przyspieszenia aplikacji w Pythonie działających na GPU NVIDIA.
Tworzyć, kompilować i uruchamiać własne jądra CUDA.
Zarządzać pamięcią GPU.
Przekształcać aplikację opartą na CPU w aplikację przyspieszoną przez GPU.
Ten prowadzony przez instruktora kurs na żywo w Trójmiasto obejmuje programowanie GPU do obliczeń równoległych, korzystanie z różnych platform, pracę z platformą CUDA i jej funkcjami oraz stosowanie różnych technik optymalizacji za pomocą CUDA. Niektóre z zastosowań obejmują uczenie głębokie, analizy, przetwarzanie obrazów i aplikacje inżynierskie.
Więcej...
Ostatnia aktualizacja:
Opinie uczestników (2)
Bardzo interaktywny z wieloma przykładami, z dobrą progresją w złożoności od początku do końca szkolenia.
Jenny - Andheo
Szkolenie - GPU Programming with CUDA and Python
Przetłumaczone przez sztuczną inteligencję
Podejście prowadzącego. Bardzo sympatyczny i z poczuciem humoru, jednocześnie z zachowaniem należytego profesjonalizmu. W razie pytań, odpowiedzi były zawsze wyczerpujące. Dla mnie jako osoby mało obeznaną z tematem programowania niskopoziomowego, otwartośc prowadzącego dużo pomoga.
Michal Kwiatek - Nokia Solutions and Networks Sp. z o.o.