Lokalne, prowadzone przez instruktora kursy szkoleniowe na żywo dotyczące GPU (Graphics Processing Unit) demonstrują poprzez interaktywną dyskusję i praktyczne ćwiczenie podstaw GPU i programowania GPU. Szkolenie GPU jest dostępne jako "szkolenie online na żywo" lub "szkolenie na żywo na miejscu". Szkolenie na żywo online (inaczej "zdalne szkolenie na żywo") odbywa się za pomocą interaktywnego, zdalnego pulpitu . Szkolenie na żywo na miejscu może odbywać się lokalnie w siedzibie klienta w Szczecin lub w korporacyjnych centrach szkoleniowych NobleProg w Szczecin. NobleProg — Twój lokalny dostawca szkoleń
Szczecin
Biuro Aloha, Jerzego Janosika 17, Szczecin, Polska, 71-424
Sala szkoleniowa jest w pełni wyposażona, zapewniając wszystkie niezbędne udogodnienia dla uczestników. Dodatkowo, posiada atrakcyjne połączenia komunikacyjne ze wszystkimi strategicznymi punktami miasta, co ułatwia dotarcie do niej zarówno dla mieszkańców, jak i osób spoza miasta. Znajduje się zaledwie 3 kilometry od centrum, co umożliwia szybki dostęp do innych ważnych lokalizacji miejskich i udogodnień.
Huawei Ascend to rodzina procesorów AI zaprojektowanych do wysokowydajnego wnioskowania i uczenia.
To szkolenie prowadzone przez instruktora (online lub na miejscu) jest skierowane do inżynierów AI i naukowców danych na poziomie średniozaawansowanym, którzy chcą tworzyć i optymalizować modele sieci neuronowych za pomocą platformy Huawei Ascend i zestawu narzędzi CANN.
Na koniec tego szkolenia uczestnicy będą mogli:
Konfigurować i uruchamiać środowisko rozwojowe CANN.
Rozwojować aplikacje AI za pomocą MindSpore i przepływów CloudMatrix.
Optymalizować wydajność na jednostkach Ascend NPU za pomocą niestandardowych operatorów i podziału.
Wdrażać modele w środowiskach krawędziowych lub chmurowych.
Format kursu
Interaktywne wykłady i dyskusje.
Praktyczne wykorzystanie Huawei Ascend i zestawu narzędzi CANN w przykładowych aplikacjach.
Przewodniki do ćwiczeń skupionych na budowaniu, uczeniu i wdrażaniu modeli.
Opcje dostosowania kursu
Aby złożyć wniosek o dostosowane szkolenie w ramach tego kursu na podstawie swojej infrastruktury lub zestawów danych, skontaktuj się z nami w celu ustalenia.
Stos Huawei’s AI — od niskopoziomowego SDK CANN do wysokopoziomowego frameworka MindSpore — oferuje zintegrowane środowisko rozwoju i wdrażania sztucznej inteligencji optymalizowane dla sprzętu Ascend.
To szkolenie prowadzone przez instruktora (online lub stacjonarne) jest skierowane do początkujących do średnio zaawansowanych profesjonalistów technicznych, którzy chcą zrozumieć, jak składniki CANN i MindSpore współpracują ze sobą w celu wsparcia zarządzania cyklem życia sztucznej inteligencji i podejmowania decyzji infrastrukturalnych.
Po zakończeniu tego szkolenia uczestnicy będą w stanie:
To prowadzone przez instruktora szkolenie na żywo w Szczecin (na miejscu lub zdalnie) jest przeznaczone dla początkujących i średnio zaawansowanych programistów, którzy chcą używać OpenACC do programowania heterogenicznych urządzeń i wykorzystywania ich równoległości.
Pod koniec tego szkolenia uczestnicy będą w stanie
Skonfigurować środowisko programistyczne, które obejmuje OpenACC SDK, urządzenie obsługujące OpenACC i Visual Studio Code.
Utworzyć podstawowy program OpenACC, który wykonuje dodawanie wektorowe na urządzeniu i pobiera wyniki z pamięci urządzenia.
Użyj dyrektyw i klauzul OpenACC, aby dodać adnotacje do kodu i określić regiony równoległe, ruch danych i opcje optymalizacji.
Używanie interfejsu API OpenACC do odpytywania informacji o urządzeniu, ustawiania numeru urządzenia, obsługi błędów i synchronizacji zdarzeń.
Korzystanie z bibliotek OpenACC i funkcji interoperacyjności w celu integracji OpenACC z innymi modelami programowania, takimi jak CUDA, OpenMP i MPI.
Używanie narzędzi OpenACC do profilowania i debugowania programów OpenACC oraz identyfikowania wąskich gardeł i możliwości związanych z wydajnością.
Optymalizacja programów OpenACC przy użyciu technik takich jak lokalność danych, fuzja pętli, fuzja jądra i automatyczne dostrajanie.
SDK CANN (architektura obliczeniowa dla Neural Networks) zapewnia potężne narzędzia do wdrażania i optymalizacji aplikacji AI w czasie rzeczywistym w dziedzinie komputerowego widzenia i NLP, szczególnie na sprzęcie Huawei Ascend.
To szkolenie prowadzone przez instruktora (online lub na miejscu) jest skierowane do praktyków AI na poziomie średnim, którzy chcą budować, wdrażać i optymalizować modele wizji i języka za pomocą SDK CANN do scenariuszy produkcyjnych.
Po zakończeniu tego szkolenia uczestnicy będą w stanie:
Wdrażać i optymalizować modele CV i NLP za pomocą CANN i AscendCL.
Korzystać z narzędzi CANN do konwertowania modeli i ich integracji w żywe pipeline.
Optymalizować wydajność inferencji dla zadań takich jak detekcja, klasyfikacja i analiza sentymentu.
Budować pipeline CV/NLP w czasie rzeczywistym dla scenariuszy wdrażania na krawędzi lub w chmurze.
Format kursu
Interaktywne wykłady i demonstracje.
Ćwiczenia laboratoryjne z wdrażaniem modeli i profilowaniem wydajności.
Projektowanie żywych pipeline za pomocą rzeczywistych scenariuszy CV i NLP.
Opcje dostosowywania kursu
Aby poprosić o dostosowane szkolenie dla tego kursu, skontaktuj się z nami w celu uzgodnień.
To prowadzone przez instruktora szkolenie na żywo w Szczecin (na miejscu lub zdalnie) jest przeznaczone dla początkujących i średnio zaawansowanych programistów, którzy chcą nauczyć się podstaw programowania GPU oraz głównych frameworków i narzędzi do tworzenia aplikacji GPU.
Pod koniec tego szkolenia uczestnicy będą w stanie Zrozumieć różnicę między procesorem a GPU obliczeniowym oraz korzyści i wyzwania związane z programowaniem GPU.
Wybrać odpowiedni framework i narzędzie dla swojej aplikacji GPU.
Stworzyć podstawowy program GPU, który wykonuje dodawanie wektorowe przy użyciu jednego lub więcej frameworków i narzędzi.
Korzystanie z odpowiednich interfejsów API, języków i bibliotek w celu wyszukiwania informacji o urządzeniu, przydzielania i zwalniania pamięci urządzenia, kopiowania danych między hostem a urządzeniem, uruchamiania jądra i synchronizowania wątków.
Korzystanie z odpowiednich przestrzeni pamięci, takich jak globalna, lokalna, stała i prywatna, w celu optymalizacji transferu danych i dostępu do pamięci.
Korzystanie z odpowiednich modeli wykonania, takich jak elementy robocze, grupy robocze, wątki, bloki i siatki, w celu kontrolowania równoległości.
Debugowanie i testowanie programów GPU przy użyciu narzędzi takich jak CodeXL, CUDA-GDB, CUDA-MEMCHECK i NVIDIA Nsight.
Optymalizacja programów GPU przy użyciu technik takich jak koalescencja, buforowanie, prefetching i profilowanie.
CANN TIK (Tensor Instruction Kernel) i Apache TVM umożliwiają zaawansowaną optymalizację i dostosowanie operatorów modeli AI dla Huawei Ascend sprzętu.
To szkolenie prowadzone przez instruktora (online lub na miejscu) jest przeznaczone dla zaawansowanych programistów systemowych, którzy chcą budować, wdrażać i dostrajać niestandardowe operatory dla modeli AI za pomocą modelu programowania TIK firmy CANN i integracji z kompilatorem TVM.
Po zakończeniu tego szkolenia uczestnicy będą w stanie:
Pisanie i testowanie niestandardowych operatorów AI za pomocą TIK DSL dla procesorów Ascend.
Integrowanie niestandardowych operacji z czasem wykonania CANN i wykresem wykonania.
Używanie TVM do planowania operatorów, automatycznego dostrajania i testowania wydajności.
Debugowanie i optymalizowanie wydajności poziomu instrukcji dla niestandardowych wzorców obliczeń.
Format kursu
Interaktywna lekcja i demonstracja.
Ręczne programowanie operatorów za pomocą TIK i pipeline TVM.
Testowanie i dostrajanie na sprzęcie Ascend lub symulatorach.
Opcje dostosowywania kursu
Aby zapytać o dostosowane szkolenie dla tego kursu, skontaktuj się z nami w celu ustalenia.
To szkolenie prowadzone przez instruktora w trybie online lub stacjonarnym jest skierowane do początkujących do średnio zaawansowanych programistów, którzy chcą wykorzystać różne frameworki do programowania GPU i porównać ich funkcje, wydajność i kompatybilność.
Po zakończeniu tego szkolenia uczestnicy będą mogli:
Ustawić środowisko rozwoju, w tym OpenCL SDK, CUDA Toolkit, platformę ROCm, urządzenie obsługujące OpenCL, CUDA lub ROCm oraz Visual Studio Code.
Stworzyć podstawowy program GPU wykonujący dodawanie wektorów przy użyciu OpenCL, CUDA i ROCm, a następnie porównać składnię, strukturę i wykonanie każdego z frameworków.
Wykorzystać odpowiednie API do zapytania o informacje o urządzeniu, alokacji i dezalokacji pamięci urządzenia, kopiowania danych między hostem a urządzeniem, uruchamiania jąder i synchronizacji wątków.
Napisać jądra uruchamiane na urządzeniu i manipulujące danymi przy użyciu odpowiednich języków.
Wykorzystać wbudowane funkcje, zmienne i biblioteki każdego frameworku do wykonywania typowych zadań i operacji.
Wykorzystać przestrzenie pamięci, takie jak globalne, lokalne, stałe i prywatne, aby zoptymalizować transfery danych i dostępy do pamięci.
Wykorzystać odpowiednie modele wykonania do kontrolowania wątków, bloków i siatek, które definiują równoległość.
Debugować i testować programy GPU za pomocą narzędzi, takich jak CodeXL, CUDA-GDB, CUDA-MEMCHECK i NVIDIA Nsight.
Optymalizować programy GPU za pomocą technik, takich jak koalescing, caching, prefetching i profiling.
CloudMatrix jest zunifikowaną platformą Huawei do rozwoju i wdrażania sztucznej inteligencji, zaprojektowaną do obsługi skalowalnych, produkcyjnych wniosków.
Ten prowadzony przez instruktora kurs (online lub na miejscu) jest skierowany do AI profesjonalistów o poziomie początkującego do średniozaawansowanego, którzy chcą wdrażać i monitorować modele AI za pomocą platformy CloudMatrix z integracją CANN i MindSpore.
Po zakończeniu tego kursu uczestnicy będą w stanie:
Używać CloudMatrix do pakowania, wdrażania i serwowania modeli.
Konwertować i optymalizować modele dla chipsetów Ascend.
Konfigurować rurociągi do zadań wniosków w czasie rzeczywistym i w partiach.
Monitorować wdrożenia i dostosowywać wydajność w środowiskach produkcyjnych.
Format kursu
Interaktywna wykład i dyskusja.
Ręczne korzystanie z CloudMatrix w prawdziwych scenariuszach wdrażania.
Zadania prowadzone skupione na konwersji, optymalizacji i skalowaniu.
Opcje dostosowania kursu
Aby poprosić o dostosowany szkolenie na podstawie Twojej infrastruktury AI lub środowiska chmur, skontaktuj się z nami w celu zorganizowania.
Narzędzie Ascend CANN od Huawei umożliwia potężne wnioskowanie AI na urządzeniach na krawędzi, takich jak Ascend 310. CANN dostarcza niezbędne narzędzia do kompilowania, optymalizowania i wdrażania modeli w środowiskach o ograniczonych możliwościach obliczeniowych i pamięci.
Ten szkolenie prowadzone przez instruktora (online lub na miejscu) jest przeznaczone dla AI developerów i integratorów na poziomie średnim, którzy chcą wdrażać i optymalizować modele na urządzeniach na krawędzi Ascend przy użyciu narzędzi CANN.
Po zakończeniu tego szkolenia uczestnicy będą w stanie:
Przygotowywać i konwertować modele AI dla Ascend 310 za pomocą narzędzi CANN.
Budować lekkie pipeline wnioskowania za pomocą MindSpore Lite i AscendCL.
Optymalizować wydajność modeli w środowiskach o ograniczonych możliwościach obliczeniowych i pamięci.
Wdrażać i monitorować aplikacje AI w rzeczywistych przypadkach użycia na krawędzi.
Format kursu
Interaktywna wykład i demonstracja.
Praktyczne ćwiczenia laboratoryjne z modelami i scenariuszami specyficznymi dla krawędzi.
Przykłady wdrażania na żywo na wirtualnym lub fizycznym sprzęcie na krawędzi.
Opcje dostosowania kursu
Aby zażądać dostosowanego szkolenia dla tego kursu, prosimy o kontakt z nami w celu ustalenia szczegółów.
Szkolenie na żywo prowadzone przez instruktora w Szczecin (na miejscu lub zdalnie) jest przeznaczone dla początkujących i średnio zaawansowanych programistów, którzy chcą zainstalować i używać ROCm w systemie Windows do programowania procesorów AMD GPU i wykorzystywania ich równoległości.
Pod koniec tego szkolenia uczestnicy będą w stanie
Skonfigurować środowisko programistyczne, które obejmuje platformę ROCm, procesor AMD GPU i Visual Studio Code w systemie Windows.
Stworzyć podstawowy program ROCm, który wykonuje dodawanie wektorowe na GPU i pobiera wyniki z pamięci GPU.
Użyj interfejsu API ROCm, aby uzyskać informacje o urządzeniu, przydzielić i zwolnić pamięć urządzenia, skopiować dane między hostem a urządzeniem, uruchomić jądra i zsynchronizować wątki.
Używanie języka HIP do pisania jąder, które wykonują się na GPU i manipulują danymi.
Używanie wbudowanych funkcji, zmiennych i bibliotek HIP do wykonywania typowych zadań i operacji.
Używanie przestrzeni pamięci ROCm i HIP, takich jak globalna, współdzielona, stała i lokalna, w celu optymalizacji transferu danych i dostępu do pamięci.
Używanie modeli wykonania ROCm i HIP do kontrolowania wątków, bloków i siatek, które definiują równoległość.
Debugowanie i testowanie programów ROCm i HIP przy użyciu narzędzi takich jak ROCm Debugger i ROCm Profiler.
Optymalizacja programów ROCm i HIP przy użyciu technik takich jak koalescencja, buforowanie, wstępne pobieranie i profilowanie.
To prowadzone przez instruktora szkolenie na żywo w Szczecin (na miejscu lub zdalnie) jest przeznaczone dla początkujących i średnio zaawansowanych programistów, którzy chcą używać ROCm i HIP do programowania procesorów AMD GPU i wykorzystywania ich równoległości.
Pod koniec tego szkolenia uczestnicy będą w stanie
Skonfigurować środowisko programistyczne, które obejmuje platformę ROCm, procesor AMD GPU i Visual Studio Code.
Stworzyć podstawowy program ROCm, który wykonuje dodawanie wektorowe na GPU i pobiera wyniki z pamięci GPU.
Użyj interfejsu API ROCm, aby zapytać o informacje o urządzeniu, przydzielić i zwolnić pamięć urządzenia, skopiować dane między hostem a urządzeniem, uruchomić jądra i zsynchronizować wątki.
Używanie języka HIP do pisania jąder, które wykonują się na GPU i manipulują danymi.
Używanie wbudowanych funkcji, zmiennych i bibliotek HIP do wykonywania typowych zadań i operacji.
Używanie przestrzeni pamięci ROCm i HIP, takich jak globalna, współdzielona, stała i lokalna, w celu optymalizacji transferu danych i dostępu do pamięci.
Używanie modeli wykonania ROCm i HIP do kontrolowania wątków, bloków i siatek, które definiują równoległość.
Debugowanie i testowanie programów ROCm i HIP przy użyciu narzędzi takich jak ROCm Debugger i ROCm Profiler.
Optymalizacja programów ROCm i HIP przy użyciu technik takich jak koalescencja, buforowanie, wstępne pobieranie i profilowanie.
Narzędzie obliczeniowe CANN (Architektura obliczeniowa dla Neural Networks) firmy Huawei jest używane do kompilowania, optymalizowania i wdrażania modeli AI na procesorach Ascend AI.
To szkolenie prowadzone przez instruktora (online lub na miejscu) jest przeznaczone dla początkujących programistów AI, którzy chcą zrozumieć, jak CANN wpływa na cykl życia modelu od treningu do wdrażania, a także jak współpracuje z frameworkami takimi jak MindSpore, TensorFlow i PyTorch.
Po zakończeniu tego szkolenia uczestnicy będą w stanie:
Zrozumieć cel i architekturę zestawu narzędzi CANN.
Skonfigurować środowisko programistyczne z CANN i MindSpore.
Przekonwertować i wdrożyć prosty model AI na sprzęcie Ascend.
Nabyć podstawową wiedzę na przyszłe projekty optymalizacji lub integracji CANN.
Format kursu
Interaktywna wykład i dyskusja.
Praktyczne laboratoria z prostym wdrażaniem modeli.
Krok po kroku wprowadzenie w zestaw narzędzi CANN i punkty integracji.
Opcje dostosowania kursu
Aby złożyć wniosek o dostosowane szkolenie dla tego kursu, prosimy o kontakt.
Ascend, Biren i Cambricon są wiodącymi platformami sprzętowymi AI w Chinach, każda z nich oferuje unikalne narzędzia do przyspieszenia i profilowania dla zadań AI na skalę produkcyjną.
Ten szkolenie prowadzone przez instruktora (online lub na miejscu) jest skierowane do zaawansowanych inżynierów infrastruktury AI i wydajności, którzy chcą optymalizować przepływy wnioskowania modeli i uczenia się w różnych chińskich platformach układów scalonych AI.
Po zakończeniu tego szkolenia uczestnicy będą w stanie:
Benchmarkować modele na platformach Ascend, Biren i Cambricon.
Wykrywać wąskie gardła systemowe i niedoskonałości w pamięci/obliczeniach.
Zastosować optymalizacje na poziomie grafu, jądra i operacji.
Dostosować kanały wdrażania w celu poprawy przepływu i opóźnienia.
Format Kursu
Interaktywne wykłady i dyskusje.
Praktyczne używanie narzędzi profilowania i optymalizacji na każdej platformie.
Wskazówki dotyczące ćwiczeń skupionych na praktycznych scenariuszach dostosowywania.
Opcje dostosowania kursu
Aby zapytać o dostosowane szkolenie dla tego kursu na podstawie Twojego środowiska wydajności lub typu modelu, skontaktuj się z nami, aby to załatwić.
CANN SDK (Architektura obliczeniowa dla Neural Networks) jest fundamentem obliczeń AI firmy Huawei, pozwalającym programistom dopracowywać i optymalizować wydajność wdrażanych sieci neuronowych na procesorach AI Ascend.
To prowadzone przez instruktora szkolenie na żywo (online lub stacjonarne) jest skierowane do zaawansowanych programistów AI i inżynierów systemów, którzy chcą optymalizować wydajność wnioskowania za pomocą zaawansowanego zestawu narzędzi CANN, w tym Graph Engine, TIK i rozwoju niestandardowych operatorów.
Po zakończeniu tego szkolenia uczestnicy będą w stanie:
Zrozumieć architekturę czasu uruchomienia CANN i cykl życia wydajności.
Używać narzędzi profilowania i Graph Engine do analizy i optymalizacji wydajności.
Tworzyć i optymalizować niestandardowe operatory za pomocą TIK i TVM.
Rozwiązywać wąskie gardła pamięci i poprawiać przepływ modelu.
Format kursu
Interaktywne wykłady i dyskusje.
Praktyczne warsztaty z profilowaniem w czasie rzeczywistym i dostrajaniem operatorów.
Ćwiczenia optymalizacyjne z użyciem przykładów wdrażania w przypadkach granicowych.
Opcje dostosowania kursu
Aby poprosić o dostosowane szkolenie na tym kursie, skontaktuj się z nami w celu umówienia.
To prowadzone przez instruktora szkolenie na żywo w Szczecin (online lub na miejscu) jest przeznaczone dla początkujących i średnio zaawansowanych programistów, którzy chcą używać CUDA do programowania układów NVIDIA GPU i wykorzystywania ich równoległości.
Po zakończeniu tego szkolenia uczestnicy będą w stanie
Skonfigurować środowisko programistyczne zawierające CUDA Toolkit, układ NVIDIA GPU i Visual Studio Code.
Stworzyć podstawowy program CUDA, który wykonuje dodawanie wektorowe na GPU i pobiera wyniki z pamięci GPU.
Użyj interfejsu API CUDA do wyszukiwania informacji o urządzeniu, przydzielania i zwalniania pamięci urządzenia, kopiowania danych między hostem a urządzeniem, uruchamiania jądra i synchronizowania wątków.
Używanie języka CUDA C/C++ do pisania jąder, które wykonują się na GPU i manipulują danymi.
Używanie wbudowanych funkcji, zmiennych i bibliotek CUDA do wykonywania typowych zadań i operacji.
Korzystanie z przestrzeni pamięci CUDA, takich jak globalna, współdzielona, stała i lokalna, w celu optymalizacji transferu danych i dostępu do pamięci.
Używanie modelu wykonania CUDA do kontrolowania wątków, bloków i siatek, które definiują równoległość.
Debugowanie i testowanie programów CUDA przy użyciu narzędzi takich jak CUDA-GDB, CUDA-MEMCHECK i NVIDIA Nsight.
Optymalizować programy CUDA przy użyciu takich technik jak koalescencja, buforowanie, prefetching i profilowanie.
CANN (Architektura obliczeniowa dla Neural Networks) to stos obliczeniowy AI firmy Huawei służący do wdrażania i optymalizowania modeli AI na procesorach Ascend AI.
Jest to szkolenie prowadzone przez instruktora (online lub na miejscu) skierowane do średnio zaawansowanych developerów i inżynierów AI, którzy chcą w efektywny sposób wdrażać przygotowane modele AI na sprzęcie Huawei Ascend za pomocą zestawu narzędzi CANN oraz narzędzi takich jak MindSpore, TensorFlow lub PyTorch.
Po zakończeniu tego szkolenia uczestnicy będą w stanie:
Zrozumieć architekturę CANN i jej rolę w procesie wdrażania AI.
Przekształcać i dostosowywać modele z popularnych frameworków do formatów kompatybilnych z Ascend.
Korzystać z narzędzi takich jak ATC, konwersja modeli OM i MindSpore do wnioskowania na krawędzi i w chmurze.
Diagnozować problemy związane z wdrażaniem i optymalizować wydajność na sprzęcie Ascend.
Format kursu
Interaktywne wykłady i demonstracje.
Praktyczne zajęcia laboratoryjne z użyciem narzędzi CANN i symulatorów lub urządzeń Ascend.
Praktyczne scenariusze wdrażania oparte na rzeczywistych modelach AI.
Opcje dostosowania kursu
Aby złożyć wniosek o dostosowane szkolenie dla tego kursu, skontaktuj się z nami w celu uzgodnienia.
Akceleratory AI Biren są wysokowydajnymi GPUs zaprojektowanymi dla obciążeń AI i HPC z wsparciem dla dużych skalowania uczenia i wnioskowania.
To prowadzone przez instruktora szkolenie na żywo (online lub na miejscu) jest przeznaczone dla programistów średnio zaawansowanych do zaawansowanych, którzy chcą programować i optymalizować aplikacje za pomocą własnej technologii Biren GPU stack, z praktycznymi porównaniami do środowisk opartych na CUDA.
Po zakończeniu tego szkolenia uczestnicy będą w stanie:
Zrozumieć architekturę i hierarchię pamięci Biren GPU.
Zainstalować środowisko rozwojowe i używać modelu programowania Biren.
Przetłumaczyć i optymalizować kod w stylu CUDA dla platform Biren.
Zastosować techniki optymalizacji wydajności i debugowania.
Format kursu
Interaktywne wykłady i dyskusje.
Ręczne używanie Biren SDK w przykładowych obciążeniach GPU.
Zadaniami kierowanymi z koncentracją na przenoszeniu i optymalizacji wydajności.
Opcje dostosowania kursu
Aby poprosić o dostosowane szkolenie dla tego kursu na podstawie swojego stosu aplikacji lub potrzeb integracji, skontaktuj się z nami w celu uzgodnienia.
Cambricon MLUs (Machine Learning jednostki) to specjalizowane układy AI optymalizowane do wnioskowania i szkolenia w scenariuszach na krawędzi i w centrach danych.
To szkolenie prowadzone przez instruktora (online lub na miejscu) jest przeznaczone dla developerów na poziomie średnim, którzy chcą budować i wdrażać modele AI za pomocą frameworka BANGPy i SDK Neuware na sprzęcie Cambricon MLU.
Po zakończeniu tego szkolenia uczestnicy będą mogli:
Konfigurować i ustawiać środowiska rozwojowe BANGPy i Neuware.
Rozwijać i optymalizować modele oparte na Python i C++ dla Cambricon MLU.
Wdrażać modele na urządzeniach na krawędzi i w centrum danych z uruchomionym środowiskiem wykonawczym Neuware.
Integrować przepływy pracy ML z funkcjami przyspieszenia specyficznymi dla MLU.
Format kursu
Interaktywna wykład i dyskusja.
Praktyczne używanie BANGPy i Neuware do rozwoju i wdrażania.
Zawarte ćwiczenia skupione na optymalizacji, integracji i testowaniu.
Opcje dostosowywania kursu
Aby zlecić dostosowane szkolenie dla tego kursu na podstawie modelu urządzenia Cambricon lub przypadku użycia, prosimy o kontakt z nami w celu ustalenia.
This instructor-led, live training in Szczecin (online or onsite) is aimed at beginner-level system administrators and IT professionals who wish to install, configure, manage, and troubleshoot CUDA environments.
By the end of this training, participants will be able to:
Understand the architecture, components, and capabilities of CUDA.
To ten prowadzone przez instruktora szkolenie w trybie online lub stacjonarnym jest skierowane do programistów na poziomie początkującego do średnio zaawansowanego, którzy chcą używać OpenCL do programowania zróżnicowanych urządzeń i wykorzystywania ich równoległości.
Po zakończeniu tego szkolenia uczestnicy będą w stanie:
Zainstalować środowisko programistyczne, które zawiera SDK OpenCL, urządzenie obsługujące OpenCL i Visual Studio Code.
Stworzyć podstawowy program OpenCL, który wykonuje dodawanie wektorów na urządzeniu i pobiera wyniki z pamięci urządzenia.
Używać API OpenCL do zapytywania informacji o urządzeniu, tworzenia kontekstów, kolejki poleceń, buforów, jąderek i zdarzeń.
Używać języka C OpenCL do pisania jąderek, które wykonują się na urządzeniu i manipulują danymi.
Używać wbudowanych funkcji, rozszerzeń i bibliotek OpenCL do wykonywania powszechnych zadań i operacji.
Używać modeli pamięci hosta i urządzenia OpenCL do optymalizacji transferu danych i dostępu do pamięci.
Używać modelu wykonania OpenCL do kontroli elementów pracy, grup pracy i ND-zakresów.
Debugować i testować programy OpenCL za pomocą narzędzi, takich jak CodeXL, Intel VTune i NVIDIA Nsight.
Optymalizować programy OpenCL za pomocą technik, takich jak wektoryzacja, rozwinięcie pętli, pamięć lokalna i profilowanie.
Trening prowadzony przez instruktora na miejscu lub online (w zależności od lokalizacji) jest skierowany do programistów o średnim poziomie kwalifikacji, którzy chcą korzystać z CUDA do budowania aplikacji Python, które działają równolegle na kartach NVIDIA GPU.
Po zakończeniu tego szkolenia uczestnicy będą w stanie
Wykorzystywać kompilator Numba do przyspieszenia aplikacji Python działających na kartach NVIDIA GPU.
Tworzyć, kompilować i uruchamiać niestandardowe jądra CUDA.
Zarządzać pamięcią GPU.
Przekształcić aplikację opartą na CPU w aplikację przyspieszoną przez GPU.
Ten prowadzony przez instruktora kurs szkoleniowy na żywo w Szczecin obejmuje sposób programowania GPUs do obliczeń równoległych, jak korzystać z różnych platform, jak pracować z platformą CUDA i jej funkcjami oraz jak wykonywać różne techniki optymalizacji za pomocą CUDA. Niektóre z zastosowań obejmują głębokie uczenie się, analitykę, przetwarzanie obrazu i aplikacje inżynieryjne.
Więcej...
Ostatnia aktualizacja:
Opinie uczestników (2)
Bardzo interaktywne z różnymi przykładami, z dobrym postępem złożoności między początkiem a końcem szkolenia.
Jenny - Andheo
Szkolenie - GPU Programming with CUDA and Python
Przetłumaczone przez sztuczną inteligencję
Spójny sposob prezentacji, duża wiedza trenera, odpowiedni poziom wejscia