Jupyter dla zespołów zajmujących się nauką o danych - Plan Szkolenia
Jupyter to otwarte, oparte na przeglądarce interaktywne środowisko programistyczne (IDE) i środowisko obliczeniowe.
To szkolenie prowadzone przez instruktora na żywo (online lub na miejscu) wprowadza ideę współpracy w dziedzinie nauki o danych i pokazuje, jak używać Jupytera do śledzenia i uczestniczenia jako zespół w „cyklu życia obliczeniowego pomysłu”. Uczestnicy przechodzą przez proces tworzenia przykładowego projektu z zakresu nauki o danych opartego na ekosystemie Jupytera.
Po zakończeniu szkolenia uczestnicy będą mogli:
- Zainstalować i skonfigurować Jupytera, w tym utworzyć i zintegrować repozytorium zespołowe na Git.
- Korzystać z funkcji Jupytera, takich jak rozszerzenia, interaktywne widżety, tryb wieloużytkownikowy i inne, aby umożliwić współpracę przy projekcie.
- Tworzyć, udostępniać i organizować Notebooki Jupytera z członkami zespołu.
- Wybrać spośród języków takich jak Scala, Python, R, aby pisać i wykonywać kod na systemach big data, takich jak Apache Spark, wszystko za pośrednictwem interfejsu Jupytera.
Format kursu
- Interaktywny wykład i dyskusja.
- Wiele ćwiczeń i praktyki.
- Praktyczna implementacja w środowisku live-lab.
Opcje dostosowania kursu
- Notebook Jupyter obsługuje ponad 40 języków, w tym R, Python, Scala, Julia itp. Aby dostosować ten kurs do wybranych języków, skontaktuj się z nami, aby to uzgodnić.
Plan Szkolenia
Wprowadzenie do Jupytera
- Przegląd Jupytera i jego ekosystemu
- Instalacja i konfiguracja
- Konfigurowanie Jupytera do współpracy zespołowej
Funkcje współpracy
- Korzystanie z Git do kontroli wersji
- Rozszerzenia i interaktywne widżety
- Tryb wieloużytkownikowy
Tworzenie i zarządzanie Notebookami
- Struktura i funkcjonalność Notebooka
- Udostępnianie i organizowanie Notebooków
- Najlepsze praktyki współpracy
Programowanie z Jupyterem
- Wybór i używanie języków programowania (Python, R, Scala)
- Pisanie i wykonywanie kodu
- Integracja z systemami big data (Apache Spark)
Zaawansowane funkcje Jupytera
- Dostosowywanie środowiska Jupytera
- Automatyzacja przepływów pracy z Jupyterem
- Eksploracja zaawansowanych przypadków użycia
Sesje praktyczne
- Praktyczne laboratoria
- Projekty z zakresu nauki o danych w rzeczywistych warunkach
- Ćwiczenia grupowe i recenzje koleżeńskie
Podsumowanie i kolejne kroki
Wymagania
- Doświadczenie w programowaniu w językach takich jak Python, R, Scala itp.
- Podstawy z zakresu nauki o danych
Grupa docelowa
- Zespoły zajmujące się nauką o danych
Szkolenia otwarte są realizowane w przypadku uzbierania się grupy szkoleniowej liczącej co najmniej 5 osób na dany termin.
Jupyter dla zespołów zajmujących się nauką o danych - Plan Szkolenia - Rezerwacja
Jupyter dla zespołów zajmujących się nauką o danych - Plan Szkolenia - Zapytanie
Jupyter dla zespołów zajmujących się nauką o danych - Zapytanie o Konsultacje
Opinie uczestników (1)
Wspaniale jest, że kurs został dostosowany do kluczowych obszarów, które zaznaczyłem w ankierce przed kursową. To naprawdę pomaga odpowiedzieć na moje pytania dotyczące tematyki i dopasować się do moich celów edukacyjnych.
Winnie Chan - Statistics Canada
Szkolenie - Jupyter for Data Science Teams
Przetłumaczone przez sztuczną inteligencję
Propozycje terminów
Szkolenia Powiązane
Wprowadzenie do Data Science i AI przy użyciu Pythona
35 godzinTo 5-dniowe wprowadzenie do Data Science i Sztucznej Inteligencji (AI).
Kurs jest prowadzony z przykładami i ćwiczeniami przy użyciu Pythona.
Apache Airflow dla Data Science: Automatyzacja Potoków Uczenia Maszynowego
21 godzinTo szkolenie prowadzone przez instruktora na żywo w Polsce (online lub na miejscu) jest skierowane do uczestników na poziomie średnio zaawansowanym, którzy chcą automatyzować i zarządzać przepływami pracy w uczeniu maszynowym, w tym trenowaniem, walidacją i wdrażaniem modeli przy użyciu Apache Airflow.
Pod koniec tego szkolenia uczestnicy będą mogli:
- Skonfigurować Apache Airflow do orkiestracji przepływów pracy w uczeniu maszynowym.
- Automatyzować zadania przetwarzania danych, trenowania i walidacji modeli.
- Integrować Airflow z frameworkami i narzędziami do uczenia maszynowego.
- Wdrażać modele uczenia maszynowego przy użyciu zautomatyzowanych potoków.
- Monitorować i optymalizować przepływy pracy w produkcji.
Ekosystem Anaconda dla Data Scientistów
14 godzinTo szkolenie prowadzone przez instruktora, na żywo w Polsce (online lub na miejscu) jest skierowane do data scientistów, którzy chcą wykorzystać ekosystem Anaconda do przechwytywania, zarządzania i wdrażania pakietów oraz przepływów pracy analizy danych na jednej platformie.
Pod koniec szkolenia uczestnicy będą mogli:
- Zainstalować i skonfigurować komponenty i biblioteki Anaconda.
- Zrozumieć podstawowe koncepcje, funkcje i korzyści Anaconda.
- Zarządzać pakietami, środowiskami i kanałami za pomocą Anaconda Navigator.
- Korzystać z pakietów Conda, R i Python do nauki danych i uczenia maszynowego.
- Poznać praktyczne przypadki użycia i techniki zarządzania wieloma środowiskami danych.
AWS Cloud9 dla Data Science
28 godzinTo szkolenie prowadzone przez instruktora, na żywo w Polsce (online lub na miejscu) jest skierowane do średnio zaawansowanych data scientistów i analityków, którzy chcą korzystać z AWS Cloud9 w celu usprawnienia przepływów pracy związanych z data science.
Po zakończeniu szkolenia uczestnicy będą w stanie:
- Skonfigurować środowisko data science w AWS Cloud9.
- Przeprowadzać analizę danych przy użyciu Python, R i Jupyter Notebook w Cloud9.
- Zintegrować AWS Cloud9 z usługami danych AWS, takimi jak S3, RDS i Redshift.
- Wykorzystać AWS Cloud9 do tworzenia i wdrażania modeli uczenia maszynowego.
- Optymalizować przepływy pracy oparte na chmurze do analizy i przetwarzania danych.
Wprowadzenie do Google Colab dla Data Science
14 godzinTo szkolenie prowadzone przez instruktora na żywo w Polsce (online lub na miejscu) jest skierowane do początkujących data scientistów i profesjonalistów IT, którzy chcą poznać podstawy data science przy użyciu Google Colab.
Pod koniec szkolenia uczestnicy będą mogli:
- Skonfigurować i poruszać się po Google Colab.
- Pisać i wykonywać podstawowy kod Python.
- Importować i zarządzać zbiorami danych.
- Tworzyć wizualizacje przy użyciu bibliotek Python.
Praktyczne wprowadzenie do Data Science
35 godzinUczestnicy, którzy ukończą to szkolenie, zdobędą praktyczną, rzeczywistą wiedzę na temat Data Science oraz związanych z nią technologii, metodologii i narzędzi.
Uczestnicy będą mieli okazję zastosować tę wiedzę w praktyce poprzez ćwiczenia praktyczne. Interakcja w grupie i feedback od instruktora stanowią ważny element zajęć.
Kurs rozpoczyna się od wprowadzenia do podstawowych pojęć Data Science, a następnie przechodzi do narzędzi i metodologii stosowanych w Data Science.
Grupa docelowa
- Programiści
- Analitycy techniczni
- Konsultanci IT
Format kursu
- Część wykładowa, część dyskusyjna, ćwiczenia i intensywna praktyka
Uwaga
- Aby zamówić szkolenie dostosowane do potrzeb, prosimy o kontakt w celu uzgodnienia szczegółów.
Nauka o danych dla analizy dużych zbiorów danych
35 godzinDuże zbiory danych to zestawy danych tak obszerne i złożone, że tradycyjne oprogramowanie do przetwarzania danych jest niewystarczające, aby sobie z nimi poradzić. Wyzwania związane z dużymi zbiorami danych obejmują pozyskiwanie danych, przechowywanie, analizę, wyszukiwanie, udostępnianie, transfer, wizualizację, zapytania, aktualizację oraz prywatność informacji.
Data Science niezbędne dla profesjonalistów z marketingu/sprzedaży
21 godzin
Ten kurs jest przeznaczony dla profesjonalistów z marketingu i sprzedaży, którzy chcą zgłębić zastosowanie data science w marketingu i sprzedaży. Kurs zapewnia
szczegółowe omówienie różnych technik data science stosowanych w „upsell”, „cross-sell”, segmentacji rynku, budowaniu marki i CLV.
Różnica między marketingiem a sprzedażą - Czym różni się sprzedaż od marketingu?
W bardzo prostych słowach, sprzedaż można określić jako proces, który koncentruje się na jednostkach lub małych grupach. Marketing natomiast jest skierowany do większej grupy lub ogółu społeczeństwa. Marketing obejmuje badania (identyfikację potrzeb klienta), rozwój produktów (tworzenie innowacyjnych produktów) i promocję produktu (poprzez reklamy) oraz budowanie świadomości produktu wśród konsumentów. W ten sposób marketing oznacza generowanie potencjalnych klientów. Gdy produkt jest już na rynku, zadaniem sprzedawcy jest przekonanie klienta do zakupu. Sprzedaż oznacza przekształcanie potencjalnych klientów w zakupy i zamówienia, podczas gdy marketing ma na celu długoterminowe cele, a sprzedaż dotyczy celów krótkoterminowych.
Wprowadzenie do Data Science
35 godzinTo prowadzone przez instruktora szkolenie na żywo (online lub na miejscu) jest skierowane do profesjonalistów, którzy chcą rozpocząć karierę w Data Science.
Po zakończeniu szkolenia uczestnicy będą mogli:
- Zainstalować i skonfigurować Python oraz MySql.
- Zrozumieć, czym jest Data Science i jak może dodać wartość do praktycznie każdego biznesu.
- Poznać podstawy programowania w Pythonie
- Nauczyć się technik uczenia maszynowego nadzorowanego i nienadzorowanego oraz ich implementacji i interpretacji wyników.
Format kursu
- Interaktywny wykład i dyskusja.
- Liczne ćwiczenia i praktyka.
- Praktyczna implementacja w środowisku live-lab.
Opcje dostosowania kursu
- Aby zamówić dostosowane szkolenie dla tego kursu, prosimy o kontakt w celu uzgodnienia szczegółów.
Kaggle
14 godzinTo szkolenie prowadzone przez instruktora, na żywo w Polsce (online lub na miejscu) jest skierowane do naukowców zajmujących się danymi i programistów, którzy chcą się uczyć i rozwijać swoje kariery w dziedzinie Data Science przy użyciu Kaggle.
Pod koniec szkolenia uczestnicy będą mogli:
- Poznać zagadnienia związane z nauką o danych i uczeniem maszynowym.
- Eksplorować analizy danych.
- Poznać Kaggle i sposób jego działania.
Data Science z platformą KNIME Analytics
21 godzinKNIME Analytics Platform to wiodąca opcja open source w dziedzinie innowacji opartych na danych, pomagająca odkryć potencjał ukryty w Twoich danych, wydobyć nowe spostrzeżenia lub przewidzieć przyszłe trendy. Dzięki ponad 1000 modułom, setkom gotowych do uruchomienia przykładów, kompleksowemu zestawowi zintegrowanych narzędzi oraz najszerszemu wyborowi zaawansowanych algorytmów, KNIME Analytics Platform to idealne narzędzie dla każdego analityka danych i specjalisty biznesowego.
Ten kurs dotyczący platformy KNIME Analytics to idealna okazja dla początkujących, zaawansowanych użytkowników i ekspertów KNIME, aby zapoznać się z KNIME, nauczyć się korzystać z niego bardziej efektywnie oraz tworzyć przejrzyste i kompleksowe raporty oparte na przepływach pracy w KNIME.
To szkolenie prowadzone przez instruktora (online lub na miejscu) jest skierowane do specjalistów ds. danych, którzy chcą wykorzystać KNIME do rozwiązywania złożonych potrzeb biznesowych.
Jest ono skierowane do odbiorców, którzy nie znają programowania i zamierzają wykorzystywać najnowocześniejsze narzędzia do wdrażania scenariuszy analitycznych.
Po zakończeniu szkolenia uczestnicy będą potrafili:
- Zainstalować i skonfigurować KNIME.
- Tworzyć scenariusze Data Science.
- Trenować, testować i walidować modele.
- Implementować kompleksowy łańcuch wartości modeli data science.
Format kursu
- Interaktywny wykład i dyskusja.
- Wiele ćwiczeń i praktyki.
- Praktyczna implementacja w środowisku live-lab.
Opcje dostosowania kursu
- Aby zamówić dostosowane szkolenie na ten kurs lub uzyskać więcej informacji na temat tego programu, skontaktuj się z nami.
Uczenie Maszynowe dla Data Science z Pythonem
21 godzinTo szkolenie prowadzone przez instruktora, na żywo w Polsce (online lub na miejscu) jest skierowane do analityków danych, programistów lub aspirujących naukowców danych na poziomie średnio zaawansowanym, którzy chcą zastosować techniki uczenia maszynowego w Pythonie, aby wyciągać wnioski, dokonywać prognoz i automatyzować decyzje oparte na danych.
Po zakończeniu kursu uczestnicy będą mogli:
- Zrozumieć i rozróżnić kluczowe paradygmaty uczenia maszynowego.
- Poznać techniki przetwarzania danych i metryki oceny modeli.
- Stosować algorytmy uczenia maszynowego do rozwiązywania rzeczywistych problemów z danymi.
- Korzystać z bibliotek Pythona i notatników Jupyter do praktycznego rozwoju.
- Tworzyć modele do prognozowania, klasyfikacji, rekomendacji i grupowania.
Przyspieszanie przepływów pracy w Python Pandas z wykorzystaniem Modin
14 godzinTo szkolenie prowadzone przez instruktora, na żywo w Polsce (online lub na miejscu) jest skierowane do naukowców zajmujących się danymi oraz programistów, którzy chcą wykorzystać Modin do budowania i implementowania równoległych obliczeń z Pandas w celu szybszej analizy danych.
Pod koniec szkolenia uczestnicy będą mogli:
- Skonfigurować niezbędne środowisko do rozpoczęcia tworzenia przepływów pracy w Pandas na dużą skalę z wykorzystaniem Modin.
- Zrozumieć funkcje, architekturę i zalety Modin.
- Poznać różnice między Modin, Dask i Ray.
- Wykonywać operacje w Pandas szybciej z wykorzystaniem Modin.
- Implementować całe API i funkcje Pandas.
Wprowadzenie do modeli wstępnie wytrenowanych
14 godzinTo szkolenie prowadzone przez instruktora, na żywo w Polsce (online lub na miejscu) jest skierowane do profesjonalistów na poziomie podstawowym, którzy chcą zrozumieć koncepcję modeli wstępnie wytrenowanych i nauczyć się, jak je stosować do rozwiązywania rzeczywistych problemów bez konieczności budowania modeli od podstaw.
Pod koniec tego szkolenia uczestnicy będą mogli:
- Zrozumieć koncepcję i korzyści płynące z modeli wstępnie wytrenowanych.
- Poznać różne architektury modeli wstępnie wytrenowanych i ich zastosowania.
- Dostosować wstępnie wytrenowany model do konkretnych zadań.
- Wdrożyć modele wstępnie wytrenowane w prostych projektach uczenia maszynowego.
Data Science na GPU z wykorzystaniem NVIDIA RAPIDS
14 godzinTo szkolenie prowadzone przez instruktora w Polsce (online lub na miejscu) jest skierowane do naukowców zajmujących się danymi oraz programistów, którzy chcą wykorzystać RAPIDS do budowania zoptymalizowanych pod kątem GPU potoków danych, przepływów pracy i wizualizacji, stosując algorytmy uczenia maszynowego, takie jak XGBoost, cuML itp.
Po zakończeniu szkolenia uczestnicy będą mogli:
- Skonfigurować niezbędne środowisko programistyczne do budowania modeli danych z wykorzystaniem NVIDIA RAPIDS.
- Zrozumieć funkcje, komponenty i zalety RAPIDS.
- Wykorzystać GPU do przyspieszenia kompleksowych potoków danych i analizy.
- Wdrożyć przygotowanie danych i ETL zoptymalizowane pod kątem GPU z wykorzystaniem cuDF i Apache Arrow.
- Nauczyć się wykonywać zadania uczenia maszynowego z algorytmami XGBoost i cuML.
- Tworzyć wizualizacje danych i przeprowadzać analizę grafów z wykorzystaniem cuXfilter i cuGraph.