From Data to Decision with Big Data and Predictive Analytics - Plan Szkolenia
Uczestnicy
Jeśli próbujesz nadać sens danym, do których masz dostęp lub chcesz analizować nieustrukturyzowane dane dostępne w sieci (takie jak Twitter, LinkedIn itp.), ten kurs jest dla Ciebie.
Jest on skierowany głównie do decydentów i osób, które muszą wybrać, jakie dane warto gromadzić i co warto analizować.
Nie jest on skierowany do osób konfigurujących rozwiązanie, jednak osoby te skorzystają z szerszej perspektywy.
Tryb dostawy
Podczas kursu delegaci zostaną zapoznani z działającymi przykładami głównie technologii open source.
Po krótkich wykładach odbędzie się prezentacja i proste ćwiczenia dla uczestników.
Używana zawartość i oprogramowanie
Całe używane oprogramowanie jest aktualizowane za każdym razem, gdy kurs jest uruchamiany, więc sprawdzamy najnowsze możliwe wersje.
Obejmuje proces pozyskiwania, formatowania, przetwarzania i analizowania danych, aby wyjaśnić, jak zautomatyzować proces podejmowania decyzji za pomocą uczenia maszynowego.
Plan Szkolenia
szybki przegląd
- Źródła danych
- Dane umysłu
- Systemy rekomendujące
- Cel Marketing
Typy danych
- Strukturalne vs niestrukturalne
- Statyczne vs przesyłane strumieniowo
- Dane dotyczące postaw, zachowań i danych demograficznych
- Analityka oparta na danych a analiza oparta na użytkownikach
- ważność danych
- Objętość, prędkość i różnorodność danych
Modele
- Budowanie modeli
- Modele statystyczne
- Nauczanie maszynowe
Klasyfikacja danych
- Grupowanie
- kGrupy, k-średnie, najbliżsi sąsiedzi
- Kolonie mrówek, stada ptaków
Modele predykcyjne
- Drzewa decyzyjne
- Maszyna wektorów nośnych
- Naiwna klasyfikacja Bayesa
- Sieci neuronowe
- Model Markowa
- Regresja
- Metody zespołowe
Zwrot z inwestycji
- Stosunek korzyści do kosztów
- Koszt oprogramowania
- Koszt rozwoju
- Ewentualne zyski
Budowanie modeli
- Przygotowanie danych (MapReduce)
- Oczyszczanie danych
- Wybór metod
- Opracowywanie modelu
- Model testowy
- Ocena modelu
- Wdrożenie i integracja modelu
Przegląd oprogramowania Open Source i oprogramowania komercyjnego
- Wybór pakietu R-project
- Python biblioteki
- Hadoop i Mahout
- Wybrane projekty Apache związane z Big Data i Analytics
- Wybrane rozwiązanie komercyjne
- Integracja z istniejącym oprogramowaniem i źródłami danych
Wymagania
Zrozumienie tradycyjnych metod zarządzania i analizy danych, takich jak SQL, hurtownie danych, analityka biznesowa, OLAP itp. Zrozumienie podstawowych statystyk i prawdopodobieństwa (średnia, wariancja, prawdopodobieństwo, prawdopodobieństwo warunkowe itp.)
Szkolenia otwarte są realizowane w przypadku uzbierania się grupy szkoleniowej liczącej co najmniej 5 osób na dany termin.
From Data to Decision with Big Data and Predictive Analytics - Plan Szkolenia - Booking
From Data to Decision with Big Data and Predictive Analytics - Plan Szkolenia - Enquiry
From Data to Decision with Big Data and Predictive Analytics - Zapytanie o Konsultacje
Zapytanie o Konsultacje
Opinie uczestników (4)
Treść, która mi się bardzo spodobała i sądzę, że będzie mi pomocna w moim ostatnim roku na Uniwersytecie.
Krishan - NBrown Group
Szkolenie - From Data to Decision with Big Data and Predictive Analytics
Przetłumaczone przez sztuczną inteligencję
Richard's training style kept it interesting; the real-world examples used helped to drive the concepts home.
Jamie Martin-Royle - NBrown Group
Szkolenie - From Data to Decision with Big Data and Predictive Analytics
Przetłumaczone przez sztuczną inteligencję
usystematyzowanie wiedzy z dziedziny ML
Orange Polska
Szkolenie - From Data to Decision with Big Data and Predictive Analytics
zakres materialu
Maciej Jonczyk
Szkolenie - From Data to Decision with Big Data and Predictive Analytics
Propozycje terminów
Szkolenia Powiązane
Apache Ignite for Administrators
7 godzinFormat kursu
- Interaktywny wykład i dyskusja.
- Wiele ćwiczeń i praktyki.
- Praktyczne wdrożenie w środowisku laboratoryjnym na żywo.
Opcje dostosowywania kursu
- Aby poprosić o spersonalizowane szkolenie dla tego kursu, skontaktuj się z nami.
Artificial Intelligence - the most applied stuff - Data Analysis + Distributed AI + NLP
21 godzinTen kurs jest skierowany do programistów i naukowców zajmujących się danymi, którzy chcą zrozumieć i wdrożyć sztuczną inteligencję w swoich aplikacjach. Szczególna uwaga poświęcona jest analizie danych, rozproszonej sztucznej inteligencji i przetwarzaniu języka naturalnego.
Unified Batch and Stream Processing with Apache Beam
14 godzinApache Beam to otwarty, zunifikowany model programowania do definiowania i wykonywania równoległych potoków przetwarzania danych. Jego moc polega na możliwości uruchamiania zarówno potoków wsadowych, jak i strumieniowych, przy czym wykonanie jest przeprowadzane przez jeden z obsługiwanych przez Beam back-endów przetwarzania rozproszonego: Apache Apex, Apache Flink, Apache Spark i Google Cloud Dataflow. Rozwiązanie Apache Beam jest przydatne w zadaniach ETL (Extract, Transform, and Load), takich jak przenoszenie danych między różnymi nośnikami pamięci i źródłami danych, przekształcanie danych w bardziej pożądany format i ładowanie danych do nowego systemu.
W tym prowadzonym przez instruktora szkoleniu na żywo (na miejscu lub zdalnie) uczestnicy dowiedzą się, jak zaimplementować Apache Beam SDK w aplikacji Java lub Python, która definiuje potok przetwarzania danych w celu dekompozycji dużego zbioru danych na mniejsze fragmenty w celu niezależnego, równoległego przetwarzania.
Pod koniec tego szkolenia uczestnicy będą mogli
- Zainstalować i skonfigurować Apache Beam.
- Używać pojedynczego modelu programowania do przeprowadzania zarówno przetwarzania wsadowego, jak i strumieniowego z poziomu aplikacji Java lub Python.
- Wykonywać potoki w wielu środowiskach.
Format kursu
- Wykład częściowy, dyskusja częściowa, ćwiczenia i ciężka praktyka praktyczna
Uwaga
- Ten kurs będzie dostępny Scala w przyszłości. Prosimy o kontakt w celu ustalenia szczegółów.
Data Vault: Building a Scalable Data Warehouse
28 godzinW tym prowadzonym przez instruktora szkoleniu na żywo w Polsce uczestnicy dowiedzą się, jak zbudować Data Vault.
Pod koniec tego szkolenia uczestnicy będą mogli:
- Zrozumieć architekturę i koncepcje projektowe stojące za Data Vault 2.0 oraz jego interakcję z Big Data, NoSQL i AI.
- Korzystać z technik przechowywania danych w celu umożliwienia audytu, śledzenia i inspekcji danych historycznych w hurtowni danych.
- Opracowanie spójnego i powtarzalnego procesu ETL (Extract, Transform, Load).
- Tworzenie i wdrażanie wysoce skalowalnych i powtarzalnych hurtowni.
Apache Flink Fundamentals
28 godzinTo prowadzone przez instruktora szkolenie na żywo w Polsce (na miejscu lub zdalnie) wprowadza zasady i podejścia stojące za rozproszonym przetwarzaniem danych strumieniowych i wsadowych oraz prowadzi uczestników przez proces tworzenia aplikacji do strumieniowego przesyłania danych w czasie rzeczywistym w Apache Flink.
Pod koniec tego szkolenia uczestnicy będą w stanie
- Skonfigurować środowisko do tworzenia aplikacji do analizy danych.
- Zrozumieć, jak działa biblioteka przetwarzania grafów Apache Flink (Gelly).
- Pakować, wykonywać i monitorować oparte na Flink, odporne na błędy aplikacje do strumieniowego przesyłania danych.
- Zarządzanie różnorodnymi obciążeniami.
- Wykonywanie zaawansowanych analiz.
- Konfigurowanie wielowęzłowego klastra Flink.
- Mierzyć i optymalizować wydajność.
- Integracja Flink z różnymi Big Data systemami.
- Porównywanie możliwości Flink z możliwościami innych platform przetwarzania dużych zbiorów danych.
Generative & Predictive AI for Developers
21 godzinTo prowadzone przez instruktora szkolenie na żywo w Polsce (na miejscu lub zdalnie) jest przeznaczone dla średnio zaawansowanych programistów, którzy chcą tworzyć aplikacje oparte na sztucznej inteligencji przy użyciu analizy predykcyjnej i modeli generatywnych.
Pod koniec tego szkolenia uczestnicy będą mogli
- Zrozumieć podstawy predykcyjnej sztucznej inteligencji i modeli generatywnych.
- Wykorzystywać narzędzia oparte na sztucznej inteligencji do kodowania predykcyjnego, prognozowania i automatyzacji.
- Wdrożyć LLM (Large Language Models) i transformatory do generowania tekstu i kodu.
- Zastosuj prognozowanie szeregów czasowych i rekomendacje oparte na sztucznej inteligencji.
- Rozwijaj i dostrajaj modele sztucznej inteligencji do rzeczywistych zastosowań.
- Ocena kwestii etycznych i najlepszych praktyk w zakresie wdrażania sztucznej inteligencji.
Introduction to Graph Computing
28 godzinW tym prowadzonym przez instruktora szkoleniu na żywo w Polsce uczestnicy zapoznają się z ofertą technologiczną i podejściami wdrożeniowymi do przetwarzania danych grafowych. Celem jest identyfikacja obiektów świata rzeczywistego, ich cech i relacji, a następnie modelowanie tych relacji i przetwarzanie ich jako danych przy użyciu podejścia Graph Computing (znanego również jako Graph Analytics). Zaczynamy od szerokiego przeglądu i zawężamy się do konkretnych narzędzi, przechodząc przez serię studiów przypadków, ćwiczeń praktycznych i wdrożeń na żywo.
Pod koniec tego szkolenia uczestnicy będą mogli
- Zrozumieć, w jaki sposób dane wykresu są utrwalane i przemierzane.
- Wybrać najlepszą platformę dla danego zadania (od grafowych baz danych po ramy przetwarzania wsadowego).
- Zaimplementować Hadoop, Spark, GraphX i Pregel do równoległego przetwarzania grafów na wielu maszynach.
- Postrzeganie rzeczywistych problemów związanych z dużymi zbiorami danych w kategoriach grafów, procesów i przejść.
Introduction to Predictive AI
21 godzinThis instructor-led, live training in Polsce (online or onsite) is aimed at beginner-level IT professionals who wish to grasp the fundamentals of Predictive AI.
By the end of this training, participants will be able to:
- Understand the core concepts of Predictive AI and its applications.
- Collect, clean, and preprocess data for predictive analysis.
- Explore and visualize data to uncover insights.
- Build basic statistical models to make predictions.
- Evaluate the performance of predictive models.
- Apply Predictive AI concepts to real-world scenarios.
Confluent KSQL
7 godzinTo prowadzone przez instruktora szkolenie na żywo w Polsce (na miejscu lub zdalnie) jest przeznaczone dla programistów, którzy chcą wdrożyć przetwarzanie strumieniowe Apache Kafka bez pisania kodu.
Pod koniec tego szkolenia uczestnicy będą mogli
- Zainstalować i skonfigurować Confluent KSQL.
- Skonfigurować potok przetwarzania strumieniowego przy użyciu tylko SQL poleceń (bez kodowania Java lub Python).
- Przeprowadzać filtrowanie danych, transformacje, agregacje, łączenia, okienkowanie i sesjonowanie w całości w SQL.
- Projektowanie i wdrażanie interaktywnych, ciągłych zapytań dla strumieniowego ETL i analiz w czasie rzeczywistym.
Apache NiFi for Administrators
21 godzinW tym prowadzonym przez instruktora szkoleniu na żywo w Polsce (na miejscu lub zdalnie) uczestnicy dowiedzą się, jak wdrożyć i zarządzać Apache NiFi w środowisku laboratoryjnym na żywo.
Pod koniec tego szkolenia uczestnicy będą mogli:
- Zainstalować i skonfigurować Apachi NiFi.
- Pozyskiwać, przekształcać i zarządzać danymi z różnych, rozproszonych źródeł danych, w tym baz danych i dużych jezior danych.
- Automatyzować przepływy danych.
- Włączać analitykę strumieniową.
- Stosowanie różnych podejść do pozyskiwania danych.
- Przekształcanie danych Big Data w informacje biznesowe.
Apache NiFi for Developers
7 godzinW tym prowadzonym przez instruktora szkoleniu na żywo w Polsce uczestnicy poznają podstawy programowania opartego na przepływie, opracowując szereg rozszerzeń demonstracyjnych, komponentów i procesorów przy użyciu Apache NiFi.
Pod koniec tego szkolenia uczestnicy będą mogli:
- Zrozumieć architekturę NiFi i koncepcje przepływu danych.
- Rozwijać rozszerzenia przy użyciu NiFi i interfejsów API innych firm.
- Rozwijać własny procesor Apache Nifi.
- Pozyskiwać i przetwarzać dane w czasie rzeczywistym z różnych i nietypowych formatów plików i źródeł danych.
Predictive AI in DevOps: Enhancing Software Delivery
14 godzinThis instructor-led, live training in Polsce (online or onsite) is aimed at intermediate-level DevOps professionals who wish to integrate predictive AI into their DevOps practices.
By the end of this training, participants will be able to:
- Implement predictive analytics models to forecast and solve challenges in the DevOps pipeline.
- Utilize AI-driven tools for enhanced monitoring and operations.
- Apply machine learning techniques to improve software delivery workflows.
- Design AI strategies for proactive issue resolution and optimization.
- Navigate the ethical considerations of using AI in DevOps.
Python and Spark for Big Data (PySpark)
21 godzinW tym prowadzonym przez instruktora szkoleniu na żywo w Polsce uczestnicy dowiedzą się, jak używać Python i Spark razem do analizy dużych zbiorów danych podczas pracy nad ćwiczeniami praktycznymi.
Pod koniec tego szkolenia uczestnicy będą mogli:
- Dowiedzieć się, jak używać Sparka z Python do analizy Big Data.
- Pracować nad ćwiczeniami, które naśladują rzeczywiste przypadki.
- Używać różnych narzędzi i technik do analizy dużych zbiorów danych przy użyciu PySpark.
Spark Streaming with Python and Kafka
7 godzinTo prowadzone przez instruktora szkolenie na żywo w Polsce (na miejscu lub zdalnie) jest przeznaczone dla inżynierów danych, naukowców zajmujących się danymi i programistów, którzy chcą korzystać z funkcji Spark Streaming w przetwarzaniu i analizowaniu danych w czasie rzeczywistym.
Pod koniec tego szkolenia uczestnicy będą mogli używać Spark Streaming do przetwarzania strumieni danych na żywo do użytku w bazach danych, systemach plików i pulpitach nawigacyjnych na żywo.
Apache Spark MLlib
35 godzinMLlib to biblioteka Spark’s do uczenia maszynowego (ML). Jej celem jest uczynienie praktycznego uczenia maszynowego skalowalnym i łatwym. Składa się z popularnych algorytmów uczenia się i narzędzi, w tym klasyfikacji, regresji, klastrowania, filtrowania opartego na współpracy, redukcji wymiarowości, a także prymitywów optymalizacji niższego poziomu i interfejsów API potoków wyższego poziomu.
Dzieli się na dwa pakiety:
- spark.mllib zawiera oryginalny interfejs API zbudowany na bazie RDD.
- spark.ml zapewnia API wyższego poziomu zbudowane na DataFrames do konstruowania potoków ML.
Uczestnicy
Ten kurs jest skierowany do inżynierów i programistów, którzy chcą korzystać z wbudowanej biblioteki maszynowej dla Apache Spark