Prowadzone przez instruktorów kursy szkoleniowe Apache Spark na żywo w trybie online lub stacjonarnym pokazują poprzez praktyczne ćwiczenia, w jaki sposób Spark pasuje do ekosystemu Big Data i jak używać Sparka do analizy danych.
Szkolenie Apache Spark jest dostępne jako "szkolenie na żywo online" lub "szkolenie na miejscu". Szkolenie na żywo online (inaczej "zdalne szkolenie na żywo") odbywa się za pośrednictwem interaktywnego, zdalnego pulpitu. Szkolenie na miejscu może być prowadzone lokalnie w siedzibie klienta w Olsztyn lub w korporacyjnych centrach szkoleniowych NobleProg w Olsztyn.
NobleProg - lokalny dostawca szkoleń
Olsztyn
sale szkoleniowe NobleProg, ul. Gietkowska 6a, Olsztyn, poland, 10-170
Sala o charakterze szkoleniowo – konferencyjnym z pełnym wyposażeniem audio-wizualnym.
Funkcjonalne meble zapewniają możliwość ustawienie ich w układzie konferencyjnym, szkolnym, warsztatowym lub kinowym w zależności od potrzeb Klienta.
To szkolenie prowadzone przez instruktora, na żywo w Olsztyn (online lub na miejscu) jest skierowane do średnio zaawansowanych naukowców zajmujących się danymi oraz inżynierów, którzy chcą wykorzystać Google Colab i Apache Spark do przetwarzania i analizy dużych zbiorów danych.
Po zakończeniu szkolenia uczestnicy będą mogli:
Skonfigurować środowisko do pracy z dużymi danymi przy użyciu Google Colab i Spark.
Efektywnie przetwarzać i analizować duże zbiory danych za pomocą Apache Spark.
Wizualizować duże zbiory danych w środowisku współpracy.
Stratio to platforma centrowana na danych, która integruje big data, sztuczną inteligencję i zarządzanie w jedno rozwiązanie. Jej moduły Rocket i Intelligence umożliwiają szybkie eksplorowanie, transformację i zaawansowaną analitykę danych w środowiskach korporacyjnych.
To szkolenie prowadzone przez instruktora (online lub stacjonarnie) jest skierowane do profesjonalistów danych na poziomie średnim, którzy chcą efektywnie wykorzystywać moduły Rocket i Intelligence w Stratio z użyciem PySpark, skupiając się na strukturach pętli, funkcjach zdefiniowanych przez użytkownika oraz zaawansowanej logice danych.
Na koniec tego szkolenia uczestnicy będą w stanie:
Poruszać się i pracować w platformie Stratio za pomocą modułów Rocket i Intelligence.
Zastosować PySpark w kontekście wczytywania, transformacji i analizy danych.
Używać pętli i logiki warunkowej do kontrolowania przepływu danych i zadań inżynierii cech.
Tworzyć i zarządzać funkcjami zdefiniowanymi przez użytkownika (UDF) do powtarzalnych operacji danych w PySpark.
Format kursu
Interaktywne wykłady i dyskusje.
Dużo ćwiczeń i praktyki.
Ręczne wdrożenie w środowisku live-lab.
Opcje dostosowania kursu
Aby poprosić o dostosowane szkolenie dla tego kursu, skontaktuj się z nami w celu ustalenia szczegółów.
To szkolenie prowadzone przez instruktora na żywo w Olsztyn (online lub na miejscu) jest skierowane do programistów, którzy chcą wykorzystywać i integrować Spark, Hadoop i Python do przetwarzania, analizy i transformacji dużych i złożonych zbiorów danych.
Pod koniec szkolenia uczestnicy będą mogli:
Skonfigurować niezbędne środowisko do rozpoczęcia przetwarzania dużych zbiorów danych za pomocą Spark, Hadoop i Python.
Zrozumieć funkcje, główne komponenty i architekturę Spark i Hadoop.
Nauczyć się, jak integrować Spark, Hadoop i Python do przetwarzania dużych zbiorów danych.
Poznać narzędzia w ekosystemie Spark (Spark MlLib, Spark Streaming, Kafka, Sqoop, Kafka i Flume).
Budować systemy rekomendacji oparte na filtrowaniu współpracującym, podobne do tych używanych przez Netflix, YouTube, Amazon, Spotify i Google.
Wykorzystać Apache Mahout do skalowania algorytmów uczenia maszynowego.
To szkolenie prowadzone przez instruktora w Olsztyn (online lub na miejscu) jest skierowane do administratorów systemów na poziomie początkującego do średniozaawansowanego, którzy chcą wdrażać, utrzymywać i optymalizować klastery Spark.
Po zakończeniu tego szkolenia uczestnicy będą w stanie:
Instalować i konfigurować Apache Spark w różnych środowiskach.
Zarządzać zasobami klastra i monitorować aplikacje Spark.
Optymalizować wydajność klastrów Spark.
Wdrażać środki zabezpieczające i zapewniać wysoką dostępność.
Diagnozować i rozwiązywać typowe problemy związane z Spark.
W tym prowadzonym przez instruktora szkoleniu na żywo w Olsztyn uczestnicy dowiedzą się, jak używać Python i Spark razem do analizy dużych zbiorów danych podczas pracy nad ćwiczeniami praktycznymi.
Pod koniec tego szkolenia uczestnicy będą mogli:
Dowiedzieć się, jak używać Sparka z Python do analizy Big Data.
Pracować nad ćwiczeniami, które naśladują rzeczywiste przypadki.
Używać różnych narzędzi i technik do analizy dużych zbiorów danych przy użyciu PySpark.
Big data analytics obejmuje proces analizowania dużych ilości zróżnicowanych zestawów danych w celu odkrycia korelacji, ukrytych wzorców i innych użytecznych wniosków.
Branża zdrowotna posiada masywne ilości skomplikowanych, heterogenicznych danych medycznych i klinicznych. Zastosowanie analizy big data na danych zdrowotnych daje ogromny potencjał do wyciągania wniosków mających na celu poprawę dostarczania opieki zdrowotnej. Jednakże ogrom tych zestawów danych stwarza duże wyzwania w analizie i praktycznym zastosowaniu w środowisku klinicznym.
W tym prowadzonym przez instruktora, żywym szkoleniu (zdalne), uczestnicy nauczą się wykonywania analizy big data w dziedzinie zdrowia, przechodząc przez serię ćwiczeń w żywych laboratoriach.
Po zakończeniu tego szkolenia uczestnicy będą w stanie:
Zainstalować i skonfigurować narzędzia do analizy big data, takie jak Hadoop MapReduce i Spark
Zrozumieć cechy danych medycznych
Zastosować techniki big data do pracy z danymi medycznymi
Badac systemy i algorytmy big data w kontekście aplikacji zdrowotnych
Grupa docelowa
Programiści
Naukowcy danych
Format kursu
Część wykładu, część dyskusji, ćwiczenia i intensywna praktyka ręczna.
Uwaga
Aby zapytać o spersonalizowane szkolenie dla tego kursu, prosimy o kontakt z nami w celu uzgodnienia.
To szkolenie prowadzone przez instruktora na żywo w Olsztyn (online lub na miejscu) jest skierowane do administratorów systemów, którzy chcą nauczyć się, jak konfigurować, wdrażać i zarządzać klastrami Hadoop w swojej organizacji.
Pod koniec szkolenia uczestnicy będą mogli:
Zainstalować i skonfigurować Apache Hadoop.
Zrozumieć cztery główne komponenty ekosystemu Hadoop: HDFS, MapReduce, YARN i Hadoop Common.
Używać Hadoop Distributed File System (HDFS) do skalowania klastra do setek lub tysięcy węzłów.
Skonfigurować HDFS jako silnik magazynowania dla lokalnych wdrożeń Spark.
Skonfigurować Spark do korzystania z alternatywnych rozwiązań magazynowych, takich jak Amazon S3, oraz systemów bazodanowych NoSQL, takich jak Redis, Elasticsearch, Couchbase, Aerospike itp.
Wykonywać zadania administracyjne, takie jak provisionowanie, zarządzanie, monitorowanie i zabezpieczanie klastra Apache Hadoop.
W tym szkoleniu prowadzonym przez instruktora, na żywo w Olsztyn (stacjonarnie lub zdalnie), uczestnicy nauczą się, jak skonfigurować i zintegrować różne frameworki do przetwarzania strumieniowego z istniejącymi systemami przechowywania danych big data oraz powiązanymi aplikacjami i mikrousługami.
Po zakończeniu szkolenia uczestnicy będą mogli:
Zainstalować i skonfigurować różne frameworki do przetwarzania strumieniowego, takie jak Spark Streaming i Kafka Streaming.
Zrozumieć i wybrać najbardziej odpowiedni framework do danego zadania.
Przetwarzać dane w sposób ciągły, równoległy i rekord po rekordzie.
Zintegrować rozwiązania do przetwarzania strumieniowego z istniejącymi bazami danych, hurtowniami danych, jeziorami danych itp.
Zintegrować najbardziej odpowiednią bibliotekę do przetwarzania strumieniowego z aplikacjami przedsiębiorstwa i mikrousługami.
To szkolenie prowadzone przez instruktora na żywo w Olsztyn (online lub na miejscu) jest skierowane do data scientistów, którzy chcą wykorzystać stos SMACK do budowy platform przetwarzania danych dla rozwiązań big data.
Pod koniec szkolenia uczestnicy będą w stanie:
Zaimplementować architekturę potoku danych do przetwarzania big data.
Rozwinąć infrastrukturę klastrową z wykorzystaniem Apache Mesos i Dockera.
Analizować dane za pomocą Spark i Scala.
Zarządzać danymi niestrukturyzowanymi za pomocą Apache Cassandra.
To szkolenie prowadzone przez instruktora na żywo w Olsztyn (online lub na miejscu) jest skierowane do inżynierów, którzy chcą skonfigurować i wdrożyć system Apache Spark do przetwarzania bardzo dużych ilości danych.
Pod koniec szkolenia uczestnicy będą mogli:
Zainstalować i skonfigurować Apache Spark.
Szybko przetwarzać i analizować bardzo duże zbiory danych.
Zrozumieć różnicę między Apache Spark a Hadoop MapReduce oraz kiedy używać którego z nich.
Zintegrować Apache Spark z innymi narzędziami do uczenia maszynowego.
Krzywa uczenia się Apache Spark na początku rośnie powoli, wymaga wiele wysiłku, aby uzyskać pierwsze rezultaty. Ten kurs ma na celu przeskoczenie przez tę trudną początkową fazę. Po ukończeniu tego kursu uczestnicy zrozumieją podstawy Apache Spark, będą wyraźnie rozróżniać RDD od DataFrame, nauczą się korzystać z API Pythona i Scali, zrozumieją rolę executorów i zadań itp. Ponadto, zgodnie z najlepszymi praktykami, kurs silnie koncentruje się na wdrożeniu w chmurze, Databricks i AWS. Uczestnicy zrozumieją również różnice między AWS EMR a AWS Glue, jednym z najnowszych usług Spark oferowanych przez AWS.
Ten kurs wprowadzi Apache Spark. Studenci dowiedzą się, jak Spark pasuje do ekosystemu Big Data i jak używać Spark do analizy danych. Kurs obejmuje powłokę Spark do interaktywnej analizy danych, elementy wewnętrzne Spark, interfejsy API Spark, Spark SQL, przesyłanie strumieniowe Spark oraz uczenie maszynowe i graphX.
To prowadzone przez instruktora szkolenie na żywo w Olsztyn (na miejscu lub zdalnie) jest przeznaczone dla naukowców zajmujących się danymi i programistów, którzy chcą używać Spark NLP, zbudowanego na bazie Apache Spark, do opracowywania, wdrażania i skalowania modeli i potoków przetwarzania tekstu w języku naturalnym.
Pod koniec tego szkolenia uczestnicy będą mogli
Skonfigurować niezbędne środowisko programistyczne, aby rozpocząć tworzenie potoków NLP za pomocą Spark NLP.
Zrozumieć funkcje, architekturę i zalety korzystania z Spark NLP.
Używać wstępnie wytrenowanych modeli dostępnych w Spark NLP do implementacji przetwarzania tekstu.
Dowiedz się, jak budować, trenować i skalować modele Spark NLP dla projektów klasy produkcyjnej.
Zastosuj klasyfikację, wnioskowanie i analizę nastrojów w rzeczywistych przypadkach użycia (dane kliniczne, spostrzeżenia dotyczące zachowań klientów itp.)
Spark SQL to moduł Apache Spark do pracy ze strukturalnymi i niestrukturalnymi danymi. Spark SQL dostarcza informacji o strukturze danych oraz o wykonywanych obliczeniach. Informacje te mogą być wykorzystane do optymalizacji. Dwa najczęstsze zastosowania Spark SQL to:
- wykonywanie zapytań SQL.
- odczytywanie danych z istniejącej instalacji Hive.
W tym szkoleniu prowadzonym przez instruktora (na miejscu lub zdalnie), uczestnicy nauczą się, jak analizować różne typy zbiorów danych za pomocą Spark SQL.
Pod koniec szkolenia uczestnicy będą mogli:
Zainstalować i skonfigurować Spark SQL.
Wykonywać analizę danych za pomocą Spark SQL.
Przeprowadzać zapytania na zbiorach danych w różnych formatach.
Wizualizować dane i wyniki zapytań.
Format kursu
Interaktywny wykład i dyskusja.
Wiele ćwiczeń i praktyki.
Praktyczna implementacja w środowisku live-lab.
Opcje dostosowania kursu
Aby zamówić dostosowane szkolenie z tego kursu, prosimy o kontakt w celu ustalenia szczegółów.
Więcej...
Ostatnia aktualizacja:
Opinie uczestników (8)
Doświadczenie praktyczne trenera, nie koloryzowanie omawianego rozwiązania ale też nie wprowadzanie negatywnego nacechowania. Mam poczucie, że trener przygotowuje mnie do realnego i praktycznego wykorzystania narzędzia - tych cennych szczegółów nie ma zazwyczaj w książkach.
Krzysztof Miodek - Krajowy Rejestr Dlugow Biuro Informacji Gospodarczej S.A.
Szkolenie - Apache Spark Fundamentals
Fakt, że mogliśmy zabrać ze sobą większość informacji/kursu/prezentacji/zadań, które wykonaliśmy, dzięki czemu możemy się nimi przyjrzeć i ewentualnie powtórzyć to, co nie zrozumieliśmy od razu, lub poprawić to, co już zrobiliśmy.
Raul Mihail Rat - Accenture Industrial SS
Szkolenie - Python, Spark, and Hadoop for Big Data
Przetłumaczone przez sztuczną inteligencję
bardzo interaktywny...
Richard Langford
Szkolenie - SMACK Stack for Data Science
Przetłumaczone przez sztuczną inteligencję
Dostateczna praktyka, trener jest kompetentny
Chris Tan
Szkolenie - A Practical Introduction to Stream Processing
Przetłumaczone przez sztuczną inteligencję
Dowiedz się o strumieniowaniu Spark, Databricks i AWS Redshift
Lim Meng Tee - Jobstreet.com Shared Services Sdn. Bhd.
Szkolenie - Apache Spark in the Cloud
Przetłumaczone przez sztuczną inteligencję
zadania treningowe
Pawel Kozikowski - GE Medical Systems Polska Sp. Zoo
Szkolenie - Python and Spark for Big Data (PySpark)
Przetłumaczone przez sztuczną inteligencję
Bardzo polubiłem maszynę wirtualną.
Nauczyciel był bardzo kompetentny nie tylko w temacie zajęć, ale także w innych dziedzinach, a ponadto był miły i przyjazny.
Polubiłem też obiekt w Dubaju.
Safar Alqahtani - Elm Information Security
Szkolenie - Big Data Analytics in Health
Przetłumaczone przez sztuczną inteligencję
Richard is very calm and methodical, with an analytic insight - exactly the qualities needed to present this sort of course.