Szkolenia Apache Spark

Szkolenia Apache Spark

Apache Spark to platforma przetwarzania danych, która może szybko wykonywać zadania przetwarzania na bardzo dużych zestawach danych, a także może dystrybuować zadania przetwarzania danych na wiele komputerów, samodzielnie lub w połączeniu z innymi rozproszonymi narzędziami obliczeniowymi. Lokalne, prowadzone na żywo szkolenia na temat Apache Spark na żywo pokazują, w jaki sposób Spark wpasowuje się w ekosystem Big Data i jak używać Sparka do analizy danych.
Szkolenie z usługi Apache Spark jest dostępne jako "szkolenie na miejscu" lub "szkolenie na żywo". Szkolenie na żywo w siedzibie klienta może odbywać się lokalnie w siedzibie klienta w Polsce lub w centrach szkoleniowych korporacji NobleProg w Polsce . Zdalne szkolenie na żywo odbywa się za pomocą interaktywnego, zdalnego pulpitu DaDesktop. NobleProg - Twój lokalny dostawca szkoleń.

Opinie uczestników

★★★★★
★★★★★

Podkategorie Spark

Plany szkoleń z technologii Spark

Nazwa kursu
Czas trwania
Opis
Nazwa kursu
Czas trwania
Opis
21 godzin
Python jest skalowalnym, elastycznym i szeroko stosowanym językiem programowania dla nauk danych i uczenia się maszynowego. Spark to silnik przetwarzania danych wykorzystywany w wyszukiwaniu, analizowaniu i przekształcaniu dużych danych, podczas gdy Hadoop to ramy biblioteki oprogramowania do przechowywania i przetwarzania danych na dużą skalę.

Ten szkolenie na żywo prowadzone przez instruktora (online lub on-site) jest skierowane do deweloperów, którzy chcą wykorzystać i zintegrować Spark, Hadoop, i Python do przetwarzania, analizowania i przekształcania dużych i złożonych zestawów danych.

Po zakończeniu szkolenia uczestnicy będą mogli:

Stwórz niezbędne środowisko do rozpoczęcia przetwarzania dużych danych za pomocą Spark, Hadoop, i Python. Zrozum cechy, podstawowe składniki i architektura Spark i Hadoop. Dowiedz się, jak zintegrować Spark, Hadoop, i Python do przetwarzania dużych danych. Odkryj narzędzia w ekosystemie Spark (Spark MlLib, Spark Streaming, Kafka, Sqoop, Kafka i Flume). Zbuduj współpracujące systemy polecania filtracji podobne do Netflix, YouTube, Amazon, Spotify i Google. Użyj Apache Mahout do skali algorytmów uczenia się maszynowego.

Format kursu

Interaktywne wykłady i dyskusje. Dużo ćwiczeń i praktyk. Wdrażanie rąk w środowisku Live-Lab.

Opcje dostosowania kursu

Aby poprosić o dostosowane szkolenie dla tego kursu, prosimy o kontakt, aby zorganizować.
21 godzin
In this instructor-led, live training in w Polsce, participants will learn how to use Python and Spark together to analyze big data as they work on hands-on exercises.

By the end of this training, participants will be able to:

- Learn how to use Spark with Python to analyze Big Data.
- Work on exercises that mimic real world cases.
- Use different tools and techniques for big data analysis using PySpark.
21 godzin
CEL:

Ten kurs wprowadzi Apache Spark . Uczniowie dowiedzą się, jak Spark pasuje do ekosystemu Big Data i jak używać Spark do analizy danych. Kurs obejmuje Spark Shell do interaktywnej analizy danych, Spark wewnętrzne, Spark API, Spark SQL , Spark streaming oraz uczenie maszynowe i graphX.

PUBLICZNOŚĆ:

Programiści / analitycy danych
21 godzin
Hortonworks Data Platform (HDP) to platforma obsługi Apache Hadoop typu open source, która zapewnia stabilne podstawy do opracowywania rozwiązań Big Data w ekosystemie Apache Hadoop .

Szkolenie na żywo prowadzone przez instruktora (na miejscu lub zdalnie) przedstawia Hortonworks Data Platform (HDP) i prowadzi uczestników przez wdrożenie rozwiązania Spark + Hadoop .

Pod koniec tego szkolenia uczestnicy będą mogli:

- Użyj Hortonworks, aby niezawodnie uruchamiać Hadoop na dużą skalę.
- Ujednolic funkcje bezpieczeństwa, zarządzania i operacji w Hadoop dzięki zwinnym analitycznym przepływom pracy Spark.
- Użyj Hortonworks do zbadania, sprawdzenia, certyfikacji i wsparcia każdego z komponentów w projekcie Spark.
- Przetwarzaj różne rodzaje danych, w tym dane ustrukturyzowane, nieustrukturyzowane, w ruchu i spoczynku.

Format kursu

- Interaktywny wykład i dyskusja.
- Dużo ćwiczeń i ćwiczeń.
- Praktyczne wdrożenie w środowisku na żywo.

Opcje dostosowywania kursu

- Aby poprosić o niestandardowe szkolenie dla tego kursu, skontaktuj się z nami w celu umówienia się.
14 godzin
Magellan to open-source dystrybuowany silnik wykonawczy dla geospatialnej analizy dużych danych. Wdrażany na szczycie Apache Spark, rozszerza Spark SQL i zapewnia stosunkową abstrakcję dla analizy geospatialnej.

Ten instruktor prowadzony, szkolenie na żywo wprowadza koncepcje i podejścia do wdrażania geospatialnej analizy i spacery uczestników poprzez tworzenie przewidywalnej aplikacji analizy za pomocą Magellan na Spark.

Po zakończeniu szkolenia uczestnicy będą mogli:

Efektywnie zapytać, pars i dołączyć do geospatialnych zestawów danych na skalę Wdrożenie danych geoprzestrzennych w biznesie inteligencji i przewidywalnych aplikacji analitycznych Korzystaj z kontekstu kosmicznego, aby rozszerzyć możliwości urządzeń mobilnych, czujników, logów i przenośnych

Format kursu

Interaktywne wykłady i dyskusje. Dużo ćwiczeń i praktyk. Wdrażanie rąk w środowisku Live-Lab.

Opcje dostosowania kursu

Aby poprosić o dostosowane szkolenie dla tego kursu, prosimy o kontakt, aby zorganizować.
7 godzin
Alluxio to open-source wirtualny dystrybuowany system pamięci, który łączy różne systemy pamięci i umożliwia aplikacje do interakcji z danymi w prędkości pamięci. Jest używany przez firmy takie jak Intel, Baidu i Alibaba.

W tym szkoleniu prowadzonym przez instruktora, uczestnicy uczą się, jak używać Alluxio do łączenia różnych ram obliczeniowych z systemami przechowywania i skutecznie zarządzać wielopetabytowymi danymi, gdy przechodzą przez tworzenie aplikacji z Alluxio.

Po zakończeniu szkolenia uczestnicy będą mogli:

Rozwijanie aplikacji z Alluxio Połączenie dużych systemów danych i aplikacji przy jednoczesnym utrzymaniu nazwiska Efektywnie wydobywa wartość z dużych danych w dowolnym formacie przechowywania Poprawa wydajności pracy Rozmieszczenie i zarządzanie Alluxio samodzielnie lub grupowane

publiczność

Naukowcy danych Rozwój Administrator systemu

Format kursu

Częściowe wykłady, częściowe dyskusje, ćwiczenia i ciężkie praktyki
7 godzin
Spark SQL to Apache Spark do pracy z danymi strukturalnymi i nieustrukturyzowanymi. Spark SQL dostarcza informacji o strukturze danych oraz wykonywanych obliczeniach. Informacje te można wykorzystać do przeprowadzenia optymalizacji. Dwa popularne zastosowania Spark SQL to:
- wykonywanie zapytań SQL .
- aby odczytać dane z istniejącej instalacji Hive .

W tym prowadzonym przez instruktora szkoleniu na żywo (na miejscu lub zdalnie) uczestnicy nauczą się analizować różne typy zestawów danych za pomocą Spark SQL .

Pod koniec tego szkolenia uczestnicy będą mogli:

- Zainstaluj i skonfiguruj Spark SQL .
- Wykonaj analizę danych za pomocą Spark SQL .
- Zestawy danych zapytań w różnych formatach.
- Wizualizuj dane i wyniki zapytań.

Format kursu

- Interaktywny wykład i dyskusja.
- Wiele ćwiczeń i ćwiczeń.
- Praktyczne wdrożenie w środowisku laboratoryjnym na żywo.

Opcje dostosowywania kursu

- Aby poprosić o niestandardowe szkolenie na ten kurs, skontaktuj się z nami w celu umówienia.
21 godzin
Stream Processing odnosi się do przetwarzania „danych w ruchu” w czasie rzeczywistym, to znaczy wykonywania obliczeń na danych w trakcie ich otrzymywania. Takie dane są odczytywane jako ciągłe strumienie ze źródeł danych, takich jak zdarzenia z czujników, aktywność użytkownika witryny, transakcje finansowe, karty kredytowe, strumienie kliknięć itp. Struktury Stream Processing są w stanie odczytać duże ilości przychodzących danych i zapewniają cenne informacje niemal natychmiast.

Podczas tego instruktażowego szkolenia na żywo (na miejscu lub zdalnie) uczestnicy dowiedzą się, jak skonfigurować i zintegrować różne struktury Stream Processing z istniejącymi systemami przechowywania dużych danych oraz powiązanymi aplikacjami i mikrousługami.

Pod koniec tego szkolenia uczestnicy będą mogli:

- Zainstaluj i skonfiguruj różne platformy Stream Processing , takie jak Spark Streaming i Kafka Streaming.
- Zrozum i wybierz najbardziej odpowiednie ramy dla zadania.
- Przetwarzanie danych w sposób ciągły, równoległy i rekordowy.
- Zintegruj rozwiązania Stream Processing z istniejącymi bazami danych, hurtowniami danych, jeziorami danych itp.
- Zintegruj najbardziej odpowiednią bibliotekę przetwarzania strumieniowego z aplikacjami korporacyjnymi i mikrousługami.

Publiczność

- Deweloperzy
- Architekci oprogramowania

Format kursu

- Część wykładu, część dyskusji, ćwiczenia i ciężka praktyka

Notatki

- Aby poprosić o niestandardowe szkolenie dla tego kursu, skontaktuj się z nami w celu umówienia się.
21 godzin
Analiza dużych danych polega na badaniu dużych ilości różnych zestawów danych w celu wykrycia korelacji, ukrytych wzorców i innych przydatnych informacji.

Branża medyczna ma ogromne ilości złożonych heterogenicznych danych medycznych i klinicznych. Zastosowanie analityki dużych zbiorów danych dotyczących zdrowia ma ogromny potencjał w uzyskiwaniu wglądu w poprawę świadczenia opieki zdrowotnej. Ogrom tych zbiorów danych stanowi jednak ogromne wyzwanie w analizach i praktycznych zastosowaniach w środowisku klinicznym.

W tym prowadzonym przez instruktora szkoleniu na żywo (zdalnie) uczestnicy dowiedzą się, jak wykonywać analitykę dużych danych w zakresie zdrowia, przechodząc przez serię praktycznych ćwiczeń laboratoryjnych na żywo.

Pod koniec tego szkolenia uczestnicy będą mogli:

- Zainstaluj i skonfiguruj narzędzia do analizy dużych danych, takie jak Hadoop MapReduce i Spark
- Zrozum charakterystykę danych medycznych
- Zastosuj techniki big data do radzenia sobie z danymi medycznymi
- Badanie systemów i algorytmów dużych zbiorów danych w kontekście aplikacji zdrowotnych

Publiczność

- Deweloperzy
- Naukowcy danych

Format kursu

- Wykład częściowy, dyskusja częściowa, ćwiczenia i ciężka praktyka praktyczna.

Uwaga

- Aby poprosić o niestandardowe szkolenie na ten kurs, skontaktuj się z nami w celu umówienia.
21 godzin
Na początku krzywa uczenia się Apache Spark powoli rośnie, aby uzyskać pierwszy zwrot, trzeba dużo wysiłku. Ten kurs ma na celu przeskoczyć pierwszą trudną część. Po ukończeniu tego kursu uczestnicy zrozumieją podstawy Apache Spark , wyraźnie odróżnią RDD od DataFrame, nauczą się Python i Scala API, zrozumieją wykonawców i zadania itp. Również zgodnie z najlepszymi praktykami, kurs koncentruje się na wdrożenie w chmurze, Databricks i AWS. Uczniowie zrozumieją także różnice między AWS EMR i AWS Glue, jedną z najnowszych usług Spark w AWS.

PUBLICZNOŚĆ:

Inżynier danych, DevOps , Data Scientist
21 godzin
Scala to skrócona wersja Java do programowania funkcjonalnego i obiektowego na dużą skalę. Apache Spark Streaming jest rozszerzonym składnikiem interfejsu API Spark do przetwarzania dużych zbiorów danych jako strumieni w czasie rzeczywistym. Razem Spark Streaming i Scala umożliwiają strumieniowe przesyłanie dużych zbiorów danych.

Szkolenie na żywo prowadzone przez instruktora (na miejscu lub zdalnie) jest przeznaczone dla inżynierów oprogramowania, którzy chcą strumieniować duże dane za pomocą Spark Streaming i Scala .

Pod koniec tego szkolenia uczestnicy będą mogli:

- Twórz aplikacje Spark za pomocą języka programowania Scala .
- Użyj Spark Streaming do przetwarzania ciągłych strumieni danych.
- Przetwarzaj strumienie danych w czasie rzeczywistym za pomocą Spark Streaming.

Format kursu

- Interaktywny wykład i dyskusja.
- Dużo ćwiczeń i ćwiczeń.
- Praktyczne wdrożenie w środowisku na żywo.

Opcje dostosowywania kursu

- Aby poprosić o niestandardowe szkolenie dla tego kursu, skontaktuj się z nami w celu umówienia się.
14 godzin
SMACK to zbiór oprogramowania platformy danych, a mianowicie Apache Spark, Apache Mesos, Apache Akka, Apache Cassandra, i Apache Kafka. Korzystając ze sztuczki SMACK, użytkownicy mogą tworzyć i skalić platformy przetwarzania danych.

Ten szkolenie na żywo prowadzone przez instruktora (online lub on-site) jest skierowane do naukowców danych, którzy chcą korzystać z SMACK stack, aby zbudować platformy przetwarzania danych dla rozwiązań dużych danych.

Po zakończeniu szkolenia uczestnicy będą mogli:

Wdrożenie architektury rurociągu danych do przetwarzania dużych danych. Rozwijanie infrastruktury klastrowej z Apache Mesos i Docker. Analiza danych za pomocą Spark i Scala. Zarządzanie niestrukturyzowanymi danymi za pomocą Apache Cassandra.

Format kursu

Interaktywne wykłady i dyskusje. Dużo ćwiczeń i praktyk. Wdrażanie rąk w środowisku Live-Lab.

Opcje dostosowania kursu

Aby poprosić o dostosowane szkolenie dla tego kursu, prosimy o kontakt, aby zorganizować.
21 godzin
Apache Spark jest silnikiem analitycznym zaprojektowany do rozpowszechniania danych w grupie, aby przetwarzać je równolegle. Zawiera moduły do transmisji, SQL, uczenia się maszynowego i przetwarzania grafiki.

Ten szkolenie na żywo prowadzone przez instruktora (online lub on-site) jest skierowane do inżynierów, którzy chcą zainstalować system do przetwarzania bardzo dużych ilości danych.

Po zakończeniu szkolenia uczestnicy będą mogli:

Instalacja i konfiguracja Apache Spark. Zrozum różnicę między Apache Spark i Hadoop MapReduce i kiedy używać którego. Szybko czytać i analizować bardzo duże zestawy danych. Integruj Apache Spark z innymi narzędziami uczenia się maszynowego.

Format kursu

Interaktywne wykłady i dyskusje. Dużo ćwiczeń i praktyk. Wdrażanie rąk w środowisku Live-Lab.

Opcje dostosowania kursu

Aby poprosić o dostosowane szkolenie dla tego kursu, prosimy o kontakt, aby zorganizować.
21 godzin
Apache Spark jest dystrybuowanym silnikiem przetwarzania do analizy bardzo dużych zestawów danych. Może przetwarzać dane w zestawach i w czasie rzeczywistym, a także wykonywać uczenie się maszynowe, zapytania ad-hoc i przetwarzanie grafiki. .NET for Apache Spark to darmowy, open-source i cross-platform big data analytics framework, który obsługuje aplikacje napisane w C# lub F#.

Ten szkolenie na żywo prowadzone przez instruktora (online lub on-site) jest skierowane do deweloperów, którzy chcą przeprowadzić analizę dużych danych przy użyciu Apache Spark w swoich aplikacjach.NET.

Po zakończeniu szkolenia uczestnicy będą mogli:

Instalacja i konfiguracja Apache Spark. Zrozum, w jaki sposób.NET wdraża aplikacje Spark, aby mogły być dostępne z aplikacji.NET. Rozwijanie aplikacji przetwarzania danych za pomocą C# lub F#, zdolnych do obsługi zestawów danych, których rozmiar jest mierzony w terabytach i pedabytach. Rozwijanie funkcji uczenia się maszynowego dla aplikacji.NET przy użyciu możliwości Apache Spark. Wykonaj analizę eksploracyjną za pomocą SQL pytań na dużych zestawach danych.

Format kursu

Interaktywne wykłady i dyskusje. Dużo ćwiczeń i praktyk. Wdrażanie rąk w środowisku Live-Lab.

Opcje dostosowania kursu

Aby poprosić o dostosowane szkolenie dla tego kursu, prosimy o kontakt, aby zorganizować.
35 godzin
Apache Hadoop to popularny system przetwarzania danych do przetwarzania dużych zestawów danych na wielu komputerach.

Ten szkolenie na żywo prowadzone przez instruktora (online lub on-site) jest skierowane do administratorów systemów, którzy chcą dowiedzieć się, jak ustawić, uruchomić i zarządzać grupami Hadoop w swojej organizacji.

Po zakończeniu szkolenia uczestnicy będą mogli:

Instalacja i konfiguracja Apache Hadoop. Zrozum cztery główne elementy w ekosystemie Hadoop: HDFS, MapReduce, YARN i Hadoop Common. Użyj Hadoop Distributed File System (HDFS) do skalowania klastru do setek lub tysięcy węzłów. • Zainstaluj HDFS, aby działać jako silnik magazynowy dla wstępnych deploymentów Spark. Zainstaluj Spark, aby uzyskać dostęp do alternatywnych rozwiązań magazynowych, takich jak Amazon S3 i NoSQL systemy baz danych, takie jak Redis, Elasticsearch, Couchbase, Aerospike, itp. Wykonaj zadania administracyjne, takie jak dostarczanie, zarządzanie, monitorowanie i zabezpieczenie klastru Apache Hadoop.

Format kursu

Interaktywne wykłady i dyskusje. Dużo ćwiczeń i praktyk. Wdrażanie rąk w środowisku Live-Lab.

Opcje dostosowania kursu

Aby poprosić o dostosowane szkolenie dla tego kursu, prosimy o kontakt, aby zorganizować.
14 godzin
This instructor-led, live training in w Polsce (online or onsite) is aimed at data scientists and developers who wish to use Spark NLP, built on top of Apache Spark, to develop, implement, and scale natural language text processing models and pipelines.

By the end of this training, participants will be able to:

- Set up the necessary development environment to start building NLP pipelines with Spark NLP.
- Understand the features, architecture, and benefits of using Spark NLP.
- Use the pre-trained models available in Spark NLP to implement text processing.
- Learn how to build, train, and scale Spark NLP models for production-grade projects.
- Apply classification, inference, and sentiment analysis on real-world use cases (clinical data, customer behavior insights, etc.).
35 godzin
MLlib to biblioteka maszynowego uczenia się Sparka (ML). Jego celem jest uczynienie praktycznego uczenia maszynowego skalowalnym i łatwym. Składa się ze zwykłych algorytmów uczenia i narzędzi, w tym klasyfikacji, regresji, grupowania, filtrowania grupowego, redukcji wymiarów, a także prymitywów optymalizacji niższego poziomu i interfejsów API potoków wyższego poziomu.

Dzieli się na dwa pakiety:

-

spark.mllib zawiera oryginalny API zbudowany na bazie RDD.

-

spark.ml dostarcza API wyższego poziomu zbudowane na bazie DataFrames do konstruowania potoków ML.

Publiczność

Kurs skierowany jest do inżynierów i programistów, którzy chcą wykorzystać wbudowaną bibliotekę maszyn dla Apache Spark
21 godzin
This course is aimed at developers and data scientists who wish to understand and implement AI within their applications. Special focus is given to Data Analysis, Distributed AI and NLP.
28 godzin
Wiele rzeczywistych problemów można opisać za pomocą wykresów. Na przykład wykres sieciowy, wykres sieci społecznościowej, wykres sieci pociągów i wykres języka. Te wykresy są zwykle bardzo duże; ich przetwarzanie wymaga specjalistycznego zestawu narzędzi i procesów - te narzędzia i procesy można nazwać Graph Computing (znanym również jako Graph Analytics).

W tym instruktażowym szkoleniu na żywo uczestnicy dowiedzą się o ofertach technologicznych i podejściach wdrożeniowych do przetwarzania danych graficznych. Celem jest identyfikacja rzeczywistych obiektów, ich cech i relacji, a następnie modelowanie tych relacji i przetwarzanie ich jako danych przy użyciu metody Graph Computing (znanej również jako Graph Analytics). Zaczynamy od ogólnego przeglądu i zawężamy do konkretnych narzędzi, przechodząc przez serię studiów przypadków, ćwiczeń praktycznych i wdrożeń na żywo.

Pod koniec tego szkolenia uczestnicy będą mogli:

- Dowiedz się, jak dane wykresu są utrwalane i przetwarzane.
- Wybierz najlepszą strukturę dla danego zadania (od baz danych wykresów po ramy przetwarzania wsadowego).
- Zaimplementuj Hadoop , Spark, GraphX i Pregel, aby równolegle wykonywać obliczenia graficzne na wielu komputerach.
- Zobacz rzeczywiste problemy z dużymi danymi w postaci wykresów, procesów i przejść.

Format kursu

- Część wykładu, część dyskusji, ćwiczenia i ciężka praktyka

Last Updated:

Nadchodzące szkolenia z technologii Apache Spark

Szkolenie Apache Spark, Spark boot camp, Szkolenia Zdalne Apache Spark, szkolenie wieczorowe Apache Spark, szkolenie weekendowe Spark, Kurs Apache Spark,Kursy Spark, Trener Spark, instruktor Spark, kurs zdalny Spark, edukacja zdalna Spark, nauczanie wirtualne Spark, lekcje UML, nauka przez internet Apache Spark, e-learning Apache Spark, kurs online Spark, wykładowca Apache Spark

Kursy w promocyjnej cenie

Newsletter z promocjami

We respect the privacy of your email address. We will not pass on or sell your address to others.
You can always change your preferences or unsubscribe completely.

Zaufali nam

This site in other countries/regions