Szkolenia Apache Spark

Szkolenia Apache Spark

Lokalne, prowadzone na żywo szkolenia na temat Apache Spark na żywo pokazują, w jaki sposób Spark wpasowuje się w ekosystem Big Data i jak używać Sparka do analizy danych Trening Apache Spark jest dostępny jako "trening na żywo" lub "trening na żywo" Szkolenie na żywo w siedzibie klienta może odbywać się lokalnie w siedzibie klienta w Polsce lub w centrach szkoleniowych korporacji NobleProg w Polsce Zdalne szkolenie na żywo odbywa się za pomocą interaktywnego, zdalnego pulpitu NobleProg Twój lokalny dostawca szkoleń.

Machine Translated

Opinie uczestników

★★★★★
★★★★★

Podkategorie Spark

Plany szkoleń z technologii Spark

Nazwa kursu
Czas trwania
Opis
Nazwa kursu
Czas trwania
Opis
21 hours
Opis
This course is aimed at developers and data scientists who wish to understand and implement AI within their applications. Special focus is given to Data Analysis, Distributed AI and NLP.
7 hours
Opis
Alluxio to wirtualny rozproszony system pamięci masowej typu open source, który ujednolica różne systemy pamięci masowej i umożliwia aplikacjom interakcję z danymi z prędkością pamięci. Korzystają z niego takie firmy jak Intel, Baidu i Alibaba.

W tym instruktażowym szkoleniu na żywo uczestnicy dowiedzą się, jak używać Alluxio do łączenia różnych struktur obliczeniowych z systemami pamięci masowej i efektywnego zarządzania danymi w skali wielu petabajtów podczas przechodzenia przez proces tworzenia aplikacji za pomocą Alluxio .

Pod koniec tego szkolenia uczestnicy będą mogli:

- Opracuj aplikację za pomocą Alluxio
- Połącz systemy i aplikacje Big Data, zachowując jedną przestrzeń nazw
- Skutecznie wydobywaj wartość z dużych zbiorów danych w dowolnym formacie przechowywania
- Popraw wydajność obciążenia
- Wdróż i zarządzaj Alluxio samodzielny lub klastrowany

Publiczność

- Naukowiec
- Deweloper
- Administrator systemu

Format kursu

- Część wykładu, część dyskusji, ćwiczenia i ciężka praktyka
21 hours
Opis
Analiza dużych danych polega na badaniu dużych ilości różnych zestawów danych w celu wykrycia korelacji, ukrytych wzorców i innych przydatnych informacji.

Branża medyczna ma ogromne ilości złożonych heterogenicznych danych medycznych i klinicznych. Zastosowanie analityki dużych zbiorów danych dotyczących zdrowia ma ogromny potencjał w uzyskiwaniu wglądu w poprawę świadczenia opieki zdrowotnej. Ogrom tych zbiorów danych stanowi jednak ogromne wyzwanie w analizach i praktycznych zastosowaniach w środowisku klinicznym.

W tym prowadzonym przez instruktora szkoleniu na żywo (zdalnie) uczestnicy dowiedzą się, jak wykonywać analitykę dużych danych w zakresie zdrowia, przechodząc przez serię praktycznych ćwiczeń laboratoryjnych na żywo.

Pod koniec tego szkolenia uczestnicy będą mogli:

- Zainstaluj i skonfiguruj narzędzia do analizy dużych danych, takie jak Hadoop MapReduce i Spark
- Zrozum charakterystykę danych medycznych
- Zastosuj techniki big data do radzenia sobie z danymi medycznymi
- Badanie systemów i algorytmów dużych zbiorów danych w kontekście aplikacji zdrowotnych

Publiczność

- Deweloperzy
- Naukowcy danych

Format kursu

- Wykład częściowy, dyskusja częściowa, ćwiczenia i ciężka praktyka praktyczna.

Uwaga

- Aby poprosić o niestandardowe szkolenie na ten kurs, skontaktuj się z nami w celu umówienia.
28 hours
Opis
Wiele rzeczywistych problemów można opisać za pomocą wykresów. Na przykład wykres sieciowy, wykres sieci społecznościowej, wykres sieci pociągów i wykres języka. Te wykresy są zwykle bardzo duże; ich przetwarzanie wymaga specjalistycznego zestawu narzędzi i procesów - te narzędzia i procesy można nazwać Graph Computing (znanym również jako Graph Analytics).

W tym instruktażowym szkoleniu na żywo uczestnicy dowiedzą się o ofertach technologicznych i podejściach wdrożeniowych do przetwarzania danych graficznych. Celem jest identyfikacja rzeczywistych obiektów, ich cech i relacji, a następnie modelowanie tych relacji i przetwarzanie ich jako danych przy użyciu metody Graph Computing (znanej również jako Graph Analytics). Zaczynamy od ogólnego przeglądu i zawężamy do konkretnych narzędzi, przechodząc przez serię studiów przypadków, ćwiczeń praktycznych i wdrożeń na żywo.

Pod koniec tego szkolenia uczestnicy będą mogli:

- Dowiedz się, jak dane wykresu są utrwalane i przetwarzane.
- Wybierz najlepszą strukturę dla danego zadania (od baz danych wykresów po ramy przetwarzania wsadowego).
- Zaimplementuj Hadoop , Spark, GraphX i Pregel, aby równolegle wykonywać obliczenia graficzne na wielu komputerach.
- Zobacz rzeczywiste problemy z dużymi danymi w postaci wykresów, procesów i przejść.

Format kursu

- Część wykładu, część dyskusji, ćwiczenia i ciężka praktyka
21 hours
Opis
Hortonworks Data Platform (HDP) to platforma obsługi Apache Hadoop typu open source, która zapewnia stabilne podstawy do opracowywania rozwiązań Big Data w ekosystemie Apache Hadoop .

Szkolenie na żywo prowadzone przez instruktora (na miejscu lub zdalnie) przedstawia Hortonworks Data Platform (HDP) i prowadzi uczestników przez wdrożenie rozwiązania Spark + Hadoop .

Pod koniec tego szkolenia uczestnicy będą mogli:

- Użyj Hortonworks, aby niezawodnie uruchamiać Hadoop na dużą skalę.
- Ujednolic funkcje bezpieczeństwa, zarządzania i operacji w Hadoop dzięki zwinnym analitycznym przepływom pracy Spark.
- Użyj Hortonworks do zbadania, sprawdzenia, certyfikacji i wsparcia każdego z komponentów w projekcie Spark.
- Przetwarzaj różne rodzaje danych, w tym dane ustrukturyzowane, nieustrukturyzowane, w ruchu i spoczynku.

Format kursu

- Interaktywny wykład i dyskusja.
- Dużo ćwiczeń i ćwiczeń.
- Praktyczne wdrożenie w środowisku na żywo.

Opcje dostosowywania kursu

- Aby poprosić o niestandardowe szkolenie dla tego kursu, skontaktuj się z nami w celu umówienia się.
21 hours
Opis
Stream Processing odnosi się do przetwarzania „danych w ruchu” w czasie rzeczywistym, to znaczy wykonywania obliczeń na danych w trakcie ich otrzymywania. Takie dane są odczytywane jako ciągłe strumienie ze źródeł danych, takich jak zdarzenia z czujników, aktywność użytkownika witryny, transakcje finansowe, karty kredytowe, strumienie kliknięć itp. Struktury Stream Processing są w stanie odczytać duże ilości przychodzących danych i zapewniają cenne informacje niemal natychmiast.

Podczas tego instruktażowego szkolenia na żywo (na miejscu lub zdalnie) uczestnicy dowiedzą się, jak skonfigurować i zintegrować różne struktury Stream Processing z istniejącymi systemami przechowywania dużych danych oraz powiązanymi aplikacjami i mikrousługami.

Pod koniec tego szkolenia uczestnicy będą mogli:

- Zainstaluj i skonfiguruj różne platformy Stream Processing , takie jak Spark Streaming i Kafka Streaming.
- Zrozum i wybierz najbardziej odpowiednie ramy dla zadania.
- Przetwarzanie danych w sposób ciągły, równoległy i rekordowy.
- Zintegruj rozwiązania Stream Processing z istniejącymi bazami danych, hurtowniami danych, jeziorami danych itp.
- Zintegruj najbardziej odpowiednią bibliotekę przetwarzania strumieniowego z aplikacjami korporacyjnymi i mikrousługami.

Publiczność

- Deweloperzy
- Architekci oprogramowania

Format kursu

- Część wykładu, część dyskusji, ćwiczenia i ciężka praktyka

Notatki

- Aby poprosić o niestandardowe szkolenie dla tego kursu, skontaktuj się z nami w celu umówienia się.
14 hours
Opis
Magellan to rozproszony, rozproszony silnik wykonawczy do analizy geoprzestrzennej dużych zbiorów danych Wdrożony na szczycie Apache Spark, rozszerza Spark SQL i zapewnia relacyjną abstrakcję dla analityki geoprzestrzennej To instruktażowe szkolenie na żywo wprowadza koncepcje i podejścia do wdrażania analizy geoprzestrzennej i prowadzi uczestników przez stworzenie aplikacji do analizy predykcyjnej z wykorzystaniem Magellana na Sparku Pod koniec tego szkolenia uczestnicy będą mogli: Skutecznie wyszukuj, analizuj i dołączaj zbiory danych geoprzestrzennych na dużą skalę Wdrażaj dane geoprzestrzenne w aplikacjach do analiz biznesowych i analizie predykcyjnej Użyj kontekstu przestrzennego, aby rozszerzyć możliwości urządzeń mobilnych, czujników, dzienników i urządzeń do noszenia Publiczność Twórcy aplikacji Format kursu Wykład częściowy, dyskusja częściowa, ćwiczenia i ciężka praktyka handson .
21 hours
Opis
Na początku krzywa uczenia się Apache Spark powoli rośnie, aby uzyskać pierwszy zwrot, trzeba dużo wysiłku. Ten kurs ma na celu przeskoczyć pierwszą trudną część. Po ukończeniu tego kursu uczestnicy zrozumieją podstawy Apache Spark , wyraźnie odróżnią RDD od DataFrame, nauczą się Python i Scala API, zrozumieją wykonawców i zadania itp. Również zgodnie z najlepszymi praktykami, kurs koncentruje się na wdrożenie w chmurze, Databricks i AWS. Uczniowie zrozumieją także różnice między AWS EMR i AWS Glue, jedną z najnowszych usług Spark w AWS.

PUBLICZNOŚĆ:

Inżynier danych, DevOps , Data Scientist
21 hours
Opis
CEL:

Ten kurs wprowadzi Apache Spark . Uczniowie dowiedzą się, jak Spark pasuje do ekosystemu Big Data i jak używać Spark do analizy danych. Kurs obejmuje Spark Shell do interaktywnej analizy danych, Spark wewnętrzne, Spark API, Spark SQL , Spark streaming oraz uczenie maszynowe i graphX.

PUBLICZNOŚĆ:

Programiści / analitycy danych
21 hours
Opis
Python to język programowania wysokiego poziomu, znany ze swojej jasnej składni i czytelności kodu. Spark to mechanizm przetwarzania danych wykorzystywany do kwerend, analizowania i przekształcania dużych danych. PySpark pozwala użytkownikom na interfejs Sparka z Python .

Podczas tego prowadzonego przez instruktora szkolenia na żywo uczestnicy dowiedzą się, jak używać Python i Sparka do analizowania dużych zbiorów danych podczas pracy nad ćwiczeniami praktycznymi.

Pod koniec tego szkolenia uczestnicy będą mogli:

- Dowiedz się, jak używać Sparka z Python do analizowania Big Data .
- Pracuj nad ćwiczeniami, które naśladują rzeczywiste okoliczności.
- Użyj różnych narzędzi i technik do analizy dużych danych za pomocą PySpark .

Format kursu

- Wykład częściowy, dyskusja częściowa, ćwiczenia i ciężka praktyka praktyczna
21 hours
Opis
Scala to skrócona wersja Java do programowania funkcjonalnego i obiektowego na dużą skalę. Apache Spark Streaming jest rozszerzonym składnikiem interfejsu API Spark do przetwarzania dużych zbiorów danych jako strumieni w czasie rzeczywistym. Razem Spark Streaming i Scala umożliwiają strumieniowe przesyłanie dużych zbiorów danych.

Szkolenie na żywo prowadzone przez instruktora (na miejscu lub zdalnie) jest przeznaczone dla inżynierów oprogramowania, którzy chcą strumieniować duże dane za pomocą Spark Streaming i Scala .

Pod koniec tego szkolenia uczestnicy będą mogli:

- Twórz aplikacje Spark za pomocą języka programowania Scala .
- Użyj Spark Streaming do przetwarzania ciągłych strumieni danych.
- Przetwarzaj strumienie danych w czasie rzeczywistym za pomocą Spark Streaming.

Format kursu

- Interaktywny wykład i dyskusja.
- Dużo ćwiczeń i ćwiczeń.
- Praktyczne wdrożenie w środowisku na żywo.

Opcje dostosowywania kursu

- Aby poprosić o niestandardowe szkolenie dla tego kursu, skontaktuj się z nami w celu umówienia się.
7 hours
Opis
Spark SQL to Apache Spark do pracy z danymi strukturalnymi i nieustrukturyzowanymi. Spark SQL dostarcza informacji o strukturze danych oraz wykonywanych obliczeniach. Informacje te można wykorzystać do przeprowadzenia optymalizacji. Dwa popularne zastosowania Spark SQL to:
- wykonywanie zapytań SQL .
- aby odczytać dane z istniejącej instalacji Hive .

W tym prowadzonym przez instruktora szkoleniu na żywo (na miejscu lub zdalnie) uczestnicy nauczą się analizować różne typy zestawów danych za pomocą Spark SQL .

Pod koniec tego szkolenia uczestnicy będą mogli:

- Zainstaluj i skonfiguruj Spark SQL .
- Wykonaj analizę danych za pomocą Spark SQL .
- Zestawy danych zapytań w różnych formatach.
- Wizualizuj dane i wyniki zapytań.

Format kursu

- Interaktywny wykład i dyskusja.
- Wiele ćwiczeń i ćwiczeń.
- Praktyczne wdrożenie w środowisku laboratoryjnym na żywo.

Opcje dostosowywania kursu

- Aby poprosić o niestandardowe szkolenie na ten kurs, skontaktuj się z nami w celu umówienia.
35 hours
Opis
MLlib to biblioteka maszynowego uczenia się Sparka (ML). Jego celem jest uczynienie praktycznego uczenia maszynowego skalowalnym i łatwym. Składa się ze zwykłych algorytmów uczenia i narzędzi, w tym klasyfikacji, regresji, grupowania, filtrowania grupowego, redukcji wymiarów, a także prymitywów optymalizacji niższego poziomu i interfejsów API potoków wyższego poziomu.

Dzieli się na dwa pakiety:

-

spark.mllib zawiera oryginalny API zbudowany na bazie RDD.

-

spark.ml dostarcza API wyższego poziomu zbudowane na bazie DataFrames do konstruowania potoków ML.

Publiczność

Kurs skierowany jest do inżynierów i programistów, którzy chcą wykorzystać wbudowaną bibliotekę maszyn dla Apache Spark
Szkolenie Apache Spark, Spark boot camp, Szkolenia Zdalne Apache Spark, szkolenie wieczorowe Apache Spark, szkolenie weekendowe Spark, Kurs Apache Spark,Kursy Spark, Trener Spark, instruktor Spark, kurs zdalny Spark, edukacja zdalna Spark, nauczanie wirtualne Spark, lekcje UML, nauka przez internet Apache Spark, e-learning Apache Spark, kurs online Spark, wykładowca Apache Spark

Kursy w promocyjnej cenie

Newsletter z promocjami

Zapisz się na nasz newsletter i otrzymuj informacje o aktualnych zniżkach na kursy otwarte.
Szanujemy Twoją prywatność, dlatego Twój e-mail będzie wykorzystywany jedynie w celu wysyłki naszego newslettera, nie będzie udostępniony ani sprzedany osobom trzecim.
W dowolnej chwili możesz zmienić swoje preferencje co do otrzymywanego newslettera bądź całkowicie się z niego wypisać.

Zaufali nam

is growing fast!

We are looking to expand our presence in Poland!

As a Business Development Manager you will:

  • expand business in Poland
  • recruit local talent (sales, agents, trainers, consultants)
  • recruit local trainers and consultants

We offer:

  • Artificial Intelligence and Big Data systems to support your local operation
  • high-tech automation
  • continuously upgraded course catalogue and content
  • good fun in international team

If you are interested in running a high-tech, high-quality training and consulting business.

Apply now!