
BigData to termin używany w odniesieniu do rozwiązań przeznaczonych do przechowywania i przetwarzania dużych zbiorów danych. Rozwiązania typu BigData zostały zainicjowane przez firmę Google, jakkolwiek obecnie dostępnych jest wiele rozwiązań typu open-source takich jak Apache Hadoop, Cassandra czy Cloudera Impala. Zgodnie z raportami publikowanymi przez firmę Gartner BigData jest kolejnym wielkim krokiem w branży IT, zaraz po rozwiązaniach opartych na chmurze obliczeniowej, i będzie wiodącym trendem przez kilka najbliższych lat.
Szkolenia z tematu Big Data mogą być realizowane w siedzibie klienta - lokalizacja w Polsce lub centrach szkoleniowych w lokalizacji w Polsce Szkolenie zdalne realizowane są przy użyciu interaktywnego, zdalnego pulpitu.
Opinie uczestników
Część praktyczna.
Arkadiusz Iwaszko
Szkolenie: Big Data Hadoop Analyst Training
zakres materialu
Maciej Jonczyk
Szkolenie: From Data to Decision with Big Data and Predictive Analytics
usystematyzowanie wiedzy z dziedziny ML
Orange Polska
Szkolenie: From Data to Decision with Big Data and Predictive Analytics
Dużo zagadnień, które można zgłębić po szkoleniu
Klaudia Kłębek
Szkolenie: Data Mining z wykorzystaniem R
Wykorzystanie data-integration
Waldemar Wisniewski
Szkolenie: Pentaho Business Intelligence (PBI) - moduły raportowe
wiedza trenera, dostępny sprzęt
Mariusz Moskal
Szkolenie: Pentaho Business Intelligence (PBI) - moduły raportowe
Przykłady wzbogacane danymi rzeczywistymi i scenariuszami przydatnymi w codziennej praktyce
Krzysztof Świątczak
Szkolenie: Pentaho Business Intelligence (PBI) - moduły raportowe
Zastosowanie w praktyce, pomoc przy wyjaśnianiu wielu różnych wątpliwości
SGB-Bank S.A.
Szkolenie: Data Vault: Building a Scalable Data Warehouse
tematyka szkolenia oraz zaangażowanie trenera
Izba Administracji Skarbowej w Lublinie
Szkolenie: Apache NiFi for Administrators
Koleżeńska komunikacja z osobami biorących udział w szkoleniu.
Andrzej Szewczuk - Izba Administracji Skarbowej w Lublinie
Szkolenie: Apache NiFi for Administrators
przydatność ćwiczeń
Algomine sp.z.o.o sp.k.
Szkolenie: Apache NiFi for Administrators
Szkolenie bardzo mi się podobało. Anton posiada dużą wiedzę i wyłożył niezbędną teorię w bardzo przystępny sposób. Świetne jest to, że na szkoleniu było dużo ciekawych ćwiczeń, więc praktycznie od samego początku mamy kontakt z poznawaną technologią.
Szymon Dybczak - Algomine sp.z.o.o sp.k.
Szkolenie: Apache NiFi for Administrators
Najbardziej podobał mi się trener, który daje prawdziwe żywe przykłady.
Simon Hahn
Szkolenie: Administrator Training for Apache Hadoop
Machine Translated
Naprawdę cieszyłem się dużymi kompetencjami trenera.
Grzegorz Gorski
Szkolenie: Administrator Training for Apache Hadoop
Machine Translated
Naprawdę podobały mi się liczne sesje praktyczne.
Jacek Pieczątka
Szkolenie: Administrator Training for Apache Hadoop
Machine Translated
Bardzo podobała mi się Najlepsza.
Halil polat - Amazon Development Center Poland Sp. z o.o.
Szkolenie: Data Mining and Analysis
Machine Translated
Trener skoncentrował się na kluczowych tematach.
Amazon Development Center Poland Sp. z o.o.
Szkolenie: Data Mining and Analysis
Machine Translated
Wiedza fachowa i ogromna wiedza trenera.
Amazon Development Center Poland Sp. z o.o.
Szkolenie: Data Mining and Analysis
Machine Translated
Skorzystałam z poradnictwa i dzielenia się przykładami życia + odpowiadając na wszystkie pytania.
Marta Melloch - Amazon Development Center Poland Sp. z o.o.
Szkolenie: Data Mining and Analysis
Machine Translated
zadania praktyczne
Pawel Kozikowski - GE Medical Systems Polska Sp. Zoo
Szkolenie: Python and Spark for Big Data (PySpark)
Machine Translated
Wycinki były dobre, trener był pomocny. Zakładam również, że trener zaadaptowany trochę do naszej wiedzy po pierwszym dniu.
Capgemini Polska sp. z o.o.
Szkolenie: Teradata Fundamentals
Machine Translated
Entuzjazm i energia trenera
Capgemini Polska sp. z o.o.
Szkolenie: Teradata Fundamentals
Machine Translated
Wskazówki dotyczące poprawy wydajności
Capgemini Polska sp. z o.o.
Szkolenie: Teradata Fundamentals
Machine Translated
praktyczne rzeczy do zrobienia, również teoria była dobrze podawana przez Ajaya
Dominik Mazur - Capgemini Polska Sp. z o.o.
Szkolenie: Hadoop Administration on MapR
Machine Translated
Ćwiczenia
Capgemini Polska Sp. z o.o.
Szkolenie: Hadoop Administration on MapR
Machine Translated
Plany szkoleń z technologii Big Data
Ten szkolenie na żywo prowadzone przez instruktora (online lub on-site) jest skierowane do deweloperów, którzy chcą wykorzystać i zintegrować Spark, Hadoop, i Python do przetwarzania, analizowania i przekształcania dużych i złożonych zestawów danych.
Po zakończeniu szkolenia uczestnicy będą mogli:
Stwórz niezbędne środowisko do rozpoczęcia przetwarzania dużych danych za pomocą Spark, Hadoop, i Python. Zrozum cechy, podstawowe składniki i architektura Spark i Hadoop. Dowiedz się, jak zintegrować Spark, Hadoop, i Python do przetwarzania dużych danych. Odkryj narzędzia w ekosystemie Spark (Spark MlLib, Spark Streaming, Kafka, Sqoop, Kafka i Flume). Zbuduj współpracujące systemy polecania filtracji podobne do Netflix, YouTube, Amazon, Spotify i Google. Użyj Apache Mahout do skali algorytmów uczenia się maszynowego.
Format kursu
Interaktywne wykłady i dyskusje. Dużo ćwiczeń i praktyk. Wdrażanie rąk w środowisku Live-Lab.
Opcje dostosowania kursu
Aby poprosić o dostosowane szkolenie dla tego kursu, prosimy o kontakt, aby zorganizować.
Ten instruktor prowadzony, szkolenie na żywo (online lub on-site) jest skierowany do analityków danych i naukowców danych, którzy chcą użyć Weka do wykonywania zadań wydobywania danych.
Po zakończeniu szkolenia uczestnicy będą mogli:
Instalacja i konfiguracja Weka Zrozumienie środowiska Weka i banku pracy. Wykonaj zadania wydobywania danych przy użyciu Weka.
Format kursu
Interaktywne wykłady i dyskusje. Dużo ćwiczeń i praktyk. Wdrażanie rąk w środowisku Live-Lab.
Opcje dostosowania kursu
Aby poprosić o dostosowane szkolenie dla tego kursu, prosimy o kontakt, aby zorganizować.
Ten szkolenie na żywo prowadzone przez instruktora (online lub on-site) jest skierowane do analityków danych lub każdego, kto chce użyć SPSS Modeler do wykonywania czynności wydobywania danych.
Po zakończeniu szkolenia uczestnicy będą mogli:
Zrozum podstawowe elementy wydobycia danych. Dowiedz się, jak importować i oceniać jakość danych z Modellerem. Efektywnie opracowywać, rozwijać i oceniać modele danych.
Format kursu
Interaktywne wykłady i dyskusje. Dużo ćwiczeń i praktyk. Wdrażanie rąk w środowisku Live-Lab.
Opcje dostosowania kursu
Aby poprosić o dostosowane szkolenie dla tego kursu, prosimy o kontakt, aby zorganizować.
Uczestnicy będą mieli okazję wprowadzić tę wiedzę do praktyki poprzez praktyczne ćwiczenia. Interakcja grupowa i feedback instruktora stanowią ważny element klasy.
Kurs rozpoczyna się od wprowadzenia do podstawowych koncepcji Big Data, a następnie przechodzi do języków programowania i metod wykorzystywanych do wykonywania Data Analysis. Wreszcie omówimy narzędzia i infrastrukturę, które umożliwiają Big Data przechowywanie, dystrybuowane przetwarzanie i Scala pojemność.
Format kursu
Częściowe wykłady, częściowe dyskusje, praktyczne praktyki i realizacja, czasami kwizowanie w celu pomiaru postępu.
By the end of this training, participants will be able to:
- Learn how to use Spark with Python to analyze Big Data.
- Work on exercises that mimic real world cases.
- Use different tools and techniques for big data analysis using PySpark.
W tym kursie prowadzonym przez instruktora, wprowadzamy procesy zaangażowane w KDD i przeprowadzamy szereg ćwiczeń, aby praktykować realizację tych procesów.
publiczność
Analitycy danych lub ktokolwiek zainteresowany nauką, jak interpretować dane, aby rozwiązać problemy
Format kursu
Po teoretycznej dyskusji KDD instruktor przedstawi przypadki w rzeczywistym życiu, które wymagają zastosowania KDD do rozwiązywania problemu. Uczestnicy przygotują, wybierają i oczyszczają zbiory danych próbek oraz wykorzystują swoją wcześniejsze wiedzę na temat danych, aby zaproponować rozwiązania oparte na wynikach swoich obserwacji.
W tym szkoleniu na żywo prowadzonym przez instruktora uczestnicy dowiedzą się, jak używać Apache Kylin do utworzenia magazynu danych w czasie rzeczywistym.
Po zakończeniu szkolenia uczestnicy będą mogli:
Konsumpcja danych transmisji w czasie rzeczywistym za pomocą Kylin Użyj potężnych funkcji Apache Kylin's, bogate SQL interfejs, spark kubing i sekundy zapytania latencji
Uwaga
Używamy najnowszej wersji Kylin (w oparciu o ten tekst, Apache Kylin v2.0)
publiczność
Wielki inżynier danych [ 0 ] Analitycy
Format kursu
Częściowe wykłady, częściowe dyskusje, ćwiczenia i ciężkie praktyki
Szkolenie na żywo prowadzone przez instruktora (na miejscu lub zdalnie) jest przeznaczone dla naukowców zajmujących się danymi, którzy chcą korzystać z Excel do eksploracji danych.
Pod koniec tego szkolenia uczestnicy będą mogli:
- Przeglądaj dane za pomocą Excel aby przeprowadzać eksplorację i analizę danych.
- Użyj algorytmów Microsoft do eksploracji danych.
- Zrozumienie pojęć w eksploracji danych Excel .
Format kursu
- Interaktywny wykład i dyskusja.
- Dużo ćwiczeń i ćwiczeń.
- Praktyczne wdrożenie w środowisku na żywo.
Opcje dostosowywania kursu
- Aby poprosić o niestandardowe szkolenie dla tego kursu, skontaktuj się z nami w celu umówienia się.
W tym szkoleniu prowadzonym przez instruktora, uczestnicy dowiedzą się, jak zainstalować, skonfigurować i używać Dremio jako zjednoczonego warstwy narzędzi analizy danych i podstawowych magazynów danych.
Po zakończeniu szkolenia uczestnicy będą mogli:
Instalacja i konfiguracja Dremio Wykonanie pytań wobec wielu źródeł danych, niezależnie od lokalizacji, rozmiaru lub struktury Integruj Dremio z BI i źródłami danych, takimi jak Tableau i Elasticsearch
publiczność
Naukowcy danych Business Analitycy Inżynierowie danych
Format kursu
Częściowe wykłady, częściowe dyskusje, ćwiczenia i ciężkie praktyki
Notatki
Aby poprosić o dostosowane szkolenie dla tego kursu, prosimy o kontakt, aby zorganizować.
W tym instruktażowym szkoleniu na żywo uczestnicy poznają podstawy Apache Drill , a następnie wykorzystają moc i wygodę SQL aby interaktywnie wyszukiwać duże dane w wielu źródłach danych, bez pisania kodu. Uczestnicy dowiedzą się również, jak zoptymalizować swoje zapytania dotyczące ćwiczeń w celu wykonania rozproszonego SQL .
Pod koniec tego szkolenia uczestnicy będą mogli:
- Przeprowadź „samoobsługową” eksplorację ustrukturyzowanych i częściowo ustrukturyzowanych danych w Hadoop
- Zapytania znane i nieznane za pomocą zapytań SQL
- Dowiedz się, w jaki sposób Apache Drill odbiera i wykonuje zapytania
- Napisz SQL kwerendy do analizowania różnych typów danych, w tym danych strukturyzowanych w Hive , pół-strukturę danych w HBase lub tabel MapR-DB i danych zapisanych w plikach, takich jak Parkiet i JSON.
- Użyj Apache Drill aby wykonać wykrywanie schematu w locie, omijając potrzebę skomplikowanych operacji ETL i schematu
- Zintegruj Apache Drill z narzędziami BI ( Business Intelligence ), takimi jak Tableau , Qlikview, MicroStrategy i Excel
Publiczność
- Analitycy danych
- Badacze danych
- Programiści SQL
Format kursu
- Część wykładu, część dyskusji, ćwiczenia i ciężka praktyka
W tym instruktażowym szkoleniu na żywo uczestnicy dowiedzą się, jak zintegrować Apache Arrow z różnymi platformami Data Science , aby uzyskać dostęp do danych z różnych źródeł danych.
Pod koniec tego szkolenia uczestnicy będą mogli:
- Zainstaluj i skonfiguruj Apache Arrow w rozproszonym środowisku klastrowym
- Użyj Apache Arrow aby uzyskać dostęp do danych z różnych źródeł danych
- Użyj Apache Arrow aby ominąć potrzebę konstruowania i utrzymywania złożonych potoków ETL
- Analizuj dane z różnych źródeł danych bez konieczności konsolidacji ich w scentralizowanym repozytorium
Publiczność
- Badacze danych
- Inżynierowie danych
Format kursu
- Część wykładu, część dyskusji, ćwiczenia i ciężka praktyka
Uwaga
- Aby poprosić o niestandardowe szkolenie dla tego kursu, skontaktuj się z nami w celu umówienia się.
High-value government solutions will be created from a mashup of the most disruptive technologies:
- Mobile devices and applications
- Cloud services
- Social business technologies and networking
- Big Data and analytics
IDC predicts that by 2020, the IT industry will reach $5 trillion, approximately $1.7 trillion larger than today, and that 80% of the industry's growth will be driven by these 3rd Platform technologies. In the long term, these technologies will be key tools for dealing with the complexity of increased digital information. Big Data is one of the intelligent industry solutions and allows government to make better decisions by taking action based on patterns revealed by analyzing large volumes of data — related and unrelated, structured and unstructured.
But accomplishing these feats takes far more than simply accumulating massive quantities of data.“Making sense of thesevolumes of Big Datarequires cutting-edge tools and technologies that can analyze and extract useful knowledge from vast and diverse streams of information,” Tom Kalil and Fen Zhao of the White House Office of Science and Technology Policy wrote in a post on the OSTP Blog.
The White House took a step toward helping agencies find these technologies when it established the National Big Data Research and Development Initiative in 2012. The initiative included more than $200 million to make the most of the explosion of Big Data and the tools needed to analyze it.
The challenges that Big Data poses are nearly as daunting as its promise is encouraging. Storing data efficiently is one of these challenges. As always, budgets are tight, so agencies must minimize the per-megabyte price of storage and keep the data within easy access so that users can get it when they want it and how they need it. Backing up massive quantities of data heightens the challenge.
Analyzing the data effectively is another major challenge. Many agencies employ commercial tools that enable them to sift through the mountains of data, spotting trends that can help them operate more efficiently. (A recent study by MeriTalk found that federal IT executives think Big Data could help agencies save more than $500 billion while also fulfilling mission objectives.).
Custom-developed Big Data tools also are allowing agencies to address the need to analyze their data. For example, the Oak Ridge National Laboratory’s Computational Data Analytics Group has made its Piranha data analytics system available to other agencies. The system has helped medical researchers find a link that can alert doctors to aortic aneurysms before they strike. It’s also used for more mundane tasks, such as sifting through résumés to connect job candidates with hiring managers.
Jeśli próbujesz zrozumieć dane, do których masz dostęp lub chcesz analizować dane nieustrukturyzowane dostępne w sieci (np. Twitter, Połączone itp.), Ten kurs jest dla Ciebie.
Jest on skierowany głównie do decydentów i osób, które muszą wybrać, które dane są warte gromadzenia i co warto przeanalizować.
Nie jest on przeznaczony dla osób konfigurujących rozwiązanie, ale ci ludzie skorzystają z dużego obrazu.
Sposób dostawy
Podczas kursu delegaci zostaną zaprezentowani działające przykłady głównie technologii open source.
Po krótkich wykładach uczestnicy zapoznają się z prezentacją i prostymi ćwiczeniami
Wykorzystywane treści i oprogramowanie
Wszystkie używane programy są aktualizowane za każdym razem, gdy kurs jest uruchamiany, więc sprawdzamy najnowsze wersje.
Obejmuje proces od uzyskania, formatowania, przetwarzania i analizy danych, aby wyjaśnić, jak zautomatyzować proces podejmowania decyzji dzięki uczeniu maszynowemu.
Dzień 2 - omawia szereg tematów dotyczących praktyk analitycznych i narzędzi w środowiskach Big Data . Nie zajmuje się szczegółami implementacji ani programowania, ale utrzymuje zasięg na poziomie koncepcyjnym, koncentrując się na tematach, które pozwalają uczestnikom na zrozumienie powszechnych funkcji analizy i funkcji oferowanych przez rozwiązania Big Data .
Dzień 3 - zawiera przegląd podstawowych i niezbędnych obszarów tematycznych związanych z architekturą platformy rozwiązań Big Data . Obejmuje mechanizmy Big Data wymagane do opracowania platformy rozwiązań Big Data oraz opcje architektoniczne do złożenia platformy przetwarzania danych. Przedstawiono również typowe scenariusze, aby zapewnić podstawową wiedzę o tym, jak ogólnie używana jest platforma rozwiązań Big Data .
Dzień 4 - bazuje na dniu 3, badając zaawansowane tematy związane z architekturą platformy rozwiązań Big Data . W szczególności wprowadza się i omawia różne warstwy architektoniczne, które składają się na platformę rozwiązań Big Data , w tym źródła danych, wejście danych, przechowywanie danych, przetwarzanie danych i bezpieczeństwo.
Dzień 5 - obejmuje szereg ćwiczeń i problemów mających na celu sprawdzenie umiejętności delegatów w zakresie zastosowania wiedzy na tematy omówione w dniach 3 i 4.
Kurs ten koncentruje się głównie na dyskusji i prezentacji rozwiązań, choć praktyczne ćwiczenia są dostępne na żądanie.
Szkolenie na żywo prowadzone przez instruktora wprowadza wyzwania związane z udostępnianiem danych na dużą skalę i prowadzi uczestników przez tworzenie aplikacji, która może obliczać odpowiedzi na żądania użytkowników w dużych zbiorach danych w czasie rzeczywistym.
Pod koniec tego szkolenia uczestnicy będą mogli:
- Użyj Vespa, aby szybko obliczyć dane (przechowywać, wyszukiwać, klasyfikować, organizować) w czasie wyświetlania, gdy użytkownik czeka
- Zaimplementuj Vespa w istniejących aplikacjach obejmujących wyszukiwanie funkcji, rekomendacje i personalizację
- Zintegruj i wdróż Vespa z istniejącymi systemami big data, takimi jak Hadoop i Storm.
Publiczność
- Deweloperzy
Format kursu
- Część wykładu, część dyskusji, ćwiczenia i ciężka praktyka
Kurs składa się z 8 modułów (4 w dniu 1 i 4 w dniu 2)
W tym prowadzonym przez instruktora szkoleniu na żywo uczestnicy poznają sposób podejścia do technologii Big Data , oceny ich wpływu na istniejące procesy i zasady oraz wdrożenia tych technologii w celu identyfikacji działalności przestępczej i zapobiegania przestępczości. Studia przypadków z organów ścigania na całym świecie zostaną przeanalizowane w celu uzyskania wglądu w ich podejścia do przyjmowania, wyzwania i wyniki.
Pod koniec tego szkolenia uczestnicy będą mogli:
- Połącz technologię Big Data z tradycyjnymi procesami gromadzenia danych, aby poskładać historię podczas dochodzenia
- Wdrożenie przemysłowych rozwiązań do przechowywania i przetwarzania dużych zbiorów danych do analizy danych
- Przygotuj propozycję przyjęcia najbardziej odpowiednich narzędzi i procesów umożliwiających oparte na danych podejście do dochodzenia karnego
Publiczność
- Specjaliści organów ścigania z wykształceniem technicznym
Format kursu
- Część wykładu, część dyskusji, ćwiczenia i ciężka praktyka
Uczestnicy nauczą się podczas tego kursu, jak zarządzać dużymi danymi przy użyciu trzech filarów integracji danych, zarządzania danymi i bezpieczeństwa danych, aby przekształcić duże dane w rzeczywistą wartość biznesową. Różne ćwiczenia prowadzone na studium przypadku zarządzania klientami pomogą uczestnikom lepiej zrozumieć podstawowe procesy.
Pod koniec tego szkolenia uczestnicy:
- Zrozum ewolucję i trendy uczenia maszynowego.
- Dowiedz się, jak uczenie maszynowe jest wykorzystywane w różnych branżach.
- Zapoznaj się z narzędziami, umiejętnościami i usługami dostępnymi do wdrożenia uczenia maszynowego w organizacji.
- Zrozum, w jaki sposób uczenie maszynowe może być wykorzystane do ulepszenia eksploracji i analizy danych.
- Dowiedz się, czym jest środkowy backend danych i jak jest on wykorzystywany przez firmy.
- Zrozum rolę jaką odgrywają duże aplikacje i inteligentne aplikacje w różnych branżach.
Format kursu
- Interaktywny wykład i dyskusja.
- Wiele ćwiczeń i ćwiczeń.
- Praktyczne wdrożenie w środowisku laboratoryjnym na żywo.
Opcje dostosowywania kursu
- Aby poprosić o indywidualne szkolenie na ten kurs, skontaktuj się z nami, aby umówić się na spotkanie.
To prowadzone przez instruktora, szkolenie na żywo (na miejscu lub zdalne) jest skierowane do inżynierów oprogramowania, którzy chcą używać Sqoop i Flume do przesyłania danych między systemami.
Do końca tego szkolenia uczestnicy będą mogli:
- Połkacie dużych zbiorów danych z Sqoop i Flume.
- Pozyskiwanie danych z wielu źródeł danych.
- Przenoszenie danych z relacyjnych baz danych do plików HDFS i Hive.
- Eksportowanie danych z systemu HDFS do relacyjnej bazy danych.
Format kursu
- Interaktywny wykład i dyskusja.
- Wiele ćwiczeń i praktyki.
- Praktyczne wdrożenie w środowisku live-lab.
Opcje dostosowywania kursu
- Aby poprosić o dostosowane szkolenie dla tego kursu, skontaktuj się z nami, aby umówić się na spotkanie.
Ten szkolenie na żywo prowadzone przez instruktora (online lub on-site) jest skierowane do osób technicznych, które chcą uruchomić Talend Open Studio dla Big Data w celu ułatwienia procesu czytania i kręcenia przez Big Data.
Po zakończeniu szkolenia uczestnicy będą mogli:
Instalacja i konfiguracja Talend Open Studio dla Big Data. Podłącz się do systemów Big Data takich jak Cloudera, HortonWorks, MapR, Amazon EMR i Apache. Zrozum i zainstaluj duże komponenty danych i podłączenia Open Studio's. Konfiguruj parametry, aby automatycznie generować kod MapReduce. Użyj interfejsu Open Studio's drag-and-drop do wykonywania prac Hadoop. Prototyp dużych rurociągów danych. Automatyczne projekty integracji dużych danych.
Format kursu
Interaktywne wykłady i dyskusje. Dużo ćwiczeń i praktyk. Wdrażanie rąk w środowisku Live-Lab.
Opcje dostosowania kursu
Aby poprosić o dostosowane szkolenie dla tego kursu, prosimy o kontakt, aby zorganizować.
Course goal:
Getting knowledge regarding Hadoop cluster administration
Last Updated: