Szkolenia Big Data

Szkolenia Big Data

BigData to termin używany w odniesieniu do rozwiązań przeznaczonych do przechowywania i przetwarzania dużych zbiorów danych. Rozwiązania typu BigData zostały zainicjowane przez firmę Google, jakkolwiek obecnie dostępnych jest wiele rozwiązań typu open-source takich jak Apache Hadoop, Cassandra czy Cloudera Impala. Zgodnie z raportami publikowanymi przez firmę Gartner BigData jest kolejnym wielkim krokiem w branży IT, zaraz po rozwiązaniach opartych na chmurze obliczeniowej, i będzie wiodącym trendem przez kilka najbliższych lat.

Szkolenia z tematu Big Data mogą być realizowane w siedzibie klienta - lokalizacja w Polsce lub centrach szkoleniowych w lokalizacji w Polsce Szkolenie zdalne realizowane są przy użyciu interaktywnego, zdalnego pulpitu.

Opinie uczestników

★★★★★
★★★★★

Plany szkoleń z technologii Big Data

Nazwa kursu
Czas trwania
Opis
Nazwa kursu
Czas trwania
Opis
21 godzin
Python jest skalowalnym, elastycznym i szeroko stosowanym językiem programowania dla nauk danych i uczenia się maszynowego. Spark to silnik przetwarzania danych wykorzystywany w wyszukiwaniu, analizowaniu i przekształcaniu dużych danych, podczas gdy Hadoop to ramy biblioteki oprogramowania do przechowywania i przetwarzania danych na dużą skalę. Ten szkolenie na żywo prowadzone przez instruktora (online lub on-site) jest skierowane do deweloperów, którzy chcą wykorzystać i zintegrować Spark, Hadoop, i Python do przetwarzania, analizowania i przekształcania dużych i złożonych zestawów danych. Po zakończeniu szkolenia uczestnicy będą mogli:
    Stwórz niezbędne środowisko do rozpoczęcia przetwarzania dużych danych za pomocą Spark, Hadoop, i Python. Zrozum cechy, podstawowe składniki i architektura Spark i Hadoop. Dowiedz się, jak zintegrować Spark, Hadoop, i Python do przetwarzania dużych danych. Odkryj narzędzia w ekosystemie Spark (Spark MlLib, Spark Streaming, Kafka, Sqoop, Kafka i Flume). Zbuduj współpracujące systemy polecania filtracji podobne do Netflix, YouTube, Amazon, Spotify i Google. Użyj Apache Mahout do skali algorytmów uczenia się maszynowego.
Format kursu
    Interaktywne wykłady i dyskusje. Dużo ćwiczeń i praktyk. Wdrażanie rąk w środowisku Live-Lab.
Opcje dostosowania kursu
    Aby poprosić o dostosowane szkolenie dla tego kursu, prosimy o kontakt, aby zorganizować.
14 godzin
Waikato Environment for Knowledge Analysis (Weka) to oprogramowanie do wizualizacji górnictwa danych z otwartym źródłem. Zapewnia zbiór algorytmów uczenia się maszynowego do przygotowania danych, klasyfikacji, grupowania i innych działań w zakresie wydobywania danych. Ten instruktor prowadzony, szkolenie na żywo (online lub on-site) jest skierowany do analityków danych i naukowców danych, którzy chcą użyć Weka do wykonywania zadań wydobywania danych. Po zakończeniu szkolenia uczestnicy będą mogli:
    Instalacja i konfiguracja Weka Zrozumienie środowiska Weka i banku pracy. Wykonaj zadania wydobywania danych przy użyciu Weka.
Format kursu
    Interaktywne wykłady i dyskusje. Dużo ćwiczeń i praktyk. Wdrażanie rąk w środowisku Live-Lab.
Opcje dostosowania kursu
    Aby poprosić o dostosowane szkolenie dla tego kursu, prosimy o kontakt, aby zorganizować.
14 godzin
IBM SPSS Modeler to oprogramowanie wykorzystywane do wydobywania danych i analizy tekstowej. Zapewnia on zestaw narzędzi do wydobywania danych, które mogą zbudować modele przewidywalne i wykonywać zadania analizy danych. Ten szkolenie na żywo prowadzone przez instruktora (online lub on-site) jest skierowane do analityków danych lub każdego, kto chce użyć SPSS Modeler do wykonywania czynności wydobywania danych. Po zakończeniu szkolenia uczestnicy będą mogli:
    Zrozum podstawowe elementy wydobycia danych. Dowiedz się, jak importować i oceniać jakość danych z Modellerem. Efektywnie opracowywać, rozwijać i oceniać modele danych.
Format kursu
    Interaktywne wykłady i dyskusje. Dużo ćwiczeń i praktyk. Wdrażanie rąk w środowisku Live-Lab.
Opcje dostosowania kursu
    Aby poprosić o dostosowane szkolenie dla tego kursu, prosimy o kontakt, aby zorganizować.
35 godzin
Uczestnicy, którzy ukończą ten szkolenie na żywo prowadzone przez instruktora, otrzymają praktyczne, prawdziwe zrozumienie Big Data i powiązanych technologii, metodologii i narzędzi. Uczestnicy będą mieli okazję wprowadzić tę wiedzę do praktyki poprzez praktyczne ćwiczenia. Interakcja grupowa i feedback instruktora stanowią ważny element klasy. Kurs rozpoczyna się od wprowadzenia do podstawowych koncepcji Big Data, a następnie przechodzi do języków programowania i metod wykorzystywanych do wykonywania Data Analysis. Wreszcie omówimy narzędzia i infrastrukturę, które umożliwiają Big Data przechowywanie, dystrybuowane przetwarzanie i Scala pojemność. Format kursu
    Częściowe wykłady, częściowe dyskusje, praktyczne praktyki i realizacja, czasami kwizowanie w celu pomiaru postępu.
21 godzin
In this instructor-led, live training in w Polsce, participants will learn how to use Python and Spark together to analyze big data as they work on hands-on exercises. By the end of this training, participants will be able to:
  • Learn how to use Spark with Python to analyze Big Data.
  • Work on exercises that mimic real world cases.
  • Use different tools and techniques for big data analysis using PySpark.
7 godzin
Kurs obejmuje korzystanie z języka Hive SQL (AKA: Hive HQL, SQL on Hive , Hive QL) dla osób wydobywających dane z Hive
21 godzin
Odkrycie wiedzy w bazach danych (KDD) jest procesem odkrywania przydatnych wiedzy z gromadzenia danych. Prawdziwe aplikacje dla tej techniki wydobywania danych obejmują marketing, wykrywanie oszustw, telekomunikację i produkcję. W tym kursie prowadzonym przez instruktora, wprowadzamy procesy zaangażowane w KDD i przeprowadzamy szereg ćwiczeń, aby praktykować realizację tych procesów. publiczność
    Analitycy danych lub ktokolwiek zainteresowany nauką, jak interpretować dane, aby rozwiązać problemy
Format kursu
    Po teoretycznej dyskusji KDD instruktor przedstawi przypadki w rzeczywistym życiu, które wymagają zastosowania KDD do rozwiązywania problemu. Uczestnicy przygotują, wybierają i oczyszczają zbiory danych próbek oraz wykorzystują swoją wcześniejsze wiedzę na temat danych, aby zaproponować rozwiązania oparte na wynikach swoich obserwacji.
14 godzin
Apache Kylin jest ekstremalnym, dystrybuowanym silnikiem analitycznym dla dużych danych. W tym szkoleniu na żywo prowadzonym przez instruktora uczestnicy dowiedzą się, jak używać Apache Kylin do utworzenia magazynu danych w czasie rzeczywistym. Po zakończeniu szkolenia uczestnicy będą mogli:
    Konsumpcja danych transmisji w czasie rzeczywistym za pomocą Kylin Użyj potężnych funkcji Apache Kylin's, bogate SQL interfejs, spark kubing i sekundy zapytania latencji
Uwaga
    Używamy najnowszej wersji Kylin (w oparciu o ten tekst, Apache Kylin v2.0)
publiczność
    Wielki inżynier danych [ 0 ] Analitycy
Format kursu
    Częściowe wykłady, częściowe dyskusje, ćwiczenia i ciężkie praktyki
14 godzin
Datameer to platforma analizy biznesowej i analitycznej zbudowana na platformie Hadoop Umożliwia on użytkownikom dostępu, odkrywania i korelowania dużych, uporządkowanych, semistrukturalnych i niestrukturalnych danych w łatwy sposób W tym instruktażowym szkoleniu na żywo uczestnicy dowiedzą się, jak używać Datameer do pokonywania stromych krzywych uczenia się Hadoop, kiedy przechodzą przez proces konfiguracji i analizy szeregu dużych źródeł danych Pod koniec tego szkolenia uczestnicy będą mogli: Twórz, kurators i interaktywnie eksploruj jezioro danych przedsiębiorstwa Dostęp do hurtowni danych biznesowych, transakcyjnych baz danych i innych magazynów analitycznych Użyj interfejsu użytkownika arkusza kalkulacyjnego do zaprojektowania końcowych potoków przetwarzania danych Uzyskaj dostęp do gotowych funkcji, aby poznać złożone relacje danych Użyj kreatorów draganddrop do wizualizacji danych i tworzenia pulpitów Użyj tabel, wykresów i map do analizy wyników zapytania Publiczność Analitycy danych Format kursu Wykład częściowy, dyskusja częściowa, ćwiczenia i ciężka praktyka handson .
14 godzin
Eksploracja danych to proces identyfikowania wzorców w dużych danych za pomocą metod nauki danych, takich jak uczenie maszynowe. Korzystając z Excel jako pakietu do analizy danych, użytkownicy mogą przeprowadzać eksplorację i analizę danych. Szkolenie na żywo prowadzone przez instruktora (na miejscu lub zdalnie) jest przeznaczone dla naukowców zajmujących się danymi, którzy chcą korzystać z Excel do eksploracji danych. Pod koniec tego szkolenia uczestnicy będą mogli:
  • Przeglądaj dane za pomocą Excel aby przeprowadzać eksplorację i analizę danych.
  • Użyj algorytmów Microsoft do eksploracji danych.
  • Zrozumienie pojęć w eksploracji danych Excel .
Format kursu
  • Interaktywny wykład i dyskusja.
  • Dużo ćwiczeń i ćwiczeń.
  • Praktyczne wdrożenie w środowisku na żywo.
Opcje dostosowywania kursu
  • Aby poprosić o niestandardowe szkolenie dla tego kursu, skontaktuj się z nami w celu umówienia się.
21 godzin
Dremio jest platformą danych open-source "self-service", która przyspiesza wyszukiwanie różnych rodzajów źródeł danych. Dremio integruje się z relacyjnymi bazami danych, Apache Hadoop, MongoDB, Amazon S3, ElasticSearch i innymi źródłami danych. Wspiera SQL i zapewnia interfejs internetowy do zapytania budowlanego. W tym szkoleniu prowadzonym przez instruktora, uczestnicy dowiedzą się, jak zainstalować, skonfigurować i używać Dremio jako zjednoczonego warstwy narzędzi analizy danych i podstawowych magazynów danych. Po zakończeniu szkolenia uczestnicy będą mogli:
    Instalacja i konfiguracja Dremio Wykonanie pytań wobec wielu źródeł danych, niezależnie od lokalizacji, rozmiaru lub struktury Integruj Dremio z BI i źródłami danych, takimi jak Tableau i Elasticsearch
publiczność
    Naukowcy danych Business Analitycy Inżynierowie danych
Format kursu
    Częściowe wykłady, częściowe dyskusje, ćwiczenia i ciężkie praktyki
Notatki
    Aby poprosić o dostosowane szkolenie dla tego kursu, prosimy o kontakt, aby zorganizować.
14 godzin
Celem kursu jest umożliwienie uczestnikom opanowania umiejętności pracy z językiem SQL w bazie danych Oracle do ekstrakcji danych na poziomie pośrednim.
21 godzin
Apache Drill jest pozbawionym schematu, rozproszonym, kolumnowym silnikiem zapytań SQL dla Hadoop , No SQL i innych systemów przechowywania w chmurze i plików. Moc Apache Drill polega na jego zdolności do łączenia danych z wielu magazynów danych za pomocą jednego zapytania. Apache Drill obsługuje wiele SQL danych SQL i systemów plików, w tym HBase, MongoDB , MapR-DB, HDFS, MapR-FS, Amazon S3, Azure Blob Storage, Go ogle Cloud Storage, Swift , NAS i pliki lokalne. Apache Drill to otwarta wersja systemu Dremel Go ogle, która jest dostępna jako usługa infrastruktury o nazwie Go ogle BigQuery. W tym instruktażowym szkoleniu na żywo uczestnicy poznają podstawy Apache Drill , a następnie wykorzystają moc i wygodę SQL aby interaktywnie wyszukiwać duże dane w wielu źródłach danych, bez pisania kodu. Uczestnicy dowiedzą się również, jak zoptymalizować swoje zapytania dotyczące ćwiczeń w celu wykonania rozproszonego SQL . Pod koniec tego szkolenia uczestnicy będą mogli:
  • Przeprowadź „samoobsługową” eksplorację ustrukturyzowanych i częściowo ustrukturyzowanych danych w Hadoop
  • Zapytania znane i nieznane za pomocą zapytań SQL
  • Dowiedz się, w jaki sposób Apache Drill odbiera i wykonuje zapytania
  • Napisz SQL kwerendy do analizowania różnych typów danych, w tym danych strukturyzowanych w Hive , pół-strukturę danych w HBase lub tabel MapR-DB i danych zapisanych w plikach, takich jak Parkiet i JSON.
  • Użyj Apache Drill aby wykonać wykrywanie schematu w locie, omijając potrzebę skomplikowanych operacji ETL i schematu
  • Zintegruj Apache Drill z narzędziami BI ( Business Intelligence ), takimi jak Tableau , Qlikview, MicroStrategy i Excel
Publiczność
  • Analitycy danych
  • Badacze danych
  • Programiści SQL
Format kursu
  • Część wykładu, część dyskusji, ćwiczenia i ciężka praktyka
14 godzin
Apache Arrow to platforma przetwarzania danych typu open source w pamięci. Jest często używany wraz z innymi narzędziami do analizy danych w celu uzyskania dostępu do różnych magazynów danych w celu analizy. Dobrze integruje się z innymi technologiami, takimi jak bazy danych GPU , biblioteki i narzędzia uczenia maszynowego, silniki wykonawcze i ramy wizualizacji danych. W tym instruktażowym szkoleniu na żywo uczestnicy dowiedzą się, jak zintegrować Apache Arrow z różnymi platformami Data Science , aby uzyskać dostęp do danych z różnych źródeł danych. Pod koniec tego szkolenia uczestnicy będą mogli:
  • Zainstaluj i skonfiguruj Apache Arrow w rozproszonym środowisku klastrowym
  • Użyj Apache Arrow aby uzyskać dostęp do danych z różnych źródeł danych
  • Użyj Apache Arrow aby ominąć potrzebę konstruowania i utrzymywania złożonych potoków ETL
  • Analizuj dane z różnych źródeł danych bez konieczności konsolidacji ich w scentralizowanym repozytorium
Publiczność
  • Badacze danych
  • Inżynierowie danych
Format kursu
  • Część wykładu, część dyskusji, ćwiczenia i ciężka praktyka
Uwaga
  • Aby poprosić o niestandardowe szkolenie dla tego kursu, skontaktuj się z nami w celu umówienia się.
35 godzin
Advances in technologies and the increasing amount of information are transforming how business is conducted in many industries, including government. Government data generation and digital archiving rates are on the rise due to the rapid growth of mobile devices and applications, smart sensors and devices, cloud computing solutions, and citizen-facing portals. As digital information expands and becomes more complex, information management, processing, storage, security, and disposition become more complex as well. New capture, search, discovery, and analysis tools are helping organizations gain insights from their unstructured data. The government market is at a tipping point, realizing that information is a strategic asset, and government needs to protect, leverage, and analyze both structured and unstructured information to better serve and meet mission requirements. As government leaders strive to evolve data-driven organizations to successfully accomplish mission, they are laying the groundwork to correlate dependencies across events, people, processes, and information. High-value government solutions will be created from a mashup of the most disruptive technologies:
  • Mobile devices and applications
  • Cloud services
  • Social business technologies and networking
  • Big Data and analytics
IDC predicts that by 2020, the IT industry will reach $5 trillion, approximately $1.7 trillion larger than today, and that 80% of the industry's growth will be driven by these 3rd Platform technologies. In the long term, these technologies will be key tools for dealing with the complexity of increased digital information. Big Data is one of the intelligent industry solutions and allows government to make better decisions by taking action based on patterns revealed by analyzing large volumes of data — related and unrelated, structured and unstructured. But accomplishing these feats takes far more than simply accumulating massive quantities of data.“Making sense of thesevolumes of Big Datarequires cutting-edge tools and technologies that can analyze and extract useful knowledge from vast and diverse streams of information,” Tom Kalil and Fen Zhao of the White House Office of Science and Technology Policy wrote in a post on the OSTP Blog. The White House took a step toward helping agencies find these technologies when it established the National Big Data Research and Development Initiative in 2012. The initiative included more than $200 million to make the most of the explosion of Big Data and the tools needed to analyze it. The challenges that Big Data poses are nearly as daunting as its promise is encouraging. Storing data efficiently is one of these challenges. As always, budgets are tight, so agencies must minimize the per-megabyte price of storage and keep the data within easy access so that users can get it when they want it and how they need it. Backing up massive quantities of data heightens the challenge. Analyzing the data effectively is another major challenge. Many agencies employ commercial tools that enable them to sift through the mountains of data, spotting trends that can help them operate more efficiently. (A recent study by MeriTalk found that federal IT executives think Big Data could help agencies save more than $500 billion while also fulfilling mission objectives.). Custom-developed Big Data tools also are allowing agencies to address the need to analyze their data. For example, the Oak Ridge National Laboratory’s Computational Data Analytics Group has made its Piranha data analytics system available to other agencies. The system has helped medical researchers find a link that can alert doctors to aortic aneurysms before they strike. It’s also used for more mundane tasks, such as sifting through résumés to connect job candidates with hiring managers.
21 godzin
Publiczność Jeśli próbujesz zrozumieć dane, do których masz dostęp lub chcesz analizować dane nieustrukturyzowane dostępne w sieci (np. Twitter, Połączone itp.), Ten kurs jest dla Ciebie. Jest on skierowany głównie do decydentów i osób, które muszą wybrać, które dane są warte gromadzenia i co warto przeanalizować. Nie jest on przeznaczony dla osób konfigurujących rozwiązanie, ale ci ludzie skorzystają z dużego obrazu. Sposób dostawy Podczas kursu delegaci zostaną zaprezentowani działające przykłady głównie technologii open source. Po krótkich wykładach uczestnicy zapoznają się z prezentacją i prostymi ćwiczeniami Wykorzystywane treści i oprogramowanie Wszystkie używane programy są aktualizowane za każdym razem, gdy kurs jest uruchamiany, więc sprawdzamy najnowsze wersje. Obejmuje proces od uzyskania, formatowania, przetwarzania i analizy danych, aby wyjaśnić, jak zautomatyzować proces podejmowania decyzji dzięki uczeniu maszynowemu.
35 godzin
Dzień 1 - zawiera ogólny przegląd najważniejszych obszarów tematycznych Big Data . Moduł podzielony jest na szereg sekcji, z których każdej towarzyszy ćwiczenie praktyczne. Dzień 2 - omawia szereg tematów dotyczących praktyk analitycznych i narzędzi w środowiskach Big Data . Nie zajmuje się szczegółami implementacji ani programowania, ale utrzymuje zasięg na poziomie koncepcyjnym, koncentrując się na tematach, które pozwalają uczestnikom na zrozumienie powszechnych funkcji analizy i funkcji oferowanych przez rozwiązania Big Data . Dzień 3 - zawiera przegląd podstawowych i niezbędnych obszarów tematycznych związanych z architekturą platformy rozwiązań Big Data . Obejmuje mechanizmy Big Data wymagane do opracowania platformy rozwiązań Big Data oraz opcje architektoniczne do złożenia platformy przetwarzania danych. Przedstawiono również typowe scenariusze, aby zapewnić podstawową wiedzę o tym, jak ogólnie używana jest platforma rozwiązań Big Data . Dzień 4 - bazuje na dniu 3, badając zaawansowane tematy związane z architekturą platformy rozwiązań Big Data . W szczególności wprowadza się i omawia różne warstwy architektoniczne, które składają się na platformę rozwiązań Big Data , w tym źródła danych, wejście danych, przechowywanie danych, przetwarzanie danych i bezpieczeństwo. Dzień 5 - obejmuje szereg ćwiczeń i problemów mających na celu sprawdzenie umiejętności delegatów w zakresie zastosowania wiedzy na tematy omówione w dniach 3 i 4.
21 godzin
Big Data to termin odnoszący się do rozwiązań przeznaczonych do przechowywania i przetwarzania dużych zbiorów danych. Opracowany przez Go ogle początkowo te Big Data rozwiązań ewoluowały i inspiracją dla innych podobnych projektów, z których wiele jest dostępna jako open-source. R to popularny język programowania w branży finansowej.
14 godzin
Gdy tradycyjne technologie pamięci masowej nie radzą sobie z ilością danych potrzebnych do przechowywania, istnieje wiele alternatyw. Ten kurs stara się wskazać uczestnikom, jakie są alternatywy dla przechowywania i analizowania Big Data oraz jakie są ich zalety i wady. Kurs ten koncentruje się głównie na dyskusji i prezentacji rozwiązań, choć praktyczne ćwiczenia są dostępne na żądanie.
14 godzin
Kurs jest częścią zestawu umiejętności Data Scientist (Domain: Data and Technology).
35 godzin
Duże dane to zestawy danych, które są tak obszerne i złożone, że tradycyjne oprogramowanie do przetwarzania danych jest niewystarczające, aby sobie z nimi poradzić. Wyzwania związane z dużymi danymi obejmują przechwytywanie danych, przechowywanie danych, analizę danych, wyszukiwanie, udostępnianie, transfer, wizualizację, zapytania, aktualizację i prywatność informacji.
14 godzin
Vespa to silnik przetwarzania i udostępniania dużych zbiorów danych typu open source stworzony przez Yahoo. Służy do odpowiadania na zapytania użytkowników, formułowania rekomendacji oraz dostarczania spersonalizowanych treści i reklam w czasie rzeczywistym. Szkolenie na żywo prowadzone przez instruktora wprowadza wyzwania związane z udostępnianiem danych na dużą skalę i prowadzi uczestników przez tworzenie aplikacji, która może obliczać odpowiedzi na żądania użytkowników w dużych zbiorach danych w czasie rzeczywistym. Pod koniec tego szkolenia uczestnicy będą mogli:
  • Użyj Vespa, aby szybko obliczyć dane (przechowywać, wyszukiwać, klasyfikować, organizować) w czasie wyświetlania, gdy użytkownik czeka
  • Zaimplementuj Vespa w istniejących aplikacjach obejmujących wyszukiwanie funkcji, rekomendacje i personalizację
  • Zintegruj i wdróż Vespa z istniejącymi systemami big data, takimi jak Hadoop i Storm.
Publiczność
  • Deweloperzy
Format kursu
  • Część wykładu, część dyskusji, ćwiczenia i ciężka praktyka
14 godzin
Aby spełnić wymogi organów regulacyjnych, dostawcy CSP (dostawcy usług Communication ) mogą skorzystać z Big Data Analytics, które nie tylko pomagają im spełnić wymogi zgodności, ale w ramach tego samego projektu mogą zwiększyć zadowolenie klientów, a tym samym zmniejszyć odejście. W rzeczywistości, ponieważ zgodność jest związana z jakością usług związaną z umową, każda inicjatywa zmierzająca do spełnienia wymogów poprawi „przewagę konkurencyjną” CSP. Dlatego ważne jest, aby organy regulacyjne były w stanie doradzić / poprowadzić zestaw praktyk analitycznych Big Data dla CSP, które przyniosą obopólne korzyści między organami regulacyjnymi i CSP. Kurs składa się z 8 modułów (4 w dniu 1 i 4 w dniu 2)
35 godzin
Postępy technologiczne i rosnąca ilość informacji zmieniają sposób egzekwowania prawa. Wyzwania stojące przed Big Data są niemal tak samo trudne, jak obietnica Big Data . Wydajne przechowywanie danych jest jednym z tych wyzwań; efektywna analiza to kolejna sprawa. W tym prowadzonym przez instruktora szkoleniu na żywo uczestnicy poznają sposób podejścia do technologii Big Data , oceny ich wpływu na istniejące procesy i zasady oraz wdrożenia tych technologii w celu identyfikacji działalności przestępczej i zapobiegania przestępczości. Studia przypadków z organów ścigania na całym świecie zostaną przeanalizowane w celu uzyskania wglądu w ich podejścia do przyjmowania, wyzwania i wyniki. Pod koniec tego szkolenia uczestnicy będą mogli:
  • Połącz technologię Big Data z tradycyjnymi procesami gromadzenia danych, aby poskładać historię podczas dochodzenia
  • Wdrożenie przemysłowych rozwiązań do przechowywania i przetwarzania dużych zbiorów danych do analizy danych
  • Przygotuj propozycję przyjęcia najbardziej odpowiednich narzędzi i procesów umożliwiających oparte na danych podejście do dochodzenia karnego
Publiczność
  • Specjaliści organów ścigania z wykształceniem technicznym
Format kursu
  • Część wykładu, część dyskusji, ćwiczenia i ciężka praktyka
14 godzin
Ta sesja szkoleniowa oparta na zajęciach pozwoli poznać Big Data . Delegaci będą mieli przykłady z komputera i ćwiczenia studium przypadku, które będą przeprowadzane za pomocą odpowiednich narzędzi do dużych zbiorów danych
14 godzin
Cel : Szkolenie ma na celu pomóc uczestnikom zrozumieć, dlaczego Big Data zmienia nasze życie i jak zmienia sposób, w jaki firmy postrzegają nas jako konsumentów. W rzeczywistości użytkownicy dużych zbiorów danych w przedsiębiorstwach odkrywają, że duże dane uwalniają bogactwo informacji i spostrzeżeń, które przekładają się na wyższe zyski, niższe koszty i mniejsze ryzyko. Jednak minusem była czasem frustracja, gdy kładziono zbyt duży nacisk na indywidualne technologie i nie skupiano się wystarczająco na filarach zarządzania dużymi danymi. Uczestnicy nauczą się podczas tego kursu, jak zarządzać dużymi danymi przy użyciu trzech filarów integracji danych, zarządzania danymi i bezpieczeństwa danych, aby przekształcić duże dane w rzeczywistą wartość biznesową. Różne ćwiczenia prowadzone na studium przypadku zarządzania klientami pomogą uczestnikom lepiej zrozumieć podstawowe procesy.
7 godzin
To prowadzone przez instruktora szkolenie na żywo (na miejscu lub zdalnie) skierowane jest do osób technicznych, które chcą nauczyć się implementować strategię uczenia maszynowego, maksymalizując wykorzystanie dużych zbiorów danych. Pod koniec tego szkolenia uczestnicy:
  • Zrozum ewolucję i trendy uczenia maszynowego.
  • Dowiedz się, jak uczenie maszynowe jest wykorzystywane w różnych branżach.
  • Zapoznaj się z narzędziami, umiejętnościami i usługami dostępnymi do wdrożenia uczenia maszynowego w organizacji.
  • Zrozum, w jaki sposób uczenie maszynowe może być wykorzystane do ulepszenia eksploracji i analizy danych.
  • Dowiedz się, czym jest środkowy backend danych i jak jest on wykorzystywany przez firmy.
  • Zrozum rolę jaką odgrywają duże aplikacje i inteligentne aplikacje w różnych branżach.
Format kursu
  • Interaktywny wykład i dyskusja.
  • Wiele ćwiczeń i ćwiczeń.
  • Praktyczne wdrożenie w środowisku laboratoryjnym na żywo.
Opcje dostosowywania kursu
  • Aby poprosić o indywidualne szkolenie na ten kurs, skontaktuj się z nami, aby umówić się na spotkanie.
7 godzin
Apache Sqoop to interfejs wiersza poleceń do przenoszenia danych z relacyjnych baz danych i Hadoop. Apache Flume jest rozproszonym oprogramowaniem do zarządzania dużymi zbiorami danych. Za pomocą Sqoop i Flume użytkownicy mogą przesyłać dane między systemami i importować duże zbiory danych do architektur pamięci masowej, takich jak Hadoop. To prowadzone przez instruktora, szkolenie na żywo (na miejscu lub zdalne) jest skierowane do inżynierów oprogramowania, którzy chcą używać Sqoop i Flume do przesyłania danych między systemami. Do końca tego szkolenia uczestnicy będą mogli:
  • Połkacie dużych zbiorów danych z Sqoop i Flume.
  • Pozyskiwanie danych z wielu źródeł danych.
  • Przenoszenie danych z relacyjnych baz danych do plików HDFS i Hive.
  • Eksportowanie danych z systemu HDFS do relacyjnej bazy danych.
Format kursu
  • Interaktywny wykład i dyskusja.
  • Wiele ćwiczeń i praktyki.
  • Praktyczne wdrożenie w środowisku live-lab.
Opcje dostosowywania kursu
  • Aby poprosić o dostosowane szkolenie dla tego kursu, skontaktuj się z nami, aby umówić się na spotkanie.
28 godzin
Talend Open Studio for Big Data to narzędzie ETL open source do przetwarzania dużych danych. Obejmuje to środowisko rozwojowe do interakcji z Big Data źródłami i celami, a także prowadzenie prac bez konieczności pisania kodów. Ten szkolenie na żywo prowadzone przez instruktora (online lub on-site) jest skierowane do osób technicznych, które chcą uruchomić Talend Open Studio dla Big Data w celu ułatwienia procesu czytania i kręcenia przez Big Data. Po zakończeniu szkolenia uczestnicy będą mogli:
    Instalacja i konfiguracja Talend Open Studio dla Big Data. Podłącz się do systemów Big Data takich jak Cloudera, HortonWorks, MapR, Amazon EMR i Apache. Zrozum i zainstaluj duże komponenty danych i podłączenia Open Studio's. Konfiguruj parametry, aby automatycznie generować kod MapReduce. Użyj interfejsu Open Studio's drag-and-drop do wykonywania prac Hadoop. Prototyp dużych rurociągów danych. Automatyczne projekty integracji dużych danych.
Format kursu
    Interaktywne wykłady i dyskusje. Dużo ćwiczeń i praktyk. Wdrażanie rąk w środowisku Live-Lab.
Opcje dostosowania kursu
    Aby poprosić o dostosowane szkolenie dla tego kursu, prosimy o kontakt, aby zorganizować.
21 godzin
The course is dedicated to IT specialists that are looking for a solution to store and process large data sets in distributed system environment Course goal: Getting knowledge regarding Hadoop cluster administration

Last Updated:

Nadchodzące szkolenia z technologii Big Data

Szkolenie Big Data, Big Data boot camp, Szkolenia Zdalne Big Data, szkolenie wieczorowe Big Data, szkolenie weekendowe Big Data, Kurs Big Data,Kursy Big Data, Trener Big Data, instruktor Big Data, kurs zdalny Big Data, edukacja zdalna Big Data, nauczanie wirtualne Big Data, lekcje UML, nauka przez internet Big Data, e-learning Big Data, kurs online Big Data, wykładowca Big Data

Kursy w promocyjnej cenie

Newsletter z promocjami

Zapisz się na nasz newsletter i otrzymuj informacje o aktualnych zniżkach na kursy otwarte.
Szanujemy Twoją prywatność, dlatego Twój e-mail będzie wykorzystywany jedynie w celu wysyłki naszego newslettera, nie będzie udostępniony ani sprzedany osobom trzecim.
W dowolnej chwili możesz zmienić swoje preferencje co do otrzymywanego newslettera bądź całkowicie się z niego wypisać.

Zaufali nam

This site in other countries/regions