Szkolenia Big Data

Szkolenia Big Data

BigData to termin używany w odniesieniu do rozwiązań przeznaczonych do przechowywania i przetwarzania dużych zbiorów danych. Rozwiązania typu BigData zostały zainicjowane przez firmę Google, jakkolwiek obecnie dostępnych jest wiele rozwiązań typu open-source takich jak Apache Hadoop, Cassandra czy Cloudera Impala. Zgodnie z raportami publikowanymi przez firmę Gartner BigData jest kolejnym wielkim krokiem w branży IT, zaraz po rozwiązaniach opartych na chmurze obliczeniowej, i będzie wiodącym trendem przez kilka najbliższych lat.

Szkolenia z tematu Big Data mogą być realizowane w siedzibie klienta - lokalizacja w Polsce lub centrach szkoleniowych w lokalizacji w Polsce Szkolenie zdalne realizowane są przy użyciu interaktywnego, zdalnego pulpitu.

Opinie uczestników

★★★★★
★★★★★

Plany szkoleń z technologii Big Data

Nazwa kursu
Czas trwania
Opis
Nazwa kursu
Czas trwania
Opis
21 godzin
Python to skalowalny, elastyczny i szeroko stosowany język programowania do nauki o danych i uczenia maszynowego. Spark to silnik przetwarzania danych wykorzystywany do wyszukiwania, analizowania i przekształcania dużych zbiorów danych, a Hadoop to biblioteka oprogramowania do przechowywania i przetwarzania danych na dużą skalę. Szkolenie na żywo prowadzone przez instruktora (na miejscu lub zdalnie) jest przeznaczone dla programistów, którzy chcą używać i integrować Spark, Hadoop i Python do przetwarzania, analizowania i przekształcania dużych i złożonych zestawów danych. Po zakończeniu tego szkolenia uczestnicy będą w stanie
    Skonfigurowanie środowiska niezbędnego do rozpoczęcia przetwarzania dużych zbiorów danych za pomocą Spark, Hadoop i Python. Zrozumienie funkcji, podstawowych komponentów i architektury Spark i Hadoop. Dowiedz się, jak zintegrować Spark, Hadoop i Python w celu przetwarzania dużych zbiorów danych. Poznanie narzędzi w ekosystemie Spark (Spark MlLib, Spark Streaming, Kafka, Sqoop, Kafka i Flume). Zbuduj systemy rekomendacji oparte na filtrowaniu kolaboracyjnym podobne do Netflix, YouTube, Amazon, Spotify i Google. Wykorzystanie Apache Mahout do skalowania algorytmów uczenia maszynowego.
Format kursu
    Interaktywny wykład i dyskusja. Dużo ćwiczeń i praktyki. Praktyczne wdrożenie w środowisku live-lab.
Opcje dostosowywania kursu
    Aby zamówić niestandardowe szkolenie dla tego kursu, skontaktuj się z nami.
14 godzin
Waikato Environment for Knowledge Analysis (Weka) to oprogramowanie do wizualizacji eksploracji danych o otwartym kodzie źródłowym. Zapewnia zbiór algorytmów uczenia maszynowego do przygotowywania danych, klasyfikacji, grupowania i innych działań związanych z eksploracją danych. Szkolenie na żywo prowadzone przez instruktora (na miejscu lub zdalnie) jest przeznaczone dla początkujących i średnio zaawansowanych analityków danych i naukowców zajmujących się danymi, którzy chcą używać Weka do wykonywania zadań eksploracji danych. Po zakończeniu tego szkolenia uczestnicy będą w stanie
    Instalowanie i konfigurowanie Weka. Poznanie środowiska i środowiska pracy Weka. Wykonywanie zadań eksploracji danych przy użyciu Weka.
Format kursu
    Interaktywny wykład i dyskusja. Dużo ćwiczeń i praktyki. Praktyczne wdrożenie w środowisku live-lab.
Opcje dostosowywania kursu
    Aby zamówić niestandardowe szkolenie dla tego kursu, skontaktuj się z nami.
14 godzin
IBM SPSS Modeler to oprogramowanie wykorzystywane do eksploracji danych i analizy tekstu. Zapewnia zestaw narzędzi do eksploracji danych, które mogą budować modele predykcyjne i wykonywać zadania analizy danych. Szkolenie na żywo prowadzone przez instruktora (na miejscu lub zdalnie) jest przeznaczone dla analityków danych lub każdego, kto chce używać SPSS Modeler do wykonywania działań związanych z eksploracją danych. Po zakończeniu tego szkolenia uczestnicy będą w stanie
    Poznaj podstawy eksploracji danych. Dowiedz się, jak importować i oceniać jakość danych za pomocą Modelera. Efektywnie opracowywać, wdrażać i oceniać modele danych.
Format kursu
    Interaktywny wykład i dyskusja. Dużo ćwiczeń i praktyki. Praktyczne wdrożenie w środowisku live-lab.
Opcje dostosowywania kursu
    Aby zamówić niestandardowe szkolenie dla tego kursu, skontaktuj się z nami.
35 godzin
Uczestnicy, którzy ukończą to prowadzone przez instruktora szkolenie na żywo, zdobędą praktyczne, rzeczywiste zrozumienie Big Data i powiązanych z nim technologii, metodologii i narzędzi. Uczestnicy będą mieli okazję wykorzystać tę wiedzę w praktyce poprzez praktyczne ćwiczenia. Interakcja w grupie i informacje zwrotne od instruktora stanowią ważny element zajęć. Kurs rozpoczyna się od wprowadzenia do podstawowych koncepcji Big Data, a następnie przechodzi do języków programowania i metodologii wykorzystywanych do analizy danych. Na koniec omawiamy narzędzia i infrastrukturę, które umożliwiają przechowywanie Big Data, przetwarzanie rozproszone i Scalability. Format kursu
    Część wykładu, część dyskusji, praktyczna praktyka i wdrażanie, okazjonalne kwizowanie w celu pomiaru postępów.
21 godzin
Python to język programowania wysokiego poziomu słynący z przejrzystej składni i czytelności kodu. Spark jest silnikiem przetwarzania danych używanym do zapytań, analizowania i przekształcania dużych zbiorów danych. PySpark umożliwia użytkownikom połączenie Sparka z Pythonem. W tym prowadzonym przez instruktora szkoleniu na żywo uczestnicy dowiedzą się, jak używać Python i Spark razem do analizy dużych zbiorów danych podczas praktycznych ćwiczeń. Po zakończeniu tego szkolenia uczestnicy będą w stanie
    Dowiedz się, jak używać Sparka z Python do analizy Big Data. Pracuj nad ćwiczeniami, które naśladują rzeczywiste przypadki. Wykorzystanie różnych narzędzi i technik do analizy dużych zbiorów danych przy użyciu PySpark.
Format kursu
    Część wykładu, część dyskusji, ćwiczenia i ciężka praktyka praktyczna
7 godzin
Ten kurs obejmuje sposób korzystania z języka Hive SQL (AKA: Hive HQL, SQL on Hive, HiveQL) dla osób, które wyodrębniają dane z Hive
21 godzin
Odkrywanie wiedzy w bazach danych (KDD) to proces odkrywania użytecznej wiedzy ze zbioru danych. Rzeczywiste zastosowania tej techniki eksploracji danych obejmują marketing, wykrywanie oszustw, telekomunikację i produkcję. W tym prowadzonym przez instruktora kursie na żywo przedstawiamy procesy związane z KDD i przeprowadzamy serię ćwiczeń, aby przećwiczyć wdrażanie tych procesów. Publiczność
    Analitycy danych lub osoby zainteresowane nauką interpretacji danych w celu rozwiązywania problemów
Format kursu
    Po teoretycznym omówieniu KDD, prowadzący przedstawi rzeczywiste przypadki, które wymagają zastosowania KDD do rozwiązania problemu. Uczestnicy przygotują, wybiorą i oczyszczą przykładowe zestawy danych oraz wykorzystają swoją wcześniejszą wiedzę na temat danych, aby zaproponować rozwiązania oparte na wynikach ich obserwacji.
14 godzin
Apache Kylin to ekstremalny, rozproszony silnik analityczny dla dużych zbiorów danych. W tym prowadzonym przez instruktora szkoleniu na żywo uczestnicy dowiedzą się, jak używać Apache Kylin do konfigurowania hurtowni danych w czasie rzeczywistym. Po zakończeniu tego szkolenia uczestnicy będą w stanie
    Wykorzystanie danych strumieniowych w czasie rzeczywistym za pomocą Kylin Wykorzystaj potężne funkcje Apache Kylin, bogaty interfejs SQL, kubowanie iskier i opóźnienie zapytań poniżej sekundy.
Uwaga
    Używamy najnowszej wersji Kylin (w chwili pisania tego tekstu, Apache Kylin v2.0)
Publiczność
    Inżynierowie Big Data Big Data analitycy
Format kursu
    Część wykładu, część dyskusji, ćwiczenia i ciężka praktyka praktyczna
14 godzin
Datameer to platforma analityczno-biznesowa oparta na Hadoop. Umożliwia użytkownikom końcowym dostęp, eksplorację i korelację dużych, ustrukturyzowanych, częściowo ustrukturyzowanych i nieustrukturyzowanych danych w łatwy w użyciu sposób. W tym prowadzonym przez instruktora szkoleniu na żywo uczestnicy dowiedzą się, jak korzystać z Datameer, aby pokonać stromą krzywą uczenia się Hadoop, przechodząc przez konfigurację i analizę szeregu dużych źródeł danych. Po zakończeniu tego szkolenia uczestnicy będą w stanie
    Tworzenie, zarządzanie i interaktywna eksploracja korporacyjnego jeziora danych [Hurtownie danych analityki biznesowej, transakcyjne bazy danych i inne magazyny analityczne. Korzystanie z interfejsu użytkownika arkusza kalkulacyjnego do projektowania kompleksowych potoków przetwarzania danych [Wstępnie wbudowane funkcje do eksploracji złożonych relacji danych Korzystanie z kreatorów "przeciągnij i upuść" do wizualizacji danych i tworzenia pulpitów nawigacyjnych korzystanie z tabel, wykresów, grafów i map do analizowania wyników zapytań
Publiczność
    Analitycy danych
Format kursu
    Część wykładu, część dyskusji, ćwiczenia i ciężka praktyka praktyczna
14 godzin
Eksploracja danych to proces identyfikowania wzorców w dużych zbiorach danych za pomocą metod nauki o danych, takich jak uczenie maszynowe. Korzystając z Excel jako pakietu do analizy danych, użytkownicy mogą przeprowadzać eksplorację i analizę danych. Szkolenie na żywo prowadzone przez instruktora (na miejscu lub zdalnie) jest przeznaczone dla analityków danych, którzy chcą używać Excel do eksploracji danych. Po zakończeniu tego szkolenia uczestnicy będą w stanie
    Eksplorowanie danych za pomocą programu Excel w celu eksploracji i analizy danych. Używanie algorytmów Microsoft do eksploracji danych. Zrozumienie koncepcji eksploracji danych w programie Excel.
Format kursu
    Interaktywny wykład i dyskusja. Dużo ćwiczeń i praktyki. Praktyczne wdrożenie w środowisku live-lab.
Opcje dostosowywania kursu
    Aby zamówić niestandardowe szkolenie dla tego kursu, skontaktuj się z nami.
21 godzin
Dremio to open-source'owa "samoobsługowa platforma danych", która przyspiesza wysyłanie zapytań do różnych typów źródeł danych. Dremio integruje się z relacyjnymi bazami danych, Apache Hadoop, MongoDB, Amazon S3, ElasticSearch i innymi źródłami danych. Obsługuje SQL i zapewnia interfejs użytkownika do tworzenia zapytań. W tym prowadzonym przez instruktora szkoleniu na żywo uczestnicy dowiedzą się, jak zainstalować, skonfigurować i używać Dremio jako warstwy ujednolicającej dla narzędzi do analizy danych i bazowych repozytoriów danych. Po zakończeniu tego szkolenia uczestnicy będą w stanie
    Instalacja i konfiguracja Dremio Wykonywanie zapytań do wielu źródeł danych, niezależnie od lokalizacji, rozmiaru lub struktury Integracja Dremio z BI i źródłami danych, takimi jak Tableau i Elasticsearch
Publiczność
    Naukowcy zajmujący się danymi Analitycy Business Inżynierowie danych
Format kursu
    Część wykładu, część dyskusji, ćwiczenia i ciężka praktyka praktyczna
Uwagi
    Aby zamówić niestandardowe szkolenie dla tego kursu, skontaktuj się z nami.
21 godzin
Apache Drill to pozbawiony schematów, rozproszony, kolumnowy silnik zapytań SQL w pamięci dla Hadoop, NoSQL i innych systemów przechowywania danych i plików w chmurze. Siła Apache Drill leży w jego zdolności do łączenia danych z wielu magazynów danych za pomocą jednego zapytania. Apache Drill obsługuje wiele baz danych NoSQL i systemów plików, w tym HBase, MongoDB, MapR-DB, HDFS, MapR-FS, Amazon S3, Azure Blob Storage, Google Cloud Storage, Swift, NAS i pliki lokalne. Apache Drill to wersja open source systemu Google Dremel, która jest dostępna jako usługa infrastrukturalna o nazwie Google BigQuery. W tym prowadzonym przez instruktora szkoleniu na żywo uczestnicy poznają podstawy Apache Drill, a następnie wykorzystają moc i wygodę SQL do interaktywnego wyszukiwania dużych zbiorów danych w wielu źródłach danych, bez pisania kodu. Uczestnicy dowiedzą się również, jak zoptymalizować zapytania Drill pod kątem rozproszonego wykonywania SQL. Po zakończeniu tego szkolenia uczestnicy będą w stanie
    Wykonywanie "samoobsługowej" eksploracji ustrukturyzowanych i częściowo ustrukturyzowanych danych w Hadoop Zapytania o znane i nieznane dane przy użyciu zapytań SQL Zrozumienie, w jaki sposób Apache Drills odbiera i wykonuje zapytania Pisanie zapytań SQL w celu analizowania różnych typów danych, w tym danych ustrukturyzowanych w Hive, danych częściowo ustrukturyzowanych w tabelach HBase lub MapR-DB oraz danych zapisanych w plikach takich jak Parquet i JSON. Wykorzystanie Apache Drill do wykrywania schematów w locie, z pominięciem złożonych operacji ETL i schematów. Integracja Apache Drill z narzędziami BI (Business Intelligence), takimi jak Tableau, Qlikview, MicroStrategy i Excel.
Publiczność
    Analitycy danych Naukowcy zajmujący się danymi SQL Programiści
Format kursu
    Część wykładu, część dyskusji, ćwiczenia i ciężka praktyka praktyczna
14 godzin
Apache Arrow to open-source'owy framework do przetwarzania danych w pamięci. Jest często używany wraz z innymi narzędziami do nauki o danych w celu uzyskania dostępu do różnych magazynów danych do analizy. Dobrze integruje się z innymi technologiami, takimi jak GPU bazy danych, biblioteki i narzędzia uczenia maszynowego, silniki wykonawcze i ramy wizualizacji danych. W tym instruktażowym szkoleniu na żywo uczestnicy dowiedzą się, jak zintegrować Apache Arrow z różnymi Data Science frameworkami, aby uzyskać dostęp do danych z różnych źródeł danych. Po zakończeniu tego szkolenia uczestnicy będą w stanie
    Instalowanie i konfigurowanie Apache Arrow w rozproszonym środowisku klastrowym Używanie Apache Arrow do uzyskiwania dostępu do danych z różnych źródeł danych Wykorzystanie Apache Arrow do pominięcia potrzeby tworzenia i utrzymywania złożonych potoków ETL Analizuj dane z różnych źródeł danych bez konieczności konsolidowania ich w scentralizowanym repozytorium
Publiczność
    Naukowcy zajmujący się danymi Inżynierowie danych
Format kursu
    Część wykładu, część dyskusji, ćwiczenia i ciężka praktyka praktyczna
Uwaga
    Aby zamówić niestandardowe szkolenie dla tego kursu, skontaktuj się z nami.
14 godzin
Celem kursu jest umożliwienie uczestnikom opanowania pracy z językiem SQL w bazie danych Oracle w celu ekstrakcji danych na poziomie średniozaawansowanym.
14 godzin
Aby spełnić wymagania organów regulacyjnych, dostawcy usług CSP (Communication) mogą wykorzystać analitykę dużych zbiorów danych, która nie tylko pomoże im spełnić wymagania, ale w ramach tego samego projektu może zwiększyć zadowolenie klientów, a tym samym zmniejszyć liczbę rezygnacji. W rzeczywistości, ponieważ  zgodność jest związana z jakością usług związanych z umową, każda inicjatywa mająca na celu spełnienie  zgodności, poprawi “przewagę konkurencyjną” CSP. Dlatego ważne jest, aby organy regulacyjne były w stanie doradzić/poprowadzić zestaw praktyk analitycznych Big Data dla CSP, które przyniosą obopólne korzyści organom regulacyjnym i CSP. Kurs składa się z 8 modułów (4 w dniu 1 i 4 w dniu 2)
35 godzin
Postęp technologiczny i rosnąca ilość informacji zmieniają sposób prowadzenia działalności w wielu branżach, w tym w administracji rządowej. [Generowanie danych rządowych i wskaźniki archiwizacji cyfrowej rosną ze względu na szybki rozwój urządzeń i aplikacji mobilnych, inteligentnych czujników i urządzeń, rozwiązań przetwarzania w chmurze i portali skierowanych do obywateli. W miarę jak informacje cyfrowe stają się coraz bardziej złożone, zarządzanie nimi, ich przetwarzanie, przechowywanie, zabezpieczanie i usuwanie również staje się bardziej złożone. Nowe narzędzia do przechwytywania, wyszukiwania, odkrywania i analizy pomagają organizacjom uzyskać wgląd w nieustrukturyzowane dane. Rynek rządowy znajduje się w punkcie zwrotnym, zdając sobie sprawę, że informacje są strategicznym zasobem, a rząd musi chronić, wykorzystywać i analizować zarówno ustrukturyzowane, jak i nieustrukturyzowane informacje, aby lepiej służyć i spełniać wymagania misji. W miarę jak liderzy rządowi dążą do ewolucji organizacji opartych na danych, aby skutecznie realizować misję, kładą podwaliny pod korelację zależności między zdarzeniami, ludźmi, procesami i informacjami. Rozwiązania rządowe o wysokiej wartości będą tworzone z połączenia najbardziej przełomowych technologii:
    Urządzenia i aplikacje mobilne Usługi w chmurze Społecznościowe technologie biznesowe i sieci Big Data i analityka
IDC przewiduje, że do 2020 roku branża IT osiągnie wartość 5 bilionów dolarów, czyli o około 1,7 biliona dolarów więcej niż obecnie, a 80% wzrostu branży będzie napędzane przez technologie trzeciej platformy. W dłuższej perspektywie technologie te będą kluczowymi narzędziami do radzenia sobie ze złożonością coraz większej ilości informacji cyfrowych. Big Data jest jednym z inteligentnych rozwiązań branżowych i umożliwia rządowi podejmowanie lepszych decyzji poprzez podejmowanie działań w oparciu o wzorce ujawnione w wyniku analizy dużych ilości danych - powiązanych i niepowiązanych, ustrukturyzowanych i nieustrukturyzowanych. Osiągnięcie tych celów wymaga jednak znacznie więcej niż tylko gromadzenia ogromnych ilości danych. "Nadanie sensu tym objętościom Big Data wymaga najnowocześniejszych narzędzi i technologii, które mogą analizować i wydobywać użyteczną wiedzę z ogromnych i różnorodnych strumieni informacji"” Tom Kalil i Fen Zhao z Biura Polityki Naukowej i Technologicznej Białego Domu napisali w poście na blogu OSTP. Biały Dom zrobił krok w kierunku pomocy agencjom w znalezieniu tych technologii, ustanawiając w 2012 roku Narodową Inicjatywę Badań i Rozwoju Big Data. Inicjatywa ta obejmowała ponad 200 milionów dolarów na maksymalne wykorzystanie eksplozji Big Data i narzędzi potrzebnych do jej analizy. Wyzwania, jakie stawia Big Data, są niemal tak zniechęcające, jak zachęcająca jest jego obietnica. Jednym z nich jest efektywne przechowywanie danych. Jak zawsze, budżety są napięte, więc agencje muszą zminimalizować cenę za megabajt pamięci masowej i przechowywać dane w łatwo dostępnym miejscu, aby użytkownicy mogli je uzyskać, kiedy chcą i jak tego potrzebują. Tworzenie kopii zapasowych ogromnych ilości danych zwiększa wyzwanie. Skuteczna analiza danych jest kolejnym poważnym wyzwaniem. Wiele agencji korzysta z komercyjnych narzędzi, które pozwalają im przeszukiwać góry danych, dostrzegając trendy, które mogą pomóc im działać bardziej efektywnie. (Niedawne badanie przeprowadzone przez MeriTalk wykazało, że federalni dyrektorzy IT uważają, że Big Data może pomóc agencjom zaoszczędzić ponad 500 miliardów dolarów, jednocześnie spełniając cele misji). Opracowane na zamówienie narzędzia Big Data również pozwalają agencjom zaspokoić potrzebę analizy ich danych. Na przykład Oak Ridge National Laboratory’s Computational Data Analytics Group udostępniła swój system analizy danych Piranha innym agencjom. System ten pomógł badaczom medycznym znaleźć powiązanie, które może ostrzegać lekarzy o tętniakach aorty przed ich wystąpieniem. Jest on również wykorzystywany do bardziej przyziemnych zadań, takich jak przeszukiwanie danych w celu połączenia kandydatów do pracy z menedżerami ds. rekrutacji.
35 godzin
Dzień 1 - zapewnia ogólny przegląd najważniejszych Big Data obszarów tematycznych. Moduł jest podzielony na szereg sekcji, z których każdej towarzyszy praktyczne ćwiczenie. Dzień 2 - omawia szereg tematów związanych z praktykami analitycznymi i narzędziami dla środowisk Big Data. Nie wchodzi w szczegóły implementacji lub programowania, ale zamiast tego utrzymuje zasięg na poziomie koncepcyjnym, koncentrując się na tematach, które umożliwiają uczestnikom kompleksowe zrozumienie wspólnych funkcji analizy i funkcji oferowanych przez rozwiązania Big Data. Dzień 3 - zawiera przegląd podstawowych i istotnych obszarów tematycznych związanych z architekturą platformy rozwiązań Big Data. Obejmuje mechanizmy Big Data wymagane do opracowania platformy rozwiązań Big Data i opcje architektoniczne do montażu platformy przetwarzania danych. Przedstawiono również typowe scenariusze, aby zapewnić podstawowe zrozumienie, w jaki sposób platforma rozwiązań Big Data jest ogólnie używana; Dzień 4 - opiera się na Dniu 3, badając zaawansowane tematy związane z architekturą platformy rozwiązań Big Data. W szczególności wprowadzane i omawiane są różne warstwy architektoniczne, które składają się na platformę rozwiązań Big Data, w tym źródła danych, pozyskiwanie danych, przechowywanie danych, przetwarzanie danych i bezpieczeństwo; Dzień 5 - obejmuje szereg ćwiczeń i problemów mających na celu sprawdzenie umiejętności delegatów w zakresie stosowania wiedzy z tematów omówionych w dniu 3 i 4;
35 godzin
Postęp technologiczny i rosnąca ilość informacji zmieniają sposób egzekwowania prawa. Wyzwania stawiane przez Big Data są prawie tak samo zniechęcające, jak obietnica Big Data. Efektywne przechowywanie danych jest jednym z tych wyzwań; skuteczna ich analiza jest kolejnym. W tym prowadzonym przez instruktora szkoleniu na żywo uczestnicy poznają sposób myślenia, z jakim należy podejść do technologii Big Data, ocenić ich wpływ na istniejące procesy i polityki oraz wdrożyć te technologie w celu identyfikacji działalności przestępczej i zapobiegania przestępczości. Przeanalizowane zostaną studia przypadków z organizacji zajmujących się egzekwowaniem prawa na całym świecie, aby uzyskać wgląd w ich podejścia, wyzwania i wyniki. Po zakończeniu tego szkolenia uczestnicy będą w stanie
    Łączenie technologii Big Data z tradycyjnymi procesami gromadzenia danych w celu złożenia historii podczas dochodzenia Wdrożenie przemysłowych rozwiązań w zakresie przechowywania i przetwarzania dużych zbiorów danych do analizy danych Przygotowanie propozycji przyjęcia najbardziej adekwatnych narzędzi i procesów w celu umożliwienia opartego na danych podejścia do dochodzenia w sprawach karnych.
Publiczność
    Specjaliści ds. egzekwowania prawa z wykształceniem technicznym
Format kursu
    Część wykładu, część dyskusji, ćwiczenia i ciężka praktyka praktyczna
14 godzin
Cel : To szkolenie ma na celu pomóc uczestnikom zrozumieć, dlaczego Big Data zmienia nasze życie i jak zmienia sposób, w jaki firmy postrzegają nas jako konsumentów. Rzeczywiście, użytkownicy dużych zbiorów danych w firmach odkrywają, że duże zbiory danych uwalniają bogactwo informacji i spostrzeżeń, które przekładają się na wyższe zyski, niższe koszty i mniejsze ryzyko. Minusem była jednak frustracja, gdy zbyt duży nacisk kładziono na poszczególne technologie, a nie skupiano się wystarczająco na filarach zarządzania dużymi zbiorami danych. Podczas tego kursu uczestnicy dowiedzą się, jak zarządzać dużymi zbiorami danych przy użyciu trzech filarów integracji danych, zarządzania danymi i bezpieczeństwa danych, aby przekształcić duże zbiory danych w rzeczywistą wartość biznesową. Różne ćwiczenia przeprowadzone na studium przypadku zarządzania klientami pomogą uczestnikom lepiej zrozumieć podstawowe procesy.
21 godzin
Big Data to termin odnoszący się do rozwiązań przeznaczonych do przechowywania i przetwarzania dużych zbiorów danych. Opracowane początkowo przez Google rozwiązania Big Data ewoluowały i zainspirowały inne podobne projekty, z których wiele jest dostępnych jako open-source. R jest popularnym językiem programowania w branży finansowej.
14 godzin
Gdy tradycyjne technologie pamięci masowej nie radzą sobie z ilością danych, które trzeba przechowywać, istnieją setki alternatyw. Ten kurs stara się wskazać uczestnikom, jakie są alternatywy dla przechowywania i analizowania Big Data oraz jakie są ich zalety i wady. Kurs ten koncentruje się głównie na dyskusji i prezentacji rozwiązań, choć na żądanie dostępne są ćwiczenia praktyczne.
14 godzin
Kurs jest częścią zestawu umiejętności Data Scientist (Domena: Dane i technologia).
14 godzin
Ta sesja szkoleniowa oparta na klasie zbada Big Data. Delegaci będą mieli komputerowe przykłady i ćwiczenia studium przypadku do podjęcia z odpowiednimi narzędziami big data
21 godzin
Publiczność Jeśli próbujesz nadać sens danym, do których masz dostęp lub chcesz analizować nieustrukturyzowane dane dostępne w sieci (takie jak Twitter, LinkedIn itp.), ten kurs jest dla Ciebie. Jest on skierowany głównie do decydentów i osób, które muszą wybrać, jakie dane warto gromadzić i co warto analizować. Nie jest on skierowany do osób konfigurujących rozwiązanie, jednak osoby te skorzystają z szerszej perspektywy. Tryb dostawy Podczas kursu delegaci zostaną zapoznani z działającymi przykładami głównie technologii open source. Po krótkich wykładach odbędzie się prezentacja i proste ćwiczenia dla uczestników. Używana zawartość i oprogramowanie Całe używane oprogramowanie jest aktualizowane za każdym razem, gdy kurs jest uruchamiany, więc sprawdzamy najnowsze możliwe wersje. Obejmuje proces pozyskiwania, formatowania, przetwarzania i analizowania danych, aby wyjaśnić, jak zautomatyzować proces podejmowania decyzji za pomocą uczenia maszynowego.
35 godzin
Big data to zbiory danych, które są tak obszerne i złożone, że tradycyjne aplikacje do przetwarzania danych nie są w stanie sobie z nimi poradzić. Wyzwania związane z dużymi zbiorami danych obejmują przechwytywanie danych, przechowywanie danych, analizę danych, wyszukiwanie, udostępnianie, przesyłanie, wizualizację, zapytania, aktualizację i prywatność informacji.
7 godzin
To prowadzone przez instruktora szkolenie na żywo (na miejscu lub zdalnie) jest przeznaczone dla osób technicznych, które chcą dowiedzieć się, jak wdrożyć strategię uczenia maszynowego, jednocześnie maksymalizując wykorzystanie dużych zbiorów danych. Po zakończeniu tego szkolenia uczestnicy będą
    Zrozumienie ewolucji i trendów w uczeniu maszynowym. Dowiedz się, w jaki sposób uczenie maszynowe jest wykorzystywane w różnych branżach. Zapoznanie się z narzędziami, umiejętnościami i usługami dostępnymi w celu wdrożenia uczenia maszynowego w organizacji. Zrozumienie, w jaki sposób można wykorzystać uczenie maszynowe do usprawnienia eksploracji i analizy danych. Dowiedz się, czym jest pośredni backend danych i w jaki sposób jest on wykorzystywany przez firmy. Zrozumienie roli, jaką big data i inteligentne aplikacje odgrywają w różnych branżach.
Format kursu
    Interaktywny wykład i dyskusja. Dużo ćwiczeń i praktyki. Praktyczne wdrożenie w środowisku live-lab.
Opcje dostosowywania kursu
    Aby zamówić niestandardowe szkolenie dla tego kursu, skontaktuj się z nami.
7 godzin
Apache Sqoop to interfejs wiersza poleceń do przenoszenia danych z relacyjnych baz danych i Hadoop. Apache Flume to rozproszone oprogramowanie do zarządzania dużymi zbiorami danych. Korzystając z Sqoop i Flume, użytkownicy mogą przesyłać dane między systemami i importować duże zbiory danych do architektur pamięci masowej, takich jak Hadoop. Szkolenie na żywo prowadzone przez instruktora (na miejscu lub zdalnie) jest przeznaczone dla inżynierów oprogramowania, którzy chcą używać Sqoop i Flume do przesyłania danych między systemami. Po zakończeniu tego szkolenia uczestnicy będą w stanie
    Pozyskiwanie dużych zbiorów danych za pomocą Sqoop i Flume. Pozyskiwanie danych z wielu źródeł danych. Przenoszenie danych z relacyjnych baz danych do HDFS i Hive. Eksportowanie danych z HDFS do relacyjnej bazy danych.
Format kursu
    Interaktywny wykład i dyskusja. Dużo ćwiczeń i praktyki. Praktyczne wdrożenie w środowisku live-lab.
Opcje dostosowywania kursu
    Aby zamówić niestandardowe szkolenie dla tego kursu, skontaktuj się z nami.
28 godzin
Talend Open Studio for Big Data to narzędzie ETL typu open source do przetwarzania dużych zbiorów danych. Zawiera środowisko programistyczne do interakcji ze źródłami i celami Big Data oraz uruchamiania zadań bez konieczności pisania kodu. Szkolenie na żywo prowadzone przez instruktora (na miejscu lub zdalnie) jest przeznaczone dla osób technicznych, które chcą wdrożyć Talend Open Studio for Big Data w celu uproszczenia procesu odczytu i analizy Big Data. Po zakończeniu tego szkolenia uczestnicy będą w stanie
    Instalacja i konfiguracja Talend Open Studio for Big Data. Łączenie się z systemami Big Data, takimi jak Cloudera, HortonWorks, MapR, Amazon EMR i Apache. Zrozumieć i skonfigurować komponenty i konektory Big Data w Open Studio. Konfigurowanie parametrów do automatycznego generowania kodu MapReduce. Korzystanie z interfejsu "przeciągnij i upuść" Open Studio do uruchamiania zadań Hadoop. Prototypowanie potoków big data. Automatyzacja projektów integracji dużych zbiorów danych.
Format kursu
    Interaktywny wykład i dyskusja. Dużo ćwiczeń i praktyki. Praktyczne wdrożenie w środowisku live-lab.
Opcje dostosowywania kursu
    Aby zamówić niestandardowe szkolenie dla tego kursu, skontaktuj się z nami.
14 godzin
Vespa to open-source'owy silnik przetwarzania i serwowania dużych ilości danych stworzony przez Yahoo.  Służy on do odpowiadania na zapytania użytkowników, tworzenia rekomendacji oraz dostarczania spersonalizowanych treści i reklam w czasie rzeczywistym. To prowadzone przez instruktora szkolenie na żywo wprowadza wyzwania związane z obsługą danych na dużą skalę i prowadzi uczestników przez proces tworzenia aplikacji, która może obliczać odpowiedzi na żądania użytkowników w dużych zbiorach danych w czasie rzeczywistym. Po zakończeniu tego szkolenia uczestnicy będą w stanie
    Wykorzystanie Vespa do szybkiego obliczania danych (przechowywanie, wyszukiwanie, ranking, organizowanie) w czasie serwowania, gdy użytkownik czeka. Wdrożenie Vespa w istniejących aplikacjach obejmujących wyszukiwanie funkcji, rekomendacje i personalizację. Integracja i wdrożenie Vespa z istniejącymi systemami Big Data, takimi jak Hadoop i Storm.
Publiczność
    Deweloperzy
Format kursu
    Część wykładu, część dyskusji, ćwiczenia i ciężka praktyka praktyczna
7 godzin
Alluxio to wirtualny rozproszony system pamięci masowej o otwartym kodzie źródłowym, który ujednolica różne systemy pamięci masowej i umożliwia aplikacjom interakcję z danymi z prędkością pamięci. Korzystają z niego takie firmy jak Intel, Baidu i Alibaba. W tym prowadzonym przez instruktora szkoleniu na żywo uczestnicy dowiedzą się, jak używać Alluxio do łączenia różnych struktur obliczeniowych z systemami pamięci masowej i efektywnego zarządzania danymi w skali wielu petabajtów, przechodząc przez proces tworzenia aplikacji za pomocą Alluxio. Po zakończeniu tego szkolenia uczestnicy będą w stanie
    Tworzenie aplikacji z Alluxio Łączenie systemów i aplikacji Big Data przy zachowaniu jednej przestrzeni nazw Skuteczne wydobywanie wartości z dużych zbiorów danych w dowolnym formacie pamięci masowej Poprawa wydajności obciążeń Wdrażanie i zarządzanie Alluxio w trybie autonomicznym lub klastrowym
Publiczność
    Naukowiec ds. danych Programista Administrator systemu
Format kursu
    Część wykładu, część dyskusji, ćwiczenia i ciężka praktyka praktyczna

Last Updated:

Szkolenie Big Data, Big Data boot camp, Szkolenia Zdalne Big Data, szkolenie wieczorowe Big Data, szkolenie weekendowe Big Data, Kurs Big Data,Kursy Big Data, Trener Big Data, instruktor Big Data, kurs zdalny Big Data, edukacja zdalna Big Data, nauczanie wirtualne Big Data, lekcje UML, nauka przez internet Big Data, e-learning Big Data, kurs online Big Data, wykładowca Big Data

Kursy w promocyjnej cenie

Newsletter z promocjami

Zapisz się na nasz newsletter i otrzymuj informacje o aktualnych zniżkach na kursy otwarte.
Szanujemy Twoją prywatność, dlatego Twój e-mail będzie wykorzystywany jedynie w celu wysyłki naszego newslettera, nie będzie udostępniony ani sprzedany osobom trzecim.
W dowolnej chwili możesz zmienić swoje preferencje co do otrzymywanego newslettera bądź całkowicie się z niego wypisać.

Zaufali nam

This site in other countries/regions