
BigData to termin używany w odniesieniu do rozwiązań przeznaczonych do przechowywania i przetwarzania dużych zbiorów danych. Rozwiązania typu BigData zostały zainicjowane przez firmę Google, jakkolwiek obecnie dostępnych jest wiele rozwiązań typu open-source takich jak Apache Hadoop, Cassandra czy Cloudera Impala. Zgodnie z raportami publikowanymi przez firmę Gartner BigData jest kolejnym wielkim krokiem w branży IT, zaraz po rozwiązaniach opartych na chmurze obliczeniowej, i będzie wiodącym trendem przez kilka najbliższych lat.
Szkolenia z tematu Big Data mogą być realizowane w siedzibie klienta - lokalizacja w Polsce lub centrach szkoleniowych w lokalizacji w Polsce Szkolenie zdalne realizowane są przy użyciu interaktywnego, zdalnego pulpitu.
Opinie uczestników
usystematyzowanie wiedzy z dziedziny ML
Orange Polska
Szkolenie: From Data to Decision with Big Data and Predictive Analytics
zakres materialu
Maciej Jonczyk
Szkolenie: From Data to Decision with Big Data and Predictive Analytics
- Paktyczne zastosowanie tematyki szkolenia, - doświadczenie i duża widza, - udzielanie odpwiedzi na zadawane pytania w rozumiały i jasny sposób.
Magdalena Zabielska - Wyższa Szkoła Bankowa w Poznaniu
Szkolenie: Machine Learning and Big Data
bezstresowe podejscie, otwartosc na pytania, dobry kontakt z uczestnikami, np. nawiazywanie rozmowy, pytania
Wyższa Szkoła Bankowa w Poznaniu
Szkolenie: Machine Learning and Big Data
Praktyczne przykłady, wyczerpujące odpowiedzi na zadawane przez uczestników pytania, ogromna wiedza i doświadczenie
Marta Rokosa - Wyższa Szkoła Bankowa w Poznaniu
Szkolenie: Machine Learning and Big Data
Część praktyczna.
Arkadiusz Iwaszko
Szkolenie: Big Data Hadoop Analyst Training
Projekt do samodzielnego przygotowania, interesujący przykład DevOps-owej pacy z Ambari, wsparcie trenera (logowanie na maszynę wirtualną, dobra i bezpośrednia komunikacja)
Bartłomiej Krasiński - Rossmann SDP
Szkolenie: HBase for Developers
Część praktyczna. Zadania były dobrze dobrane do omawianych zagadnień.
Rossmann SDP
Szkolenie: HBase for Developers
pozytywna atmosfera na szkoleniu
Piotr Wojciechowski - Centrum Informatyki Resortu Finansów
Szkolenie: Data Mining with Python
Dużo zagadnień, które można zgłębić po szkoleniu
Klaudia Kłębek
Szkolenie: Data Mining z wykorzystaniem R
Sposób przekazywania wiedzy przez prowadzącego.
Volkswagen Financial Services Polska Sp. z o.o.,
Szkolenie: Data Vault: Building a Scalable Data Warehouse
Zastosowanie w praktyce, pomoc przy wyjaśnianiu wielu różnych wątpliwości
SGB-Bank S.A.
Szkolenie: Data Vault: Building a Scalable Data Warehouse
Przykłady wzbogacane danymi rzeczywistymi i scenariuszami przydatnymi w codziennej praktyce
Krzysztof Świątczak
Szkolenie: Pentaho Business Intelligence (PBI) - moduły raportowe
wiedza trenera, dostępny sprzęt
Mariusz Moskal
Szkolenie: Pentaho Business Intelligence (PBI) - moduły raportowe
Wykorzystanie data-integration
Waldemar Wisniewski
Szkolenie: Pentaho Business Intelligence (PBI) - moduły raportowe
Że trener miał mnóstwo cierpienia do nas, skoro przerywaliśmy go pytaniami co chwili.
Oleksandr Muliar - Bank Gospodarstwa Krajowego
Szkolenie: Pentaho Data Integration (PDI) - moduł do przetwarzania danych ETL (poziom zaawansowany)
Przygotowany materiał. Pełen profesjonalizm. Bardzo dobry kontakt z trenerem. Pełne zaangażowanie i otwartość na zmianę zaplanowanej formuły szkolenia (bardzo cenne dyskusje na tematy otwarte, które przygotowaliśmy)
Kamil Trębacz - Bank Gospodarstwa Krajowego
Szkolenie: Pentaho Data Integration (PDI) - moduł do przetwarzania danych ETL (poziom zaawansowany)
mix przykladow, roznorodnosc, szerokie tlumaczenie
Bank Gospodarstwa Krajowego
Szkolenie: Pentaho Data Integration (PDI) - moduł do przetwarzania danych ETL (poziom zaawansowany)
Wszystko ok.
Marek Siódmiak - Santander Bank Polska
Szkolenie: Spark for Developers
przystępnie wytłumaczone, ćwiczenia, czas na własne wykonanie ćwiczeń, dużo materiałów
INNOGY POLSKA OPERATIONS SP Z O O
Szkolenie: Python and Spark for Big Data (PySpark)
dużo praktycznych przykładów, na rzeczywistych danych
Tomasz Bronk-Zdunowski - Adrianna Żurek, ZF Automotive Systems Poland sp. z o.o.
Szkolenie: Python and Spark for Big Data (PySpark)
Dużo przykładów, źródeł, bibliotek
Adrianna Żurek, ZF Automotive Systems Poland sp. z o.o.
Szkolenie: Python and Spark for Big Data (PySpark)
tematyka szkolenia
Towarzystwo Funduszy Inwestycyjnych PZU SA (TFI PZU SA)
Szkolenie: Apache ActiveMQ
Sposób prowadzenia zajęć przez Trenera.
Towarzystwo Funduszy Inwestycyjnych PZU SA (TFI PZU SA)
Szkolenie: Apache ActiveMQ
praktyczne zajecia
Towarzystwo Funduszy Inwestycyjnych PZU SA (TFI PZU SA)
Szkolenie: Apache ActiveMQ
Najbardziej podoba mi się to, że wiedzę ze szkolenia mogę wprowadzić od razu w życie. Byłam nastawiona, aby na szkoleniu dowiedzieć się jak najwięcej o tym jak walczyć z wydajnością i optymalizacją zapytań w TD i dostałam mnóstwo pomysłów i porad. Trener Krzysztof dał dużo wskazówek, odpowiadał na pytania, podsuwał pomysły, super! Sposób prowadzenia i komunikacja bardzo dobra (mimo, że prowadzenie zdalnie takiego szkolenia- gdzie uczestnicy są wyciszeni i nie włączają kamer - jest bardzo utrudnione:)). Bardzo dziękuję za szkolenie, na pewno będę polecać! :)
Alior Bank Spółka Akcyjna
Szkolenie: Advanced Teradata
Duży plus za przygotowane zdalne środowisko testowe. Duży plus za wiedzę prowadzącego.
Weronika Goliszewska, GlobalLogic Poland Sp. z o.o
Szkolenie: Apache Kafka for Python Programmers
Opanowanie prowadzącego.
Weronika Goliszewska, GlobalLogic Poland Sp. z o.o
Szkolenie: Apache Kafka for Python Programmers
Wrzutki z użycia w prawdziwym życiu technologii, informacje jak coś uprodukcyjnić, otwartość na zmianę tematów, szczerość na temat braku wiedzy z jakiejś kategorii. Offtop był spoko przerywnikiem.
Rossmann SDP Sp. z o.o.
Szkolenie: Apache Flink Fundamentals
Live Coding
Marcin - Rossmann SDP Sp. z o.o.
Szkolenie: Apache Flink Fundamentals
Pytanka rozruchowe i ciekawostki oraz ogromna wiedza i chęć
Rossmann SDP Sp. z o.o.
Szkolenie: Apache Flink Fundamentals
Poruszanie ciekawych zagadnień
Emilia Szajda, Powszechna Kasa Oszczędności Bank Polski SA
Szkolenie: Unified Batch and Stream Processing with Apache Beam
Częste nawiązania do problemów, które są charakterystyczne dla naszego środowiska wdrożeniowego.
SoftForYou Sp. z o.o. Sp. k.
Szkolenie: Greenplum Database
zakres wiedzy szkolącego
Marcin Szymkowiak - SoftForYou Sp. z o.o. Sp. k.
Szkolenie: Greenplum Database
Możliwość dostosowania programu do naszych oczekiwań. Możliwość wtrącenia swoich tematów to wyjaśnienia.
SoftForYou Sp. z o.o. Sp. k.
Szkolenie: Greenplum Database
Plany szkoleń z technologii Big Data
-
Skonfigurowanie środowiska niezbędnego do rozpoczęcia przetwarzania dużych zbiorów danych za pomocą Spark, Hadoop i Python.
Zrozumienie funkcji, podstawowych komponentów i architektury Spark i Hadoop.
Dowiedz się, jak zintegrować Spark, Hadoop i Python w celu przetwarzania dużych zbiorów danych.
Poznanie narzędzi w ekosystemie Spark (Spark MlLib, Spark Streaming, Kafka, Sqoop, Kafka i Flume).
Zbuduj systemy rekomendacji oparte na filtrowaniu kolaboracyjnym podobne do Netflix, YouTube, Amazon, Spotify i Google.
Wykorzystanie Apache Mahout do skalowania algorytmów uczenia maszynowego.
-
Interaktywny wykład i dyskusja.
Dużo ćwiczeń i praktyki.
Praktyczne wdrożenie w środowisku live-lab.
-
Aby zamówić niestandardowe szkolenie dla tego kursu, skontaktuj się z nami.
-
Instalowanie i konfigurowanie Weka.
Poznanie środowiska i środowiska pracy Weka.
Wykonywanie zadań eksploracji danych przy użyciu Weka.
-
Interaktywny wykład i dyskusja.
Dużo ćwiczeń i praktyki.
Praktyczne wdrożenie w środowisku live-lab.
-
Aby zamówić niestandardowe szkolenie dla tego kursu, skontaktuj się z nami.
-
Poznaj podstawy eksploracji danych.
Dowiedz się, jak importować i oceniać jakość danych za pomocą Modelera.
Efektywnie opracowywać, wdrażać i oceniać modele danych.
-
Interaktywny wykład i dyskusja.
Dużo ćwiczeń i praktyki.
Praktyczne wdrożenie w środowisku live-lab.
-
Aby zamówić niestandardowe szkolenie dla tego kursu, skontaktuj się z nami.
-
Część wykładu, część dyskusji, praktyczna praktyka i wdrażanie, okazjonalne kwizowanie w celu pomiaru postępów.
-
Dowiedz się, jak używać Sparka z Python do analizy Big Data.
Pracuj nad ćwiczeniami, które naśladują rzeczywiste przypadki.
Wykorzystanie różnych narzędzi i technik do analizy dużych zbiorów danych przy użyciu PySpark.
-
Część wykładu, część dyskusji, ćwiczenia i ciężka praktyka praktyczna
-
Analitycy danych lub osoby zainteresowane nauką interpretacji danych w celu rozwiązywania problemów
-
Po teoretycznym omówieniu KDD, prowadzący przedstawi rzeczywiste przypadki, które wymagają zastosowania KDD do rozwiązania problemu. Uczestnicy przygotują, wybiorą i oczyszczą przykładowe zestawy danych oraz wykorzystają swoją wcześniejszą wiedzę na temat danych, aby zaproponować rozwiązania oparte na wynikach ich obserwacji.
-
Wykorzystanie danych strumieniowych w czasie rzeczywistym za pomocą Kylin
Wykorzystaj potężne funkcje Apache Kylin, bogaty interfejs SQL, kubowanie iskier i opóźnienie zapytań poniżej sekundy.
-
Używamy najnowszej wersji Kylin (w chwili pisania tego tekstu, Apache Kylin v2.0)
-
Inżynierowie Big Data
Big Data analitycy
-
Część wykładu, część dyskusji, ćwiczenia i ciężka praktyka praktyczna
-
Tworzenie, zarządzanie i interaktywna eksploracja korporacyjnego jeziora danych
[Hurtownie danych analityki biznesowej, transakcyjne bazy danych i inne magazyny analityczne.
Korzystanie z interfejsu użytkownika arkusza kalkulacyjnego do projektowania kompleksowych potoków przetwarzania danych
[Wstępnie wbudowane funkcje do eksploracji złożonych relacji danych
Korzystanie z kreatorów "przeciągnij i upuść" do wizualizacji danych i tworzenia pulpitów nawigacyjnych
korzystanie z tabel, wykresów, grafów i map do analizowania wyników zapytań
-
Analitycy danych
-
Część wykładu, część dyskusji, ćwiczenia i ciężka praktyka praktyczna
-
Eksplorowanie danych za pomocą programu Excel w celu eksploracji i analizy danych.
Używanie algorytmów Microsoft do eksploracji danych.
Zrozumienie koncepcji eksploracji danych w programie Excel.
-
Interaktywny wykład i dyskusja.
Dużo ćwiczeń i praktyki.
Praktyczne wdrożenie w środowisku live-lab.
-
Aby zamówić niestandardowe szkolenie dla tego kursu, skontaktuj się z nami.
-
Instalacja i konfiguracja Dremio
Wykonywanie zapytań do wielu źródeł danych, niezależnie od lokalizacji, rozmiaru lub struktury
Integracja Dremio z BI i źródłami danych, takimi jak Tableau i Elasticsearch
-
Naukowcy zajmujący się danymi
Analitycy Business
Inżynierowie danych
-
Część wykładu, część dyskusji, ćwiczenia i ciężka praktyka praktyczna
-
Aby zamówić niestandardowe szkolenie dla tego kursu, skontaktuj się z nami.
-
Wykonywanie "samoobsługowej" eksploracji ustrukturyzowanych i częściowo ustrukturyzowanych danych w Hadoop
Zapytania o znane i nieznane dane przy użyciu zapytań SQL
Zrozumienie, w jaki sposób Apache Drills odbiera i wykonuje zapytania
Pisanie zapytań SQL w celu analizowania różnych typów danych, w tym danych ustrukturyzowanych w Hive, danych częściowo ustrukturyzowanych w tabelach HBase lub MapR-DB oraz danych zapisanych w plikach takich jak Parquet i JSON.
Wykorzystanie Apache Drill do wykrywania schematów w locie, z pominięciem złożonych operacji ETL i schematów.
Integracja Apache Drill z narzędziami BI (Business Intelligence), takimi jak Tableau, Qlikview, MicroStrategy i Excel.
-
Analitycy danych
Naukowcy zajmujący się danymi
SQL Programiści
-
Część wykładu, część dyskusji, ćwiczenia i ciężka praktyka praktyczna
-
Instalowanie i konfigurowanie Apache Arrow w rozproszonym środowisku klastrowym
Używanie Apache Arrow do uzyskiwania dostępu do danych z różnych źródeł danych
Wykorzystanie Apache Arrow do pominięcia potrzeby tworzenia i utrzymywania złożonych potoków ETL
Analizuj dane z różnych źródeł danych bez konieczności konsolidowania ich w scentralizowanym repozytorium
-
Naukowcy zajmujący się danymi
Inżynierowie danych
-
Część wykładu, część dyskusji, ćwiczenia i ciężka praktyka praktyczna
-
Aby zamówić niestandardowe szkolenie dla tego kursu, skontaktuj się z nami.
-
Urządzenia i aplikacje mobilne
Usługi w chmurze
Społecznościowe technologie biznesowe i sieci
Big Data i analityka
-
Łączenie technologii Big Data z tradycyjnymi procesami gromadzenia danych w celu złożenia historii podczas dochodzenia
Wdrożenie przemysłowych rozwiązań w zakresie przechowywania i przetwarzania dużych zbiorów danych do analizy danych
Przygotowanie propozycji przyjęcia najbardziej adekwatnych narzędzi i procesów w celu umożliwienia opartego na danych podejścia do dochodzenia w sprawach karnych.
-
Specjaliści ds. egzekwowania prawa z wykształceniem technicznym
-
Część wykładu, część dyskusji, ćwiczenia i ciężka praktyka praktyczna
-
Zrozumienie ewolucji i trendów w uczeniu maszynowym.
Dowiedz się, w jaki sposób uczenie maszynowe jest wykorzystywane w różnych branżach.
Zapoznanie się z narzędziami, umiejętnościami i usługami dostępnymi w celu wdrożenia uczenia maszynowego w organizacji.
Zrozumienie, w jaki sposób można wykorzystać uczenie maszynowe do usprawnienia eksploracji i analizy danych.
Dowiedz się, czym jest pośredni backend danych i w jaki sposób jest on wykorzystywany przez firmy.
Zrozumienie roli, jaką big data i inteligentne aplikacje odgrywają w różnych branżach.
-
Interaktywny wykład i dyskusja.
Dużo ćwiczeń i praktyki.
Praktyczne wdrożenie w środowisku live-lab.
-
Aby zamówić niestandardowe szkolenie dla tego kursu, skontaktuj się z nami.
-
Pozyskiwanie dużych zbiorów danych za pomocą Sqoop i Flume.
Pozyskiwanie danych z wielu źródeł danych.
Przenoszenie danych z relacyjnych baz danych do HDFS i Hive.
Eksportowanie danych z HDFS do relacyjnej bazy danych.
-
Interaktywny wykład i dyskusja.
Dużo ćwiczeń i praktyki.
Praktyczne wdrożenie w środowisku live-lab.
-
Aby zamówić niestandardowe szkolenie dla tego kursu, skontaktuj się z nami.
-
Instalacja i konfiguracja Talend Open Studio for Big Data.
Łączenie się z systemami Big Data, takimi jak Cloudera, HortonWorks, MapR, Amazon EMR i Apache.
Zrozumieć i skonfigurować komponenty i konektory Big Data w Open Studio.
Konfigurowanie parametrów do automatycznego generowania kodu MapReduce.
Korzystanie z interfejsu "przeciągnij i upuść" Open Studio do uruchamiania zadań Hadoop.
Prototypowanie potoków big data.
Automatyzacja projektów integracji dużych zbiorów danych.
-
Interaktywny wykład i dyskusja.
Dużo ćwiczeń i praktyki.
Praktyczne wdrożenie w środowisku live-lab.
-
Aby zamówić niestandardowe szkolenie dla tego kursu, skontaktuj się z nami.
-
Wykorzystanie Vespa do szybkiego obliczania danych (przechowywanie, wyszukiwanie, ranking, organizowanie) w czasie serwowania, gdy użytkownik czeka.
Wdrożenie Vespa w istniejących aplikacjach obejmujących wyszukiwanie funkcji, rekomendacje i personalizację.
Integracja i wdrożenie Vespa z istniejącymi systemami Big Data, takimi jak Hadoop i Storm.
-
Deweloperzy
-
Część wykładu, część dyskusji, ćwiczenia i ciężka praktyka praktyczna
-
Tworzenie aplikacji z Alluxio
Łączenie systemów i aplikacji Big Data przy zachowaniu jednej przestrzeni nazw
Skuteczne wydobywanie wartości z dużych zbiorów danych w dowolnym formacie pamięci masowej
Poprawa wydajności obciążeń
Wdrażanie i zarządzanie Alluxio w trybie autonomicznym lub klastrowym
-
Naukowiec ds. danych
Programista
Administrator systemu
-
Część wykładu, część dyskusji, ćwiczenia i ciężka praktyka praktyczna
Last Updated: