Pentaho Data Integration Fundamentals - Plan Szkolenia
Pentaho Data Integration jest narzędziem integracji danych typu open-source do definiowania zadań i transformacji danych.
W tym prowadzonym przez instruktora szkoleniu na żywo uczestnicy dowiedzą się, jak korzystać z potężnych możliwości ETL i bogatego graficznego interfejsu użytkownika, aby zarządzać całym cyklem życia dużych zbiorów danych i maksymalizować wartość danych w swojej organizacji.
Po zakończeniu tego szkolenia uczestnicy będą w stanie
- Tworzenie, wyświetlanie podglądu i uruchamianie podstawowych transformacji danych zawierających kroki i przeskoki
- Konfigurowanie i zabezpieczanie repozytorium Pentaho Enterprise Repository
- Wykorzystanie różnych źródeł danych i wygenerowanie pojedynczej, ujednoliconej wersji prawdy w formacie gotowym do analizy.
- Dostarczanie wyników do aplikacji trzecich w celu dalszego przetwarzania
Uczestnicy
- Analityk danych
- Programiści ETL
Format kursu
- Część wykładu, część dyskusji, ćwiczenia i ciężka praktyka praktyczna
Plan Szkolenia
Wstęp
Instalacja i konfiguracja Pentaho
Przegląd Pentaho funkcji i architektury
Zrozumienie buforowania w pamięci Pentaho.
Nawigacja w interfejsie użytkownika
Łączenie ze źródłem danych
Konfigurowanie Pentaho repozytorium korporacyjnego
Przekształcanie danych
Przeglądanie wyników transformacji
Rozwiązywanie błędów transformacji
Przetwarzanie strumienia danych
Ponowne wykorzystanie transformacji
Planowanie transformacji
Zabezpieczanie Pentaho
Integracja z aplikacjami innych firm (Hadoop, NoSQL itp.)
Analityka i raportowanie
Pentaho Wzorce projektowe i najlepsze praktyki
Rozwiązywanie problemów
Podsumowanie i wnioski
Wymagania
- Zrozumienie relacyjnych baz danych
- Zrozumienie hurtowni danych
- Zrozumienie koncepcji ETL (Extract, Transform, Load)
Szkolenia otwarte są realizowane w przypadku uzbierania się grupy szkoleniowej liczącej co najmniej 5 osób na dany termin.
Pentaho Data Integration Fundamentals - Plan Szkolenia - Booking
Pentaho Data Integration Fundamentals - Plan Szkolenia - Enquiry
Pentaho Data Integration Fundamentals - Zapytanie o Konsultacje
Zapytanie o Konsultacje
Opinie uczestników (5)
Zajęcia praktyczne, ćwiczenia, możliwość zastosowania omawianych rozwiązań w praktyce.
Agnieszka - Izba Administracji Skarbowej
Szkolenie - Platforma analityczna KNIME - szkolenie kompleksowe
wiedza, wzorcowe prowadzenie szkolenia
Krzysztof Kantorski - Santander
Przygotowany materiał. Pełen profesjonalizm. Bardzo dobry kontakt z trenerem. Pełne zaangażowanie i otwartość na zmianę zaplanowanej formuły szkolenia (bardzo cenne dyskusje na tematy otwarte, które przygotowaliśmy)
Kamil Trebacz - Bank Gospodarstwa Krajowego
Szkolenie - Pentaho Data Integration (PDI) - moduł do przetwarzania danych ETL (poziom zaawansowany)
Bardzo przydatne, ponieważ pomaga mi zrozumieć, co możemy zrobić z danymi w naszym kontekście. Będzie mi to również pomocne.
Nicolas NEMORIN - Adecco Groupe France
Szkolenie - KNIME Analytics Platform for BI
Przetłumaczone przez sztuczną inteligencję
To jest sesja praktyczna.
Vorraluck Sarechuer - Total Access Communication Public Company Limited (dtac)
Szkolenie - Talend Open Studio for ESB
Przetłumaczone przez sztuczną inteligencję
Propozycje terminów
Szkolenia Powiązane
KNIME Analytics Platform for BI
21 godzinKNIME Analytics Platform to wiodąca opcja open source dla innowacji opartych na danych, pomagająca odkryć potencjał ukryty w danych, wydobywać nowe spostrzeżenia lub przewidywać nowe przyszłości. Dzięki ponad 1000 modułom, setkom gotowych do uruchomienia przykładów, szerokiej gamie zintegrowanych narzędzi i najszerszemu dostępnemu wyborowi zaawansowanych algorytmów, KNIME Analytics Platform jest idealnym zestawem narzędzi dla każdego analityka danych i analityka biznesowego.
Ten kurs dla KNIME Analytics Platform to idealna okazja dla początkujących, zaawansowanych użytkowników i ekspertów KNIME, aby zapoznać się z KNIME, dowiedzieć się, jak korzystać z niego bardziej efektywnie i jak tworzyć przejrzyste, kompleksowe raporty oparte na przepływach pracy KNIME
Platforma analityczna KNIME - szkolenie kompleksowe
35 godzinSzkolenie "Platforma analityczna KNIME" oferuje kompleksowy przegląd tej bezpłatnej platformy analizy danych. Program obejmuje wprowadzenie do przetwarzania i analizy danych, instalację i konfigurację KNIME, budowanie workflow, metodologię tworzenia modeli biznesowych i modelowania danych. Kurs również omawia narzędzia zaawansowanej analizy danych, import i eksport workflow, integrację narzędzi, procesy ETL, eksplorację danych, wizualizację, rozszerzenia i integracje z narzędziami takimi jak R, Java, Python, Gephi, Neo4j. Zakończenie obejmuje omówienie raportowania, integracji z BIRT i KNIME WebPortal.
Oracle GoldenGate
14 godzinSzkolenie na żywo prowadzone przez instruktora (na miejscu lub zdalnie) jest przeznaczone dla administratorów systemów i programistów, którzy chcą skonfigurować, wdrożyć i zarządzać Oracle GoldenGate w celu transformacji danych.
Po zakończeniu tego szkolenia uczestnicy będą w stanie
- Instalacja i konfiguracja Oracle GoldenGate.
- Zrozumienie replikacji baz danych Oracle przy użyciu narzędzia Oracle GoldenGate.
- Zrozumienie architektury Oracle GoldenGate.
- Konfigurowanie i wykonywanie replikacji i migracji bazy danych.
- Optymalizacja wydajności Oracle GoldenGate i rozwiązywanie problemów.
Pentaho Business Intelligence (PBI) - moduły raportowe
28 godzinSzkolenie "Pentaho Business Intelligence (PBI) - moduły raportowe" umożliwia zdobycie wiedzy z zakresu Business Intelligence, koncentrując się na modułach raportowych platformy Pentaho. Uczestnicy nauczą się korzystać z Report Designer, tworząc raporty od poziomu podstawowego do zaawansowanego, obejmującego zaawansowane formatowanie danych, używanie parametrów, transformacji PDI i zapytań JavaScript. Dodatkowo, szkolenie obejmuje obsługę Business Intelligence Server, harmonogramowanie, udostępnianie raportów oraz podstawy tworzenia transformacji w Pentaho Data Integration.
Pentaho Data Integration (PDI) - moduł do przetwarzania danych ETL (poziom zaawansowany)
21 godzinSzkolenie "Pentaho Data Integration (PDI) - moduł do przetwarzania danych ETL" oferuje zaawansowaną wiedzę na temat platformy Pentaho, obejmującej obszar Business Intelligence, raportowania, analiz danych i integracji danych. Skierowane jest do programistów, architektów i administratorów aplikacji, umożliwiając naukę projektowania, implementacji, monitorowania i optymalizacji procesów ETL za pomocą Pentaho Data Integration (PDI). Uczestnicy zdobędą umiejętności pracy z różnymi typami danych, filtrowania, grupowania i łączenia danych, a także harmonogramowania zadań, uruchamiania transformacji i tworzenia klastrów. Szkolenie obejmuje także tematy zaawansowane, takie jak wersjonowanie danych, transakcyjność bazodanowa, wykorzystanie JavaScript, transformacje mapujące, konwersja typów danych oraz uruchamianie zdalne.
Pentaho Open Source BI Suite Community Edition (CE)
28 godzinPentaho Open Source BI Suite Community Edition (CE) to pakiet do analityki biznesowej, który zapewnia integrację danych, raportowanie, pulpity nawigacyjne i możliwości ładowania.
W tym prowadzonym przez instruktora szkoleniu na żywo uczestnicy dowiedzą się, jak zmaksymalizować funkcje Pentaho Open Source BI Suite Community Edition (CE).
Po zakończeniu tego szkolenia uczestnicy będą w stanie
- Instalacja i konfiguracja Pentaho Open Source BI Suite Community Edition (CE)
- Zrozumienie podstaw narzędzi Pentaho CE i ich funkcji
- Tworzenie raportów przy użyciu Pentaho CE
- Integracja danych stron trzecich z Pentaho CE
- Praca z dużymi zbiorami danych i analityka w Pentaho CE
Uczestnicy
- Programiści
- Programiści BI
Format kursu
- Część wykładu, część dyskusji, ćwiczenia i ciężka praktyka praktyczna
Uwaga
- Aby zamówić niestandardowe szkolenie dla tego kursu, skontaktuj się z nami.
Sensor Fusion Algorithms
14 godzinFuzja czujników to połączenie i integracja danych z wielu czujników w celu zapewnienia dokładniejszego, bardziej wiarygodnego i kontekstowego obrazu danych.
[Wdrożenia wymagają algorytmów do filtrowania i integrowania różnych źródeł danych;
Uczestnicy
Ten kurs jest skierowany do inżynierów, programistów i architektów, którzy zajmują się implementacjami wielu czujników.
Talend Administration Center (TAC)
14 godzinSzkolenie na żywo prowadzone przez instruktora (na miejscu lub zdalnie) jest przeznaczone dla administratorów systemów, analityków danych i analityków biznesowych, którzy chcą skonfigurować Talend Administration Center do wdrażania i zarządzania rolami i zadaniami organizacji.
Po zakończeniu tego szkolenia uczestnicy będą w stanie
- Instalacja i konfiguracja Talend Centrum administracyjnego.
- Zrozumienie i wdrożenie podstaw zarządzania Talend.
- Budowanie, wdrażanie i uruchamianie projektów biznesowych lub zadań w Talend.
- Monitorowanie bezpieczeństwa zbiorów danych i opracowywanie procedur biznesowych opartych na strukturze TAC.
- Uzyskanie szerszego zrozumienia aplikacji big data.
Talend Big Data Integration
28 godzinSzkolenie na żywo prowadzone przez instruktora (na miejscu lub zdalnie) jest przeznaczone dla osób technicznych, które chcą wdrożyć Talend Open Studio for Big Data w celu uproszczenia procesu odczytu i analizy Big Data.
Po zakończeniu tego szkolenia uczestnicy będą w stanie
- Instalacja i konfiguracja Talend Open Studio for Big Data.
- Połącz się z systemami Big Data, takimi jak Cloudera, HortonWorks, MapR, Amazon EMR i Apache.
- Zrozumienie i skonfigurowanie komponentów i konektorów Big Data w Open Studio.
- Konfiguracja parametrów do automatycznego generowania kodu MapReduce.
- Używanie interfejsu "przeciągnij i upuść" Open Studio do uruchamiania zadań Hadoop.
- Tworzenie prototypów potoków dużych zbiorów danych.
- Automatyzuj projekty integracji dużych zbiorów danych.
Talend Cloud
7 godzinSzkolenie na żywo prowadzone przez instruktora (na miejscu lub zdalnie) jest przeznaczone dla administratorów danych i programistów, którzy chcą zarządzać, monitorować i obsługiwać procesy integracji danych przy użyciu usług Talend Cloud.
Po zakończeniu tego szkolenia uczestnicy będą w stanie
- Przejście do konsoli zarządzania Talend w celu zarządzania użytkownikami i rolami na platformie.
- Ewaluacja danych w celu znalezienia i zrozumienia odpowiednich zestawów danych.
- Utwórz potok do przetwarzania i monitorowania danych w spoczynku lub w działaniu.
- Przygotowanie danych do analizy w celu wygenerowania spostrzeżeń istotnych dla firmy.
Talend Data Stewardship
14 godzinSzkolenie na żywo prowadzone przez instruktora (na miejscu lub zdalnie) jest przeznaczone dla początkujących i średnio zaawansowanych analityków danych, którzy chcą pogłębić swoją wiedzę i umiejętności w zakresie zarządzania i poprawy jakości danych przy użyciu Talend Data Stewardship.
Po zakończeniu tego szkolenia uczestnicy będą w stanie
-
Uzyskanie kompleksowego zrozumienia roli zarządzania danymi w utrzymaniu jakości danych.
Używanie Talend Data Stewardship do zarządzania zadaniami związanymi z jakością danych.
Tworzenie, przypisywanie i zarządzanie zadaniami w Talend Data Stewardship, w tym dostosowywanie przepływu pracy.
Korzystanie z funkcji raportowania i monitorowania narzędzia w celu śledzenia jakości danych i wysiłków związanych z zarządzaniem danymi.
Talend Open Studio for ESB
21 godzinW tym instruktażowym szkoleniu na żywo w Polsce uczestnicy dowiedzą się, jak używać Talend Open Studio for ESB do tworzenia, łączenia, pośredniczenia i zarządzania usługami i ich interakcjami.
Po zakończeniu tego szkolenia uczestnicy będą w stanie
- Integracja, ulepszanie i dostarczanie technologii ESB jako pojedynczych pakietów w różnych środowiskach wdrożeniowych.
- Zrozumienie i wykorzystanie Talend najczęściej używanych komponentów Open Studio.
- Integracja dowolnej aplikacji, bazy danych, API lub usług sieciowych.
- Bezproblemowa integracja heterogenicznych systemów i aplikacji.
- Wbudowanie istniejących bibliotek kodu Java w celu rozszerzenia projektów.
- Korzystanie z komponentów i kodu społeczności w celu rozszerzenia projektów.
- Szybka integracja systemów, aplikacji i źródeł danych w środowisku Eclipse metodą "przeciągnij i upuść".
- Skrócenie czasu rozwoju i kosztów utrzymania poprzez generowanie zoptymalizowanego kodu wielokrotnego użytku.