Szkolenia Business Intelligence w Szczecin

Business Intelligence Training in Szczecin

Business Intelligence (BI) training

Szczecin, ul. Sienna 9

NobleProg, Wirtualne Biuro Sienna 9
ul. Sienna 9
70-542 Szczecin
Zachodniopomorskie PL
Szczecin, ul. Sienna 9
Lokalizacja NobleProg w Szczecinie Nasze szkolenia odbywają się w kamienicy przy ulicy Siennej, w prestiżowej dzielnicy Szczecina – Podzamcze. Sienna to jedna...Read more

Opinie uczestników

Power BI

Fakt, że dostaliśmy gotowe rozwiązania na zadane problemy + pokazanie szerokiego spektrum zastosowań + przekazane kompendium wiedzy.

Wojciech Michalak - UNILEVER POLAND SERVICES SP. Z O.O.

Power BI

Dobrze przygotowane, przemyslane cwiczenia oraz wiedza prowadzacego

Sandra Przewdzing - Unilever Poland Services sp. z o.o.

Power BI

Exercises, additional tips from the trainer, flexibility to add more insights when requested

Anna Alechno - British American Shared Services Europe BAT GBS Finance, WER/Centre/EEMEA

Power BI

Trener był w stałym kontakcie z odbiorcami szkolenia, dostosowywał tempo do naszych potrzeb i na bieżąco rozwiązywał nasze problemy i odpowiadał na nasze pytania

Dominika Jaworska - UNILEVER POLAND SERVICES SP. Z O.O.

Power BI

power bi web- Q&A

Cristina Palii - British American Shared Services Europe

Pentaho Business Intelligence (PBI) - moduły raportowe

Przykłady wzbogacane danymi rzeczywistymi i scenariuszami przydatnymi w codziennej praktyce

Krzysztof Świątczak - Orange Szkolenia sp. z o.o.

Power BI

Szkolenie było bardzo spójne, dowiedziałam się o wielu ciekawych funkcjonalnościach programu.

Anna Klimczak - Unilever Poland Services sp. z o.o.

Power BI

Power BI possibility

British American Shared Services Europe

Pentaho Business Intelligence (PBI) - moduły raportowe

Wykorzystanie data-integration

Waldemar Wisniewski - Orange Szkolenia sp. z o.o.

Power BI

Offering a more in-depth scope about Power BI more than any training institute that i came across to.

Mohammed Al Ameer - BMMI

Power BI

Trener posiada bardzo szeroką wiedzę, potrafi ją przekazać. Angażuje uczestników do interakcji i wspólnego rozwiązywania napotkanych problemów.

Nina Rokita - UNILEVER POLAND SERVICES SP. Z O.O.

Pentaho Business Intelligence (PBI) - moduły raportowe

wiedza trenera, dostępny sprzęt

Mariusz Moskal - Orange Szkolenia sp. z o.o.

Business Intelligence Course Events - Szczecin

Kod Nazwa Miejscowość Czas trwania Data Kursu PHP Cena szkolenia [Zdalne / Stacjonarne]
pbi4 Pentaho Business Intelligence (PBI) - moduły raportowe Szczecin, ul. Sienna 9 28 hours wt., 2018-02-06 09:00 18000PLN / 7000PLN
68780 Apache Spark Szczecin, ul. Sienna 9 14 hours śr., 2018-02-07 09:00 18260PLN / 6033PLN
kibana Kibana: Essentials Szczecin, ul. Sienna 9 14 hours pon., 2018-02-12 09:00 11650PLN / 4030PLN
3119 Business Intelligence w MS SQL Server 2008 Szczecin, ul. Sienna 9 14 hours czw., 2018-02-15 09:00 8570PLN / 3097PLN
pdi2 Pentaho Data Integration (PDI) - moduł do przetwarzania danych ETL (poziom średniozaawansowany) Szczecin, ul. Sienna 9 14 hours czw., 2018-02-15 09:00 9000PLN / 3500PLN
TalendDI Talend Open Studio for Data Integration Szczecin, ul. Sienna 9 28 hours pon., 2018-02-19 09:00 17900PLN / 5475PLN
mdlmrah Model MapReduce w implementacji oprogramowania Apache Hadoop Szczecin, ul. Sienna 9 14 hours śr., 2018-02-21 09:00 5000PLN / 3000PLN
pdi3 Pentaho Data Integration (PDI) - moduł do przetwarzania danych ETL (poziom zaawansowany) Szczecin, ul. Sienna 9 21 hours śr., 2018-02-21 09:00 12000PLN / 4750PLN
6550 Business Intelligence w MS SQL Server 2012 Szczecin, ul. Sienna 9 14 hours czw., 2018-02-22 09:00 8570PLN / 3097PLN
powerbi Power BI Szczecin, ul. Sienna 9 14 hours pon., 2018-03-05 09:00 6000PLN / 2318PLN
pbi4 Pentaho Business Intelligence (PBI) - moduły raportowe Szczecin, ul. Sienna 9 28 hours wt., 2018-04-03 09:00 18000PLN / 7000PLN
kibana Kibana: Essentials Szczecin, ul. Sienna 9 14 hours wt., 2018-04-03 09:00 11650PLN / 4030PLN
pdi2 Pentaho Data Integration (PDI) - moduł do przetwarzania danych ETL (poziom średniozaawansowany) Szczecin, ul. Sienna 9 14 hours wt., 2018-04-10 09:00 9000PLN / 3500PLN
TalendDI Talend Open Studio for Data Integration Szczecin, ul. Sienna 9 28 hours pon., 2018-04-16 09:00 17900PLN / 5475PLN
6550 Business Intelligence w MS SQL Server 2012 Szczecin, ul. Sienna 9 14 hours pon., 2018-04-16 09:00 8570PLN / 3097PLN
pdi3 Pentaho Data Integration (PDI) - moduł do przetwarzania danych ETL (poziom zaawansowany) Szczecin, ul. Sienna 9 21 hours pon., 2018-04-16 09:00 12000PLN / 4750PLN
68780 Apache Spark Szczecin, ul. Sienna 9 14 hours pon., 2018-04-16 09:00 18260PLN / 6033PLN
mdlmrah Model MapReduce w implementacji oprogramowania Apache Hadoop Szczecin, ul. Sienna 9 14 hours wt., 2018-04-24 09:00 5000PLN / 3000PLN
powerbi Power BI Szczecin, ul. Sienna 9 14 hours pon., 2018-04-30 09:00 6000PLN / 2318PLN
3119 Business Intelligence w MS SQL Server 2008 Szczecin, ul. Sienna 9 14 hours pon., 2018-04-30 09:00 8570PLN / 3097PLN
kibana Kibana: Essentials Szczecin, ul. Sienna 9 14 hours śr., 2018-05-23 09:00 11650PLN / 4030PLN
pbi4 Pentaho Business Intelligence (PBI) - moduły raportowe Szczecin, ul. Sienna 9 28 hours wt., 2018-05-29 09:00 18000PLN / 7000PLN
pdi2 Pentaho Data Integration (PDI) - moduł do przetwarzania danych ETL (poziom średniozaawansowany) Szczecin, ul. Sienna 9 14 hours czw., 2018-05-31 09:00 9000PLN / 3500PLN
6550 Business Intelligence w MS SQL Server 2012 Szczecin, ul. Sienna 9 14 hours wt., 2018-06-05 09:00 8570PLN / 3097PLN
68780 Apache Spark Szczecin, ul. Sienna 9 14 hours pon., 2018-06-11 09:00 18260PLN / 6033PLN
pdi3 Pentaho Data Integration (PDI) - moduł do przetwarzania danych ETL (poziom zaawansowany) Szczecin, ul. Sienna 9 21 hours pon., 2018-06-11 09:00 12000PLN / 4750PLN
TalendDI Talend Open Studio for Data Integration Szczecin, ul. Sienna 9 28 hours wt., 2018-06-12 09:00 17900PLN / 5475PLN
mdlmrah Model MapReduce w implementacji oprogramowania Apache Hadoop Szczecin, ul. Sienna 9 14 hours czw., 2018-06-14 09:00 5000PLN / 3000PLN
powerbi Power BI Szczecin, ul. Sienna 9 14 hours wt., 2018-06-19 09:00 6000PLN / 2318PLN
3119 Business Intelligence w MS SQL Server 2008 Szczecin, ul. Sienna 9 14 hours śr., 2018-06-20 09:00 8570PLN / 3097PLN
kibana Kibana: Essentials Szczecin, ul. Sienna 9 14 hours czw., 2018-07-12 09:00 11650PLN / 4030PLN
pbi4 Pentaho Business Intelligence (PBI) - moduły raportowe Szczecin, ul. Sienna 9 28 hours pon., 2018-07-23 09:00 18000PLN / 7000PLN
pdi2 Pentaho Data Integration (PDI) - moduł do przetwarzania danych ETL (poziom średniozaawansowany) Szczecin, ul. Sienna 9 14 hours czw., 2018-07-26 09:00 9000PLN / 3500PLN
6550 Business Intelligence w MS SQL Server 2012 Szczecin, ul. Sienna 9 14 hours czw., 2018-07-26 09:00 8570PLN / 3097PLN
68780 Apache Spark Szczecin, ul. Sienna 9 14 hours czw., 2018-08-02 09:00 18260PLN / 6033PLN
TalendDI Talend Open Studio for Data Integration Szczecin, ul. Sienna 9 28 hours pon., 2018-08-06 09:00 17900PLN / 5475PLN
pdi3 Pentaho Data Integration (PDI) - moduł do przetwarzania danych ETL (poziom zaawansowany) Szczecin, ul. Sienna 9 21 hours śr., 2018-08-08 09:00 12000PLN / 4750PLN
powerbi Power BI Szczecin, ul. Sienna 9 14 hours czw., 2018-08-09 09:00 6000PLN / 2318PLN
mdlmrah Model MapReduce w implementacji oprogramowania Apache Hadoop Szczecin, ul. Sienna 9 14 hours czw., 2018-08-16 09:00 5000PLN / 3000PLN
3119 Business Intelligence w MS SQL Server 2008 Szczecin, ul. Sienna 9 14 hours czw., 2018-08-16 09:00 8570PLN / 3097PLN

Plany Kursów

Kod Nazwa Czas trwania Spis treści
dashbuilder Dashbuilder for business users 14 hours

Dashbuilder is an open-source web application for visually creating business dashboards and reports.

In this instructor-led, live training, participants will learn how to create business dashboards and reports using Dashbuilder.

By the end of this training, participants will be able to:

  • Visual configure and personalize dashboards using drag-and-drop
  • Create different types of visualizations using charting libraries
  • Define interactive report tables
  • Create and edit inline KPIs (Key Performance Indicators)
  • Customize the look and feel of metric displayers

Audience

  • Managers
  • Analysts

Format of the course

  • Part lecture, part discussion, exercises and heavy hands-on practice

To request a customized course outline for this training, please contact us.

 

dashbuilderforengineers Dashbuilder for engineers 7 hours

Dashbuilder is an open-source web application for visually creating business dashboards and reports.

In this instructor-led, live training, participants will learn set up, configure, integrate and deploy Dashbuilder.

By the end of this training, participants will be able to:

  • Extract data from heterogeneous sources such as JDBC databases and text files
  • Use connectors to connect to third-party systems and platforms such as jBPM    
  • Configure roles, permissions and access controls for users
  • Deploy Dashbuilder to a live production environment

Audience

  • Developers
  • IT and system architects

Format of the course

  • Part lecture, part discussion, exercises and heavy hands-on practice

To request a customized course outline for this training, please contact us.

 

magellan Magellan: Geospatial Analytics with on Spark 14 hours

Magellan is an open-source distributed execution engine for geospatial analytics on big data. Implemented on top of Apache Spark, it extends Spark SQL and provides a relational abstraction for geospatial analytics.

This instructor-led, live training introduces the concepts and approaches for implementing geospacial analytics and walks participants through the creation of a predictive analysis application using Magellan on Spark.

By the end of this training, participants will be able to:

  • Efficiently query, parse and join geospatial datasets at scale
  • Implement geospatial data in business intelligence and predictive analytics applications
  • Use spatial context to extend the capabilities of mobile devices, sensors, logs, and wearables

Audience

  • Application developers

Format of the course

  • Part lecture, part discussion, exercises and heavy hands-on practice

To request a customized course outline for this training, please contact us.

 

mdlmrah Model MapReduce w implementacji oprogramowania Apache Hadoop 14 hours

Szkolenie skierowane jest do organizacji chcących wdrożyć rozwiązania pozwalające na przetwarzanie dużych zbiorów danych za pomocą klastrów.

Data Mining i Bussiness Intelligence

  • Wprowadzenie

  • Obszary zastosowań

  • Możliwości

  • Podstawy eksploracji danych i odkrywania wiedzy

Big data

  • Co rozumiemy pod pojęciem Big data?

  • Big data a Data mining

MapReduce

  • Opis modelu

  • Przykładowe zastosowanie

  • Statystyki

  • Model klastra

Hadoop

  • Czym jest Hadoop

  • Instalacja

  • Podstawowa konfiguracja

  • Ustawienia klastra

  • Architektura i konfiguracja Hadoop Distributed File System

  • Komendy i obsługa z konsoli

  • Narzędzie DistCp

  • MapReduce i Hadoop

  • Streaming

  • Administracja i konfiguracja Hadoop On Demand

  • Alternatywne rozwiązania

zeppelin Zeppelin for interactive data analytics 14 hours

Apache Zeppelin is a web-based notebook for capturing, exploring, visualizing and sharing Hadoop and Spark based data.

This instructor-led, live training introduces the concepts behind interactive data analytics and walks participants through the deployment and usage of Zeppelin in a single-user or multi-user environment.

By the end of this training, participants will be able to:

  • Install and configure Zeppelin
  • Develop, organize, execute and share data in a browser-based interface
  • Visualize results without referring to the command line or cluster details
  • Execute and collaborate on long workflows
  • Work with any of a number of plug-in language/data-processing-backends, such as Scala ( with Apache Spark ), Python ( with Apache Spark ), Spark SQL, JDBC, Markdown and Shell.
  • Integrate Zeppelin with Spark, Flink and Map Reduce
  • Secure multi-user instances of Zeppelin with Apache Shiro

Audience

  • Data engineers
  • Data analysts
  • Data scientists
  • Software developers

Format of the course

  • Part lecture, part discussion, exercises and heavy hands-on practice

To request a customized course outline for this training, please contact us.

 

3119 Business Intelligence w MS SQL Server 2008 14 hours

Szkolenie poświęcone jest podstawom tworzenia hurtowni danych bazujących na środowisku MS SQL Server 2008.

Uczestnik zdobędzie podstawy dotyczące projektowania i budowy hurtowni danych pracującej pod MS SQL Server 2008.

Zdobędzie wiedzę jak zbudować prosty proces ETL w oparciu o SSIS a następnie zaprojektować i zaimplementować kostkę danych za pomocą SSAS.

Uczestnik będzie potrafił zarządzać bazami OLAP: tworzenie i usuwanie baz OLAP, procesowanie partycji, modyfikacje on-line.

Uczestnik nabędzie wiedzę o skryptach XML/A i języku MDX.

  • podstawy, cele i zastosowania hurtowni danych, typy serwerów hurtowni danych,
  • podstawy budowania procesów ETL w SSIS,
  • podstawowy projekt kostki danych w Analysis Services: grupy miar, miary, wymiary, hierarchie, atrybuty,
  • rozwijanie projektu kostki danych: miary kalkulowane, partycje, perspektywy, translacje, akcje, KPI,
  • budowanie i deployowanie kostki, procesowanie partycji,
  • podstawy XML/A: tworzenie partycji, procesowanie całościowe i inkrementacyjne, usuwanie partycji, procesowanie agregacji,
  • podstawy języka MDX.
datameer Datameer for Data Analysts 14 hours

Datameer is a business intelligence and analytics platform built on Hadoop. It allows end-users to access, explore and correlate large-scale, structured, semi-structured and unstructured data in an easy-to-use fashion.

In this instructor-led, live training, participants will learn how to use Datameer to overcome Hadoop's steep learning curve as they step through the setup and analysis of a series of big data sources.

By the end of this training, participants will be able to:

  • Create, curate, and interactively explore an enterprise data lake
  • Access business intelligence data warehouses, transactional databases and other analytic stores
  • Use a spreadsheet user-interface to design end-to-end data processing pipelines
  • Access pre-built functions to explore complex data relationships
  • Use drag-and-drop wizards to visualize data and create dashboards
  • Use tables, charts, graphs, and maps to analyze query results

Audience

  • Data analysts

Format of the course

  • Part lecture, part discussion, exercises and heavy hands-on practice

To request a customized course outline for this training, please contact us.

6550 Business Intelligence w MS SQL Server 2012 14 hours

Szkolenie poświęcone jest podstawom tworzenia hurtowni danych bazujących na środowisku MS SQL Server 2012.

Uczestnik zdobędzie podstawy dotyczące projektowania i budowy hurtowni danych pracującej pod MS SQL Server 2012.

Zdobędzie wiedzę jak zbudować prosty proces ETL w oparciu o SSIS a następnie zaprojektować i zaimplementować kostkę danych za pomocą SSAS.

Uczestnik będzie potrafił zarządzać bazami OLAP: tworzenie i usuwanie baz OLAP, procesowanie partycji, modyfikacje on-line.

Uczestnik nabędzie wiedzę o skryptach XML/A i języku MDX.

  • podstawy, cele i zastosowania hurtowni danych, typy serwerów hurtowni danych,
  • podstawy budowania procesów ETL w SSIS,
  • podstawowy projekt kostki danych w Analysis Services: grupy miar, miary, wymiary, hierarchie, atrybuty,
  • rozwijanie projektu kostki danych: miary kalkulowane, partycje, perspektywy, translacje, akcje, KPI,
  • budowanie i deployowanie kostki, procesowanie partycji,
  • podstawy XML/A: tworzenie partycji, procesowanie całościowe i inkrementacyjne, usuwanie partycji, procesowanie agregacji,
  • podstawy języka MDX.
deckgl deck.gl: Visualizing Large-scale Geospatial Data 14 hours

deck.gl is an open-source, WebGL-powered library for exploring and visualizing data assets at scale. Created by Uber, it is especially useful for gaining insights from geospatial data sources, such as data on maps.

This instructor-led, live training introduces the concepts and functionality behind deck.gl and walks participants through the set up of a demonstration project.

By the end of this training, participants will be able to:

  • Take data from very large collections and turn it into compelling visual representations
  • Visualize data collected from transportation and journey-related use cases, such as pick-up and drop-off experiences, network traffic, etc.
  • Apply layering techniques to geospatial data to depict changes in data over time
  • Integrate deck.gl with React (for Reactive programming) and Mapbox GL (for visualizations on Mapbox based maps).
  • Understand and explore other use cases for deck.gl, including visualizing points collected from a 3D indoor scan, visualizing machine learning models in order to optimize their algorithms, etc.

Audience

  • Developers
  • Data scientists

Format of the course

  • Part lecture, part discussion, exercises and heavy hands-on practice

To request a customized course outline for this training, please contact us.

68780 Apache Spark 14 hours

Why Spark?

  • Problems with Traditional Large-Scale Systems
  • Introducing Spark

Spark Basics

  • What is Apache Spark?
  • Using the Spark Shell
  • Resilient Distributed Datasets (RDDs)
  • Functional Programming with Spark

Working with RDDs

  • RDD Operations
  • Key-Value Pair RDDs
  • MapReduce and Pair RDD Operations

The Hadoop Distributed File System

  • Why HDFS?
  • HDFS Architecture
  • Using HDFS

Running Spark on a Cluster

  • Overview
  • A Spark Standalone Cluster
  • The Spark Standalone Web UI

Parallel Programming with Spark

  • RDD Partitions and HDFS Data Locality
  • Working With Partitions
  • Executing Parallel Operations

Caching and Persistence

  • RDD Lineage
  • Caching Overview
  • Distributed Persistence

Writing Spark Applications

  • Spark Applications vs. Spark Shell
  • Creating the SparkContext
  • Configuring Spark Properties
  • Building and Running a Spark Application
  • Logging

Spark, Hadoop, and the Enterprise Data Center

  • Overview
  • Spark and the Hadoop Ecosystem
  • Spark and MapReduce

Spark Streaming

  • Spark Streaming Overview
  • Example: Streaming Word Count
  • Other Streaming Operations
  • Sliding Window Operations
  • Developing Spark Streaming Applications

Common Spark Algorithms

  • Iterative Algorithms
  • Graph Analysis
  • Machine Learning

Improving Spark Performance

  • Shared Variables: Broadcast Variables
  • Shared Variables: Accumulators
  • Common Performance Issues
fsharpfordatascience F# for Data Science 21 hours

Data science is the application of statistical analysis, machine learning, data visualization and programming for the purpose of understanding and interpreting real-world data. F# is a well suited programming language for data science as it combines efficient execution, REPL-scripting, powerful libraries and scalable data integration.

In this instructor-led, live training, participants will learn how to use F# to solve a series of real-world data science problems.

By the end of this training, participants will be able to:

  • Use F#'s integrated data science packages
  • Use F# to interoperate with other languages and platforms, including Excel, R, Matlab, and Python
  • Use the Deedle package to solve time series problems
  • Carry out advanced analysis with minimal lines of production-quality code
  • Understand how functional programming is a natural fit for scientific and big data computations
  • Access and visualize data with F#
  • Apply F# for machine learning

Explore solutions for problems in domains such as business intelligence and social gaming

Audience

  • Developers
  • Data scientists

Format of the course

  • Part lecture, part discussion, exercises and heavy hands-on practice

To request a customized course outline for this training, please contact us.

wdneo4j Wprowadzenie do Neo4j - grafowej bazy danych 7 hours

Wprowadzenie do Neo4j

  • Instalacja i konfiguracja
  • Struktura aplikacji Neo4j
  • Relacyjne i grafowe sposoby reprezentacji danych

Model grafowy danych

  • Czy zagadnienie można i powinno reprezentować się jako graf?
  • Wybrane przypadki użycia i modelowanie wybranego zagadnienia
  • Najważniejsze pojęcia modelu grafowego Neo4j:
    • Węzeł
    • Relacja
    • Właściwość
    • Etykieta

Język zapytań Cypher i operacje na grafach

  • Tworzenie i zarządzanie schematem za pomocą języka Cypher
  • Operacje CRUD na danych
  • Zapytania Cypher oraz ich odpowiedniki w SQL
  • Algorytmy grafowe wykorzystywane w Neo4j
  • Interfejs REST

Podstawowe zagadnienia administracyjne

  • Tworzenie i odtwarzanie kopii zapasowych
  • Zarządzanie bazą z poziomu przeglądarki
  • Import i eksport danych w uniwersalnych formatach
powerbiforbiandanalytics Power BI for Business Analysts 21 hours

Microsoft Power BI is a free Software as a Service (SaaS) suite for analyzing data and sharing insights. Power BI dashboards provide a 360-degree view of the most important metrics in one place, updated in real time, and available on all of their devices.

In this instructor-led, live training, participants will learn how to use Microsoft Power Bi to analyze and visualize data using a series of sample data sets.

By the end of this training, participants will be able to:

  • Create visually compelling dashboards that provide valuable insights into data
  • Obtain and integrate data from multiple data sources
  • Build and share visualizations with team members
  • Adjust data with Power BI Desktop

Audience

  • Business managers
  • Business analystss
  • Data analysts
  • Business Intelligence (BI) and Data Warehouse (DW) teams
  • Report developers

Format of the course

  • Part lecture, part discussion, exercises and heavy hands-on practice

 

Introduction

Data Visualization

  • Authoring in Power BI Desktop
  • Creating reports
  • Interacting with reports
  • Uploading reports it to the Power BI Service
  • Revising report layouts
  • Publishing to PowerBI.com
  • Sharing and collaborating with team members

Data Modeling

  • Aquiring data
  • Modeling data
  • Security
  • Working with DAX
  • Refreshing the source data
  • Securing data

Advanced querying and data modeling

  • Data modeling principals
  • Complex DAX patterns
  • Power BI tips and tricks

Closing remarks

powerbi Power BI 14 hours

Power BI is a business analytics service created by Microsoft.

Architektura Power BI

Źródła danych

  • Źródła danych on-premises i online
  • Transformacje danych + język M
  • Bezpośrednie połączenia do wybranych źródeł (SQL Server, OLAP)

Modelowanie

Związki między tabelami (jedno- i wielokierunkowe filtrowania danych)

  • DAX - szablony i najlepsze praktyki
  • Wprowadzenie do DAX
    - najczęściej stosowane funkcje i kontekst obliczeń
    - Praca z wymiarem czasu (m.in. okresy fiskalne, porównywanie okresów, YTD)
    - Hierarchie parent-child
    -  Filtrowanie danych względem hierarchii
    -  Popularne szablony DAX

Wizualizacje

  • Interaktywna analiza danych
  • Wybór odpowiednich wizualizacji
  • Filtry, grupowania, wykluczenia
  • Wizualizacja na mapach
  • Wizualizacje z wykorzystaniem języka R
  • Rozszerzenia wizualizacji (tzw. custom visuals)

Zarządzanie dostępem do danych - mechanizm Row-Level Security

Praca grupowa i mobilna z Power BI

  • Pulpity i raporty
  • Mechanizm Q&A
  • Obszary robocze Aplikacje mobilne

Q&A - sesja pytań i odpowiedzi

powerbifordev Power BI for Developers 28 hours

Microsoft Power BI is a free Software as a Service (SaaS) suite for analyzing data and sharing insights. Power BI dashboards provide a 360-degree view of the most important metrics in one place, updated in real time, and available on all of their devices.

In this instructor-led, live training, participants will learn how to use Power BI to develop custom software solutions for the Power BI and Azure platforms.

By the end of this training, participants will be able to:

  • Configure real-time dashboards
  • Create custom visualizations
  • Integrate rich analytics into existing applications
  • Embed interactive reports and visuals into existing applications
  • Access data from within an application
  • Master Power BI Portal, Desktop, Embedded and Rest API
  • Integrate R Scripts into Power BI Desktop

Audience

  • Developers
  • Architects

Format of the course

  • Part lecture, part discussion, exercises and heavy hands-on practice

Introduction

The data workflow: data source, ETL (Extract, Transform, Load), data warehousing and data analysis

Overview of Power BI Desktop

Power BI Developer Tools

Programming with TypeScript and d3.js

Developing and Distributing Custom Visuals

Developing R Scripts using RStudio

Integrating R Scripts into Power BI Desktop

Developing Custom R Visuals

Developing with the Power BI REST API

Updating the Power BI Dashboard in Real-time

Embedding Dashboard and Reports into an Application with Power BI Embedded

Closing remarks

pdi2 Pentaho Data Integration (PDI) - moduł do przetwarzania danych ETL (poziom średniozaawansowany) 14 hours

Pentaho jest produktem dystrybuowanym na zasadzie licencji Open Source, który dostarcza pełnej gamy rozwiązań dla biznesu w obszarze Business Intelligence, włączając w to raportowanie, analizy danych, kokpity managerskie i integrację danych. 
Dzięki platformie Pentaho poszczególne komórki biznesu uzyskują dostęp do szerokiego wachlarza cennych informacji, począwszy od analiz sprzedaży i opłacalności poszczególnych klientów czy produktów, poprzez raportowanie na potrzeby HR i działów finansowych, aż do dostarczania informacji zbiorczych na potrzeby kierownictwa wyższego szczebla.

Szkolenie jest adresowane do programistów, architektów oraz administratorów aplikacji, którzy chcą tworzyć lub utrzymywać procesy ekstrakcji, transformacji i ładowania danych (ETL) z wykorzystaniem Pentaho Data Integration (PDI).

Po szkoleniu uczestnik nabędzie umiejętności związane z:

  • instalacją i konfiguracją środowiska Pentaho,
  • projektowaniem, implementowaniem, monitorowaniem, uruchamianiem i strojeniem procesów ETL,
  • pracy z danymi w PDI,
    • wprowadzaniem różnych typów danych oraz różnych formatów danych
    • filtrowaniem, grupowaniem oraz łączeniem danych
  • harmonogramowaniem zadań,
  • uruchamianiem transformacji.

Kurs ma zadanie przeprowadzić uczestnika od poziomu podstawowego do średniozaawansowanego.

Dzień pierwszy

  1. Instalacja i konfiguracja Pentaho Data Integration

  2. Utworzenie repozytorium

  3. Zapoznanie się z interfejsem użytkownika Spoon

  4. Tworzenie transformacji

  5. Odczyt i zapis do pliku

  6. Praca z bazami danych (generator zapytań SQL)

  7. Filtrowanie, grupowanie oraz łączenie danych

  8. Praca z XLS

  9. Tworzenie zadań

  10. Definiowanie parametrów i zmiennych

Dzień DRUGI

  1. Wersjonowanie danych (obsługa okresów obowiązywania)

  2. Transakcyjność bazodanowa w transformacjach

  3. Wykorzystanie JavaScript

  4. Transformacje mapujące

  5. Konwersja typów danych oraz kolejność kolumn w strumieniu

  6. Logowanie przetwarzanie

  7. Uruchamianie transformacji i zadań z linii poleceń (kitchen.bat, pan.bat)

  8. Harmonogramowanie zadań

  9. Uruchamianie transformacji równolegle

bigdatabicriminal Big Data Business Intelligence for Criminal Intelligence Analysis 35 hours

Advances in technologies and the increasing amount of information are transforming how law enforcement is conducted. The challenges that Big Data pose are nearly as daunting as Big Data's promise. Storing data efficiently is one of these challenges; effectively analyzing it is another.

In this instructor-led, live training, participants will learn the mindset with which to approach Big Data technologies, assess their impact on existing processes and policies, and implement these technologies for the purpose of identifying criminal activity and preventing crime. Case studies from law enforcement organizations around the world will be examined to gain insights on their adoption approaches, challenges and results.

By the end of this training, participants will be able to:

  • Combine Big Data technology with traditional data gathering processes to piece together a story during an investigation
  • Implement industrial big data storage and processing solutions for data analysis
  • Prepare a proposal for the adoption of the most adequate tools and processes for enabling a data-driven approach to criminal investigation

Audience

  • Law Enforcement specialists with a technical background

Format of the course

  • Part lecture, part discussion, exercises and heavy hands-on practice

=====
Day 01
=====
Overview of Big Data Business Intelligence for Criminal Intelligence Analysis

  • Case Studies from Law Enforcement - Predictive Policing
  • Big Data adoption rate in Law Enforcement Agencies and how they are aligning their future operation around Big Data Predictive Analytics
  • Emerging technology solutions such as gunshot sensors, surveillance video and social media
  • Using Big Data technology to mitigate information overload
  • Interfacing Big Data with Legacy data
  • Basic understanding of enabling technologies in predictive analytics
  • Data Integration & Dashboard visualization
  • Fraud management
  • Business Rules and Fraud detection
  • Threat detection and profiling
  • Cost benefit analysis for Big Data implementation

Introduction to Big Data

  • Main characteristics of Big Data -- Volume, Variety, Velocity and Veracity.
  • MPP (Massively Parallel Processing) architecture
  • Data Warehouses – static schema, slowly evolving dataset
  • MPP Databases: Greenplum, Exadata, Teradata, Netezza, Vertica etc.
  • Hadoop Based Solutions – no conditions on structure of dataset.
  • Typical pattern : HDFS, MapReduce (crunch), retrieve from HDFS
  • Apache Spark for stream processing
  • Batch- suited for analytical/non-interactive
  • Volume : CEP streaming data
  • Typical choices – CEP products (e.g. Infostreams, Apama, MarkLogic etc)
  • Less production ready – Storm/S4
  • NoSQL Databases – (columnar and key-value): Best suited as analytical adjunct to data warehouse/database

NoSQL solutions

  • KV Store - Keyspace, Flare, SchemaFree, RAMCloud, Oracle NoSQL Database (OnDB)
  • KV Store - Dynamo, Voldemort, Dynomite, SubRecord, Mo8onDb, DovetailDB
  • KV Store (Hierarchical) - GT.m, Cache
  • KV Store (Ordered) - TokyoTyrant, Lightcloud, NMDB, Luxio, MemcacheDB, Actord
  • KV Cache - Memcached, Repcached, Coherence, Infinispan, EXtremeScale, JBossCache, Velocity, Terracoqua
  • Tuple Store - Gigaspaces, Coord, Apache River
  • Object Database - ZopeDB, DB40, Shoal
  • Document Store - CouchDB, Cloudant, Couchbase, MongoDB, Jackrabbit, XML-Databases, ThruDB, CloudKit, Prsevere, Riak-Basho, Scalaris
  • Wide Columnar Store - BigTable, HBase, Apache Cassandra, Hypertable, KAI, OpenNeptune, Qbase, KDI

Varieties of Data: Introduction to Data Cleaning issues in Big Data

  • RDBMS – static structure/schema, does not promote agile, exploratory environment.
  • NoSQL – semi structured, enough structure to store data without exact schema before storing data
  • Data cleaning issues

Hadoop

  • When to select Hadoop?
  • STRUCTURED - Enterprise data warehouses/databases can store massive data (at a cost) but impose structure (not good for active exploration)
  • SEMI STRUCTURED data – difficult to carry out using traditional solutions (DW/DB)
  • Warehousing data = HUGE effort and static even after implementation
  • For variety & volume of data, crunched on commodity hardware – HADOOP
  • Commodity H/W needed to create a Hadoop Cluster

Introduction to Map Reduce /HDFS

  • MapReduce – distribute computing over multiple servers
  • HDFS – make data available locally for the computing process (with redundancy)
  • Data – can be unstructured/schema-less (unlike RDBMS)
  • Developer responsibility to make sense of data
  • Programming MapReduce = working with Java (pros/cons), manually loading data into HDFS

=====
Day 02
=====
Big Data Ecosystem -- Building Big Data ETL (Extract, Transform, Load) -- Which Big Data Tools to use and when?

  • Hadoop vs. Other NoSQL solutions
  • For interactive, random access to data
  • Hbase (column oriented database) on top of Hadoop
  • Random access to data but restrictions imposed (max 1 PB)
  • Not good for ad-hoc analytics, good for logging, counting, time-series
  • Sqoop - Import from databases to Hive or HDFS (JDBC/ODBC access)
  • Flume – Stream data (e.g. log data) into HDFS

Big Data Management System

  • Moving parts, compute nodes start/fail :ZooKeeper - For configuration/coordination/naming services
  • Complex pipeline/workflow: Oozie – manage workflow, dependencies, daisy chain
  • Deploy, configure, cluster management, upgrade etc (sys admin) :Ambari
  • In Cloud : Whirr

Predictive Analytics -- Fundamental Techniques and Machine Learning based Business Intelligence

  • Introduction to Machine Learning
  • Learning classification techniques
  • Bayesian Prediction -- preparing a training file
  • Support Vector Machine
  • KNN p-Tree Algebra & vertical mining
  • Neural Networks
  • Big Data large variable problem -- Random forest (RF)
  • Big Data Automation problem – Multi-model ensemble RF
  • Automation through Soft10-M
  • Text analytic tool-Treeminer
  • Agile learning
  • Agent based learning
  • Distributed learning
  • Introduction to Open source Tools for predictive analytics : R, Python, Rapidminer, Mahut

Predictive Analytics Ecosystem and its application in Criminal Intelligence Analysis

  • Technology and the investigative process
  • Insight analytic
  • Visualization analytics
  • Structured predictive analytics
  • Unstructured predictive analytics
  • Threat/fraudstar/vendor profiling
  • Recommendation Engine
  • Pattern detection
  • Rule/Scenario discovery – failure, fraud, optimization
  • Root cause discovery
  • Sentiment analysis
  • CRM analytics
  • Network analytics
  • Text analytics for obtaining insights from transcripts, witness statements, internet chatter, etc.
  • Technology assisted review
  • Fraud analytics
  • Real Time Analytic

=====
Day 03
=====
Real Time and Scalable Analytics Over Hadoop

  • Why common analytic algorithms fail in Hadoop/HDFS
  • Apache Hama- for Bulk Synchronous distributed computing
  • Apache SPARK- for cluster computing and real time analytic
  • CMU Graphics Lab2- Graph based asynchronous approach to distributed computing
  • KNN p -- Algebra based approach from Treeminer for reduced hardware cost of operation

Tools for eDiscovery and Forensics

  • eDiscovery over Big Data vs. Legacy data – a comparison of cost and performance
  • Predictive coding and Technology Assisted Review (TAR)
  • Live demo of vMiner for understanding how TAR enables faster discovery
  • Faster indexing through HDFS – Velocity of data
  • NLP (Natural Language processing) – open source products and techniques
  • eDiscovery in foreign languages -- technology for foreign language processing

Big Data BI for Cyber Security – Getting a 360-degree view, speedy data collection and threat identification

  • Understanding the basics of security analytics -- attack surface, security misconfiguration, host defenses
  • Network infrastructure / Large datapipe / Response ETL for real time analytic
  • Prescriptive vs predictive – Fixed rule based vs auto-discovery of threat rules from Meta data

Gathering disparate data for Criminal Intelligence Analysis

  • Using IoT (Internet of Things) as sensors for capturing data
  • Using Satellite Imagery for Domestic Surveillance
  • Using surveillance and image data for criminal identification
  • Other data gathering technologies -- drones, body cameras, GPS tagging systems and thermal imaging technology
  • Combining automated data retrieval with data obtained from informants, interrogation, and research
  • Forecasting criminal activity

=====
Day 04
=====
Fraud prevention BI from Big Data in Fraud Analytics

  • Basic classification of Fraud Analytics -- rules-based vs predictive analytics
  • Supervised vs unsupervised Machine learning for Fraud pattern detection
  • Business to business fraud, medical claims fraud, insurance fraud, tax evasion and money laundering

Social Media Analytics -- Intelligence gathering and analysis

  • How Social Media is used by criminals to organize, recruit and plan
  • Big Data ETL API for extracting social media data
  • Text, image, meta data and video
  • Sentiment analysis from social media feed
  • Contextual and non-contextual filtering of social media feed
  • Social Media Dashboard to integrate diverse social media
  • Automated profiling of social media profile
  • Live demo of each analytic will be given through Treeminer Tool

Big Data Analytics in image processing and video feeds

  • Image Storage techniques in Big Data -- Storage solution for data exceeding petabytes
  • LTFS (Linear Tape File System) and LTO (Linear Tape Open)
  • GPFS-LTFS (General Parallel File System -  Linear Tape File System) -- layered storage solution for Big image data
  • Fundamentals of image analytics
  • Object recognition
  • Image segmentation
  • Motion tracking
  • 3-D image reconstruction

Biometrics, DNA and Next Generation Identification Programs

  • Beyond fingerprinting and facial recognition
  • Speech recognition, keystroke (analyzing a users typing pattern) and CODIS (combined DNA Index System)
  • Beyond DNA matching: using forensic DNA phenotyping to construct a face from DNA samples

Big Data Dashboard for quick accessibility of diverse data and display :

  • Integration of existing application platform with Big Data Dashboard
  • Big Data management
  • Case Study of Big Data Dashboard: Tableau and Pentaho
  • Use Big Data app to push location based services in Govt.
  • Tracking system and management

=====
Day 05
=====
How to justify Big Data BI implementation within an organization:

  • Defining the ROI (Return on Investment) for implementing Big Data
  • Case studies for saving Analyst Time in collection and preparation of Data – increasing productivity
  • Revenue gain from lower database licensing cost
  • Revenue gain from location based services
  • Cost savings from fraud prevention
  • An integrated spreadsheet approach for calculating approximate expenses vs. Revenue gain/savings from Big Data implementation.

Step by Step procedure for replacing a legacy data system with a Big Data System

  • Big Data Migration Roadmap
  • What critical information is needed before architecting a Big Data system?
  • What are the different ways for calculating Volume, Velocity, Variety and Veracity of data
  • How to estimate data growth
  • Case studies

Review of Big Data Vendors and review of their products.

  • Accenture
  • APTEAN (Formerly CDC Software)
  • Cisco Systems
  • Cloudera
  • Dell
  • EMC
  • GoodData Corporation
  • Guavus
  • Hitachi Data Systems
  • Hortonworks
  • HP
  • IBM
  • Informatica
  • Intel
  • Jaspersoft
  • Microsoft
  • MongoDB (Formerly 10Gen)
  • MU Sigma
  • Netapp
  • Opera Solutions
  • Oracle
  • Pentaho
  • Platfora
  • Qliktech
  • Quantum
  • Rackspace
  • Revolution Analytics
  • Salesforce
  • SAP
  • SAS Institute
  • Sisense
  • Software AG/Terracotta
  • Soft10 Automation
  • Splunk
  • Sqrrl
  • Supermicro
  • Tableau Software
  • Teradata
  • Think Big Analytics
  • Tidemark Systems
  • Treeminer
  • VMware (Part of EMC)

Q/A session

pdi3 Pentaho Data Integration (PDI) - moduł do przetwarzania danych ETL (poziom zaawansowany) 21 hours

Pentaho jest produktem dystrybuowanym na zasadzie licencji Open Source, który dostarcza pełnej gamy rozwiązań dla biznesu w obszarze Business Intelligence, włączając w to raportowanie, analizy danych, kokpity managerskie i integrację danych. 
Dzięki platformie Pentaho poszczególne komórki biznesu uzyskują dostęp do szerokiego wachlarza cennych informacji, począwszy od analiz sprzedaży i opłacalności poszczególnych klientów czy produktów, poprzez raportowanie na potrzeby HR i działów finansowych, aż do dostarczania informacji zbiorczych na potrzeby kierownictwa wyższego szczebla.

Szkolenie jest adresowane do programistów, architektów oraz administratorów aplikacji, którzy chcą tworzyć lub utrzymywać procesy ekstrakcji, transformacji i ładowania danych (ETL) z wykorzystaniem Pentaho Data Integration (PDI).

Po szkoleniu uczestnik nabędzie umiejętności związane z:

  • instalacją i konfiguracją środowiska Pentaho,
  • projektowaniem, implementowaniem, monitorowaniem, uruchamianiem i strojeniem procesów ETL,
  • pracy z danymi w PDI,
    • wprowadzaniem różnych typów danych oraz różnych formatów danych
    • filtrowaniem, grupowaniem oraz łączeniem danych
  • harmonogramowaniem zadań,
  • uruchamianiem transformacji, 
  • tworzeniu klastów.

Kurs ma zadanie przeprowadzić uczestnika od poziomu podstawowego do zaawansowanego.

Dzień pierwszy

Instalacja i konfiguracja Pentaho Data Integration

Utworzenie repozytorium

Zapoznanie się z interfejsem użytkownika Spoon

Tworzenie transformacji

Odczyt i zapis do pliku

Praca z bazami danych (generator zapytań SQL)

Filtrowanie, grupowanie oraz łączenie danych

Praca z XLS

Dzień DRUGI

Tworzenie zadań

Definiowanie parametrów i zmiennych

Wersjonowanie danych (obsługa okresów obowiązywania)

Transakcyjność bazodanowa w transformacjach

Wykorzystanie JavaScript

Transformacje mapujące

Konwersja typów danych oraz kolejność kolumn w strumieniu

Logowanie przetwarzanie

Dzień Trzeci

Uruchamianie transformacji i zadań z linii poleceń (kitchen.bat, pan.bat)

Harmonogramowanie zadań

Uruchamianie transformacji równolegle

Uruchamianie zdalne (carte.bat)

Tworzenie klastrów oraz partycjonowanie

Wersjonowanie i praca grupowa

pbi4 Pentaho Business Intelligence (PBI) - moduły raportowe 28 hours

Pentaho BI Suite to system klasy Business Intelligence (BI), przeznaczony do zaawansowanego raportowania i wielowymiarowej analizy danych biznesowych. Pozwala na łączenie danych z wielu źródeł i ich elastyczną obróbkę. 

Platforma Pentaho BI Suite obejmuje następujące obszary:

  • Raportowanie (Pentaho Reporting)
  • Analizy danych (Analysis)
  • Kokpity menedżerskie (Dashboards) 
  • Data Mining 
  • Pentaho Metadata
  • Pentaho Data Integration (Kettle)
  • Narzędzia wspomagające zarządzanie projektowanie aplikacji BI w środowisku Pentaho: Data Integration, Design Studio, Pentaho SDK, Report Designer, Schema Workbench (kontynuacja Pentaho Cube Designer)

Poniższe szkolenie jest kompleksowym kursem, który pozwoli uczestnikom na sprawną pracę z Report Designerem oraz Business Inteligence Server oraz na ich integrqację z Pentaho Data Integration.

 

Report Designer (dwa dni)

Poziom podstawowy (pierwszy dzień)

  1. Zapoznanie się z interfejsem użytkownika Report Designer
  2. Zapoznanie się z konsolą użytkownika (Pentaho BI Suite)
  3. Tworzenie raportów z wykorzystaniem prostych połączeń (JDBC)
  4. Wykorzystanie kreatora zapytań
  5. Formatowanie danych (style, atrybuty)
  6. Publikowanie raportów
  7. Wykorzystanie Report Wizard jako alternatywa tworzenia raportów
  8. Formatowanie warunkowe
  9. Użycie parametrów (prompty)
  10. Tworzenie wykresów

Poziom zaawansowany (drugi dzień)

  1. Definiowanie połączeń z XML, Tabele, PDI
  2. Tworzenie raportów z podzapytaniami (podraporty) oraz z zapytaniami JavaScript
  3. Zaawansowane formatowanie danych (HTML, JS, EXCEL, Eventy)
  4. Wykorzystanie parametrów i funkcji
  5. Wykorzystanie transformacji (PDI) jako źródło danych

Business Intelligence Server (Jeden dzień)

Konsola użytkownika

  1. Zapoznanie się z interfejsem użytkownika
  2. Tworzenie raportów na bazie połączeń od baz oraz do pliku CSV
  3. Definiowanie zapytań
  4. Harmonogramowanie raportów
  5. Udostępnianie

Konsola administratora

  1. Użytkownicy i grupy
  2. Definiowanie połączeń
  3. Harmonogramowanie

Data Integration na potrzeby report designer (jeden dzień)

Podstawy tworzenia transformacji w PeNtaho Data Integration (PDI)

  1. Omówienie rodzajów danych wejściowych
  2. Przetwarzanie danych przy pomocy prostych mechanizmów
  3. Filtrowanie danych
  4. Złączenia danych
  5. Grupowanie

Integracja Data Integrator z Report Designer

  1. Tworzenie połączenia do transformacji
  2. Wykorzystanie danych z transformacji
kibana Kibana: Essentials 14 hours

This training introduces Kibana to the users of Elastic Search.

Kibana is an open source analytics and visualization platform designed to work with Elasticsearch. You use Kibana to search, view, and interact with data stored in Elasticsearch indices. You can easily perform advanced data analysis and visualize your data in a variety of charts, tables, and maps.

Kibana makes it easy to understand large volumes of data. Its simple, browser-based interface enables you to quickly create and share dynamic dashboards that display changes to Elasticsearch queries in real time.

Setting up Prerequisites

  • Elasticsearch: Introduction 
  • Elasticsearch: Installation and Configuration
  • elasticdump
  • Brief Introduction to Kibana
  • Nested Objects - Limitation to Kibana

Setting up Kibana

  • Kibana: Install and Configure
  • Configuring Elasticsearch and connecting Kibana
    • Dynamic Mapping
    • Limitations
  • Tribe Nodes

Using Kibana

  • Indices and Filters
  • Discover Interface
    • Time Filter
    • Toolbar and Searchbar
    • Field Lists
    • Document Data and Context - Add/View/Edit/Delete
  • Visualization Interface
    • Aggregations
      • Bucket Aggregations - Date Histogram, Date Range, Range, Histogram, Terms and Filters
      • Metric Aggregations - Count, Sum, Average, Min, Max, Percentile, Percentile Ranks and Unique
    • Create Visualization
    • Chart, Line, Area
    • Data Table
    • Metrics
    • Other Visualization Types
  • Dashboard Interface: Building, Merging, Loading and Sharing
  • Graph: Configure, Troubleshoot and Limitations

Kibana: Dev Console

  • Overview
  • Shortcuts: Brief
  • Settings and Configuring

Kibana in Production

  • SSL encryption
  • Load Balancing using Elasticsearch Nodes

Management

  • Managing Fields and Formatters
  • Saved Searches, Visualizationad and Dashboards
  • Apache/nginx proxy for security

Plugins

  • Install/Update/Disable/Remove Plugins
  • Plugins Manager

 

TalendDI Talend Open Studio for Data Integration 28 hours

Talend Open Studio for Data Integration is an open-source data integration product used to combine, convert and update data in various locations across a business.

In this instructor-led, live training, participants will learn how to use the Talend ETL tool to carry out data transformation, data extraction, and connectivity with Hadoop, Hive, and Pig.
 
By the end of this training, participants will be able to

  • Explain the concepts behind ETL (Extract, Transform, Load) and propagation
  • Define ETL methods and ETL tools to connect with Hadoop
  • Efficiently amass, retrieve, digest, consume, transform and shape big data in accordance to business requirements

Audience

  • Business intelligence professionals
  • Project managers
  • Database professionals
  • SQL Developers
  • ETL Developers
  • Solution architects
  • Data architects
  • Data warehousing professionals
  • System administrators and integrators

Format of the course

  • Part lecture, part discussion, exercises and heavy hands-on practice

To request a customized course outline for this training, please contact us.

 

PentahoDI Pentaho Data Integration Fundamentals 21 hours

Pentaho Data Integration is an open-source data integration tool for defining jobs and data transformations.

In this instructor-led, live training, participants will learn how to use Pentaho Data Integration's powerful ETL capabilities and rich GUI to manage an entire big data lifecycle, maximizing the value of data to the organization.

By the end of this training, participants will be able to:

  • Create, preview, and run basic data transformations containing steps and hops
  • Configure and secure the Pentaho Enterprise Repository
  • Harness disparate sources of data and generate a single, unified version of the truth in an analytics-ready format.
  • Provide results to third-part applications for further processing

Audience

  • Data Analyst
  • ETL developers

Format of the course

  • Part lecture, part discussion, exercises and heavy hands-on practice

To request a customized course outline for this training, please contact us.

JasperSoftBI JasperSoft BI 14 hours

JasperReports is an open-source reporting library that can be embedded into any Java application. JasperReports Server is a Java EE web application with advanced reporting capabilities, including scheduling and permissions.

In this instructor-led, live training, participants will learn to view and interact with business data as well as create and design reports and dashboards that are viewable on phones and tablets.

By the end of this training, participants will be able to:

  • Set up and configure a JasperSoft ETL project
  • Design and run an ETL job
  • Use iReport to generate charts, images, sub-reports, and cross tabs

Audience

  • BI analysts
  • ETL developers
  • Database professionals

Format of the course

  • Part lecture, part discussion, exercises and heavy hands-on practice

 

To request a customized course outline for this training, please contact us.

 

Other regions

Szkolenie Business Intelligence w Szczecin, szkolenie wieczorowe Business Intelligence w Szczecin, szkolenie weekendowe Business Intelligence w Szczecin, Business Intelligence boot camp w Szczecin, kurs zdalny Business Intelligence w Szczecin , Trener Business Intelligence w Szczecin, instruktor Business Intelligence w Szczecin, nauka przez internet Business Intelligence w Szczecin, edukacja zdalna Business Intelligence w Szczecin,Kurs Business Intelligence w Szczecin, lekcje UML w Szczecin, wykładowca Business Intelligence w Szczecin , nauczanie wirtualne Business Intelligence w Szczecin, kurs online Business Intelligence w Szczecin

Kursy w promocyjnej cenie

Szkolenie Miejscowość Data Kursu Cena szkolenia [Zdalne / Stacjonarne]
BPMN 2.0 dla Analityków Biznesowych Katowice ul. Opolska 22 pon., 2018-01-22 09:00 5940PLN / 3030PLN
Adobe Creative Cloud - Montaż video Katowice ul. Opolska 22 pon., 2018-01-29 09:00 3861PLN / 2455PLN
Techniki DTP (InDesign, Photoshop, Illustrator, Acrobat) Kielce, ul. Warszawska 19 pon., 2018-01-29 09:00 5940PLN / 2980PLN
Angular 4 - dobre praktyki Katowice ul. Opolska 22 wt., 2018-01-30 09:00 7920PLN / 3450PLN
Psychologia współpracy z ludźmi Wrocław, ul.Ludwika Rydygiera 2a/22 wt., 2018-01-30 09:00 5148PLN / 1430PLN
Efektywna komunikacja interpersonalna z elementami asertywności Warszawa, ul. Złota 3/11 śr., 2018-01-31 09:00 5148PLN / 1430PLN
Agile Software Testing Zielona Góra, ul. Reja 6 czw., 2018-02-01 09:00 4257PLN / 2629PLN
PostgreSQL Administration Katowice ul. Opolska 22 pon., 2018-02-05 09:00 7821PLN / 4007PLN
Techniki DTP (InDesign, Photoshop, Illustrator, Acrobat) Opole, Władysława Reymonta 29 pon., 2018-02-05 09:00 5940PLN / 4230PLN
Międzynarodowe Standardy Rachunkowości i Sprawozdawczości Finansowej (MSR, MSSF) (IAS, IFRS) Poznań, Garbary 100/63 pt., 2018-02-09 09:00 3950PLN / 1188PLN
Tworzenie i zarządzanie stronami WWW Katowice ul. Opolska 22 pon., 2018-02-12 09:00 5841PLN / 3048PLN
Javascript Basics Poznań, Garbary 100/63 wt., 2018-02-13 09:00 4455PLN / 1885PLN
Efektywne wykorzystanie Social Media - Facebook, Twitter, Youtube, Google+, blogi Rzeszów, Plac Wolności 13 wt., 2018-02-13 09:00 1881PLN / 952PLN
SQL in Microsoft Access Kraków, ul. Rzemieślnicza 1 czw., 2018-02-15 09:00 10266PLN / 3911PLN
Efektywna komunikacja interpersonalna z elementami asertywności Gdynia, ul. Ejsmonda 2 pon., 2018-02-19 09:00 5148PLN / 1530PLN
Techniki DTP (InDesign, Photoshop, Illustrator, Acrobat) Katowice ul. Opolska 22 pon., 2018-03-05 09:00 5940PLN / 3730PLN
Visual Basic for Applications (VBA) w Excel - wstęp do programowania Katowice ul. Opolska 22 pon., 2018-03-05 09:00 3564PLN / 2291PLN
Certified Agile Tester Katowice ul. Opolska 22 pon., 2018-04-02 09:00 8910PLN / 4720PLN
Perfect tester Szczecin, ul. Sienna 9 śr., 2018-04-04 09:00 5920PLN / 2294PLN
Kontrola jakości i ciągła integracja Katowice ul. Opolska 22 czw., 2018-04-12 09:00 2673PLN / 2037PLN

Newsletter z promocjami

Zapisz się na nasz newsletter i otrzymuj informacje o aktualnych zniżkach na kursy otwarte.
Szanujemy Twoją prywatność, dlatego Twój e-mail będzie wykorzystywany jedynie w celu wysyłki naszego newslettera, nie będzie udostępniony ani sprzedany osobom trzecim.
W dowolnej chwili możesz zmienić swoje preferencje co do otrzymywanego newslettera bądź całkowicie się z niego wypisać.

Zaufali nam