Plan Szkolenia

Podział tematów na poszczególne dni: (Każda sesja trwa 2 godziny)

Dzień-1: Sesja -1: Business Przegląd powodów Big Data Business Inteligencja w Telco.

  • Studia przypadków z T-Mobile, Verizon itp.
  • Big Data wskaźnik adaptacji w North American Telco oraz sposób, w jaki dostosowują swój przyszły model biznesowy i działanie do Big Data BI
  • Szeroki obszar zastosowań
  • Zarządzanie siecią i usługami
  • Odpływ klientów Management
  • Data Integration & Wizualizacja dashboardu
  • Zarządzanie oszustwami
  • Business Generowanie reguł
  • Profilowanie klientów
  • Zlokalizowane wypychanie reklam

Dzień-1: Sesja-2: Wprowadzenie do Big Data-1

  • Główne cechy Big Data – objętość, różnorodność, prędkość i prawdziwość. Architektura MPP zapewniająca głośność.
  • Data Warehouses – schemat statyczny, wolno ewoluujący zbiór danych
  • MPP Database, takie jak Greenplum, Exadata, Teradata, Netezza, Vertica itp.
  • Hadoop Rozwiązania oparte – brak warunków dotyczących struktury zbioru danych.
  • Typowy wzorzec: HDFS, MapReduce (crunch), pobierz z HDFS
  • Wsadowe – odpowiednie do zastosowań analitycznych/nieinteraktywnych
  • Wolumen: Dane przesyłane strumieniowo CEP
  • Typowe wybory – produkty CEP (np. Infostreams, Apama, MarkLogic itp.)
  • Mniej gotowości produkcyjnej – Storm/S4
  • NoSQL Database s – (kolumnowe i klucz-wartość): Najlepiej nadaje się jako dodatek analityczny do hurtowni/bazy danych

Dzień-1: Sesja -3: Wprowadzenie do Big Data-2

NoSQL rozwiązania

  • Sklep KV - Keyspace, Flare, SchemaFree, RAMCloud, Oracle NoSQL Database (OnDB)
  • Sklep KV — Dynamo, Voldemort, Dynomite, SubRecord, Mo8onDb, DovetailDB
  • Sklep KV (hierarchiczny) - GT.m, pamięć podręczna
  • Sklep KV (zamówiony) — TokyoTyrant, Lightcloud, NMDB, Luxio, MemcacheDB, Actord
  • Pamięć podręczna KV - Memcached, Repcached, spójność, Infinispan, EXtremeScale, JBoss pamięć podręczna, prędkość, Terracoqua
  • Sklep Tuple — Gigaspaces, Coord, Apache River
  • Obiekt Database - ZopeDB, DB40, Shoal
  • Magazyn dokumentów — CouchDB, Cloudant, Couchbase, MongoDB, Jackrabbit, XML–Databases, ThruDB, CloudKit, Prsevere, Riak-Basho, Scalaris
  • Szeroki sklep kolumnowy - BigTable, HBase, Apache Cassandra, Hypertable, KAI, OpenNeptune, Qbase, KDI

Odmiany danych: Wprowadzenie do Data Cleaning wydanie w Big Data

  • RDBMS – statyczna struktura/schemat, nie promuje zwinnego, eksploracyjnego środowiska.
  • NoSQL – półstrukturalna, wystarczająca struktura do przechowywania danych bez dokładnego schematu przed zapisaniem danych
  • Problemy z czyszczeniem danych

Dzień-1: Sesja-4: Big Data Wprowadzenie-3: Hadoop

  • Kiedy wybrać Hadoop?
  • STRUKTURALNE — hurtownie/bazy danych przedsiębiorstwa mogą przechowywać ogromne ilości danych (za opłatą), ale narzucają strukturę (nie nadają się do aktywnej eksploracji)
  • Dane PÓŁSTRUKTURYZOWANE – trudne do wykonania w przypadku tradycyjnych rozwiązań (DW/DB)
  • Magazynowanie danych = OGROMNY wysiłek i statyka nawet po wdrożeniu
  • Różnorodność i ilość danych przetwarzanych na standardowym sprzęcie – HADOOP
  • Towar sprzętowy potrzebny do utworzenia Hadoop klastra

Wprowadzenie do Map Redukuj /HDFS

  • MapReduce – dystrybuuj przetwarzanie na wielu serwerach
  • HDFS – udostępnianie danych lokalnie dla procesu obliczeniowego (z redundancją)
  • Dane – mogą być nieustrukturyzowane/bez schematu (w przeciwieństwie do RDBMS)
  • Odpowiedzialność programisty za zrozumienie danych
  • Programming MapReduce = praca z Java (zalety/wady), ręczne ładowanie danych do HDFS

Dzień 2: Sesja 1.1: Spark: rozproszona baza danych w pamięci

  • Co to jest przetwarzanie „w pamięci”?
  • Iskra SQL
  • Zestaw SDK Sparka
  • API Sparka
  • RDD
  • Spark Lib
  • Hanna
  • Jak przeprowadzić migrację istniejącego Hadoop systemu do Spark

Dzień 2 Sesja -1.2: Burza - Przetwarzanie w czasie rzeczywistym w Big Data

  • Strumienie
  • Kiełki
  • Śruby
  • Topologie

Dzień-2: Sesja-2: Big Data Management System

  • Ruchome części, uruchomienie/awaria węzłów obliczeniowych: ZooKeeper — dla usług konfiguracji/koordynacji/nazewnictwa
  • Złożony potok/przepływ pracy: Oozie – zarządzaj przepływem pracy, zależnościami, łańcuchem
  • Wdrażanie, konfiguracja, zarządzanie klastrami, aktualizacja itp. (administrator sys): Ambari
  • W chmurze: Wir
  • Ewoluujące Big Data narzędzia platformy do śledzenia
  • Problemy z aplikacją warstwy ETL

Dzień-2: Sesja-3: Analityka predykcyjna w Business Inteligencja -1: Podstawowe techniki i BI oparte na uczeniu maszynowym:

  • Wprowadzenie do uczenia maszynowego
  • Nauka technik klasyfikacji
  • Plik szkoleniowy umożliwiający przygotowanie prognozy Bayesa
  • Pole losowe Markowa
  • Uczenie się pod nadzorem i bez nadzoru
  • Ekstrakcja cech
  • Maszyna wektorów nośnych
  • Sieć neuronowa
  • Uczenie się przez wzmacnianie
  • Big Data problem z dużą zmienną - Losowy las (RF)
  • Uczenie się reprezentacji
  • Głęboka nauka
  • Big Data Problem automatyzacji – zespół wielomodelowy RF
  • Automatyzacja poprzez Soft10-M
  • LDA i modelowanie tematyczne
  • Agile nauka
  • Uczenie się w oparciu o agenta – przykład z operacji Telco
  • Uczenie rozproszone – przykład z operacji Telco
  • Wprowadzenie do narzędzi open source do analityki predykcyjnej: R, Rapidminer, Mahut
  • Bardziej skalowalne laboratorium analityczne Apache Hama, Spark i CMU Graph

Dzień-2: Sesja-4 Ekosystem analityki predykcyjnej-2: Typowe problemy z analityką predykcyjną w Telecom

  • Analiza wglądu
  • Analiza wizualizacji
  • Ustrukturyzowana analiza predykcyjna
  • Nieustrukturyzowana analiza predykcyjna
  • Profilowanie klientów
  • Silnik rekomendacji
  • Wykrywanie wzorców
  • Odkrywanie reguł/scenariuszy – porażka, oszustwo, optymalizacja
  • Odkrycie przyczyny źródłowej
  • Analiza sentymentów
  • Analityk CRM
  • Analityka sieciowa
  • Analityka tekstu
  • Przegląd wspomagany technologią
  • Analiza oszustw
  • Analityka w czasie rzeczywistym

Dzień-3: Sesja-1: Analityka działania sieci – analiza głównych przyczyn awarii sieci, przerw w świadczeniu usług z powodu metadanych, IPDR i CRM:

  • Użycie procesora
  • Zużycie pamięci
  • Wykorzystanie kolejki QoS
  • Temperatura urządzenia
  • Błąd interfejsu
  • Wersje iOS
  • Zdarzenia routingu
  • Różnice w opóźnieniu
  • Analityka syslogu
  • Utrata pakietów
  • Symulacja obciążenia
  • Wnioskowanie o topologii
  • Próg wydajności
  • Pułapki na urządzenia
  • Zbieranie i przetwarzanie IPDR (szczegółowy zapis IP).
  • Wykorzystanie danych IPDR do wykorzystania przepustowości abonenta, wykorzystania interfejsu sieciowego, stanu modemu i diagnostyki
  • Informacje o HFC

Dzień-3: Sesja-2: Narzędzia do analizy awarii usług sieciowych:

  • Panel podsumowania sieci: monitoruj ogólne wdrożenia sieci i śledź kluczowe wskaźniki wydajności swojej organizacji
  • Pulpit analizy okresu szczytu: poznaj trendy aplikacji i abonentów wpływające na szczytowe wykorzystanie, ze szczegółowością specyficzną dla lokalizacji
  • Panel wydajności routingu: kontroluj koszty sieci i twórz uzasadnienia biznesowe dla projektów kapitałowych, mając pełne zrozumienie relacji wzajemnych i tranzytowych
  • Panel rozrywki w czasie rzeczywistym: ważne wskaźniki dostępu, w tym wyświetlenia wideo, czas trwania i jakość wideo (QoE)
  • Panel przejścia IPv6: sprawdź bieżące wdrażanie protokołu IPv6 w swojej sieci i uzyskaj wgląd w aplikacje i urządzenia wpływające na trendy
  • Studium przypadku-1: Eksplorator danych Alcatel-Lucent Big Network Analytics (BNA).
  • Wielowymiarowa inteligencja mobilna (m.IQ6)

Dzień 3: Sesja 3: Big Data BI dla Marketing/Sprzedaż – Zrozumienie sprzedaży/marketingu na podstawie danych sprzedażowych: (Wszystkie zostaną pokazane w demonstracji analizy predykcyjnej na żywo)

  • Aby zidentyfikować klientów o największej prędkości
  • Identyfikacja klientów dla danych produktów
  • Identyfikacja odpowiedniego zestawu produktów dla klienta (silnik rekomendacji)
  • Technika segmentacji rynku
  • Technika sprzedaży krzyżowej i dodatkowej
  • Technika segmentacji klientów
  • Technika prognozowania przychodów ze sprzedaży

Dzień 3: Sesja 4: BI potrzebny do biura dyrektora finansowego Telco:

  • Przegląd Business Prac analitycznych potrzebnych w biurze dyrektora finansowego
  • Analiza ryzyka nowej inwestycji
  • Przychody, prognozowanie zysków
  • Prognozowanie pozyskiwania nowych klientów
  • Prognozowanie strat
  • Analiza oszustw w finansach (szczegóły w następnej sesji)

Dzień-4: Sesja-1: BI z zakresu zapobiegania oszustwom z Big Data w analizie nadużyć telekomunikacyjnych:

  • Wyciek przepustowości/oszustwo związane z przepustowością
  • Oszustwo dostawcy/nadmierne pobieranie opłat za projekty
  • Oszustwa dotyczące zwrotów pieniędzy/roszczeń klientów
  • Oszustwa związane ze zwrotem kosztów podróży

Dzień 4: Sesja 2: Od przewidywania rezygnacji do zapobiegania rezygnacji:

  • 3 rodzaje odejść: aktywne/celowe, rotacyjne/przypadkowe, pasywne mimowolne
  • 3 klasyfikacja klientów, którzy odeszli: całkowita, ukryta, częściowa
  • Zrozumienie zmiennych CRM związanych z rezygnacją
  • Zbieranie danych o zachowaniu klientów
  • Gromadzenie danych o postrzeganiu klientów
  • Gromadzenie danych demograficznych klientów
  • Czyszczenie danych CRM
  • Nieustrukturyzowane dane CRM (rozmowy z klientami, zgłoszenia, e-maile) i ich konwersja na dane strukturalne na potrzeby analizy Churn
  • Social Media CRM – nowy sposób na wyodrębnienie wskaźnika satysfakcji klienta
  • Studium przypadku-1: T-Mobile USA: Redukcja rezygnacji o 50%

Dzień-4: Sesja-3: Jak wykorzystać analizę predykcyjną do analizy pierwotnych przyczyn niezadowolenia klientów:

  • Studium przypadku -1: Powiązanie niezadowolenia z problemami – księgowość, awarie inżynieryjne, takie jak przerwy w świadczeniu usług, słaba przepustowość usługi
  • Studium przypadku-2: Big Data Panel kontroli jakości umożliwiający śledzenie wskaźnika zadowolenia klienta na podstawie różnych parametrów, takich jak eskalacja połączeń, krytyczność problemów, oczekujące zdarzenia związane z przerwami w świadczeniu usług itp.

Dzień-4: Sesja-4: Big Data Panel zapewniający szybki dostęp do różnorodnych danych i wyświetlaczy:

  • Integracja istniejącej platformy aplikacyjnej z Big Data Dashboardem
  • Big Data zarządzanie
  • Studium przypadku Big Data Panelu: Tableau i Pentaho
  • Użyj aplikacji Big Data, aby przesyłać reklamy oparte na lokalizacji
  • System śledzenia i zarządzanie

Dzień-5: Sesja-1: Jak uzasadnić Big Data wdrożenie BI w organizacji:

  • Zdefiniowanie ROI dla wdrożenia Big Data.
  • Studia przypadków oszczędzające czas analityka na gromadzenie i przygotowanie danych – wzrost wydajności
  • Studia przypadków wzrostu przychodów w wyniku odejścia klientów
  • Zyski z reklam opartych na lokalizacji i innych reklam ukierunkowanych
  • Zintegrowana metoda arkusza kalkulacyjnego pozwala obliczyć ok. wydatek a przychody/oszczędności wynikające z wdrożenia Big Data.

Dzień-5: Sesja-2: Procedura krok po kroku w celu zastąpienia starszego systemu danych na Big Data System:

  • Zrozumienie praktyczne Big Data Mapa drogowa migracji
  • Jakie są ważne informacje potrzebne przed zaprojektowaniem Big Data wdrożenia
  • Jakie są różne sposoby obliczania objętości, prędkości, różnorodności i prawdziwości danych?
  • Jak oszacować przyrost danych
  • Studia przypadków w 2 Telco

Dzień 5: Sesja 3 i 4: Przegląd Big Data dostawców i recenzja ich produktów. Sesja pytań i odpowiedzi:

  • AccentureAlcatel-Lucent
  • Amazonka – A9
  • APTEAN (dawniej CDC Software)
  • Cisco Systemy
  • Chmura
  • Dell
  • EMC
  • GoOdData Corporation
  • Guavus
  • Systemy danych Hitachi
  • Hortonworks
  • Huaweia
  • HP
  • IBM-a
  • Informatyka
  • Intel
  • Jaspersoft
  • Microsoft
  • MongoDB (dawniej 10Gen)
  • MU Sigma
  • Netapp
  • Rozwiązania Opery
  • Oracle
  • Pentaho
  • Platforma
  • Qliktech
  • Kwant
  • Miejsce na stojaki
  • Analityka rewolucji
  • Salesforce
  • SAP
  • SAS Instytut
  • Sisense
  • Oprogramowanie AG/Terakota
  • Automatyzacja Soft10
  • Splunk
  • Sqrl
  • Supermikro
  • Tableau Oprogramowanie
  • Teradata
  • Pomyśl o wielkich analizach
  • Systemy Tidemark
  • VMware (Część EMC)

Wymagania

  • Powinien posiadać podstawową wiedzę na temat operacji biznesowych i systemów danych w Telecom w swojej domenie
  • .
  • Musi posiadać podstawową znajomość SQL/Oracle lub relacyjnej bazy danych
  • Podstawowa znajomość statystyki (na poziomie Excela)
 35 godzin

Liczba uczestników



Cena za uczestnika

Opinie uczestników (2)

Powiązane Kategorie