Big Data Analiza zdrowia - Plan Szkolenia
Analityka Big Data obejmuje proces badania dużych ilości różnorodnych zestawów danych w celu odkrycia korelacji, ukrytych wzorców i innych przydatnych informacji.
Branża medyczna dysponuje ogromnymi ilościami złożonych, heterogenicznych danych medycznych i klinicznych. Zastosowanie analizy dużych zbiorów danych na danych dotyczących zdrowia stanowi ogromny potencjał w uzyskiwaniu wglądu w celu poprawy świadczenia opieki zdrowotnej. Jednak ogrom tych zbiorów danych stanowi ogromne wyzwanie w analizach i praktycznych zastosowaniach w środowisku klinicznym.
W tym prowadzonym przez instruktora szkoleniu na żywo (zdalnie) uczestnicy dowiedzą się, jak przeprowadzić analizę dużych zbiorów danych w zakresie zdrowia, przechodząc przez serię praktycznych ćwiczeń laboratoryjnych na żywo.
Po zakończeniu tego szkolenia uczestnicy będą w stanie
- Instalowanie i konfigurowanie narzędzi do analizy dużych zbiorów danych, takich jak Hadoop MapReduce i Spark.
- Zrozumienie charakterystyki danych medycznych
- Stosowanie technik big data do przetwarzania danych medycznych
- Badanie systemów i algorytmów big data w kontekście aplikacji zdrowotnych
Uczestnicy
- Programiści
- Naukowcy ds. danych
Format kursu
- Część wykładu, część dyskusji, ćwiczenia i ciężka praktyka praktyczna.
Uwaga
- Aby zamówić niestandardowe szkolenie dla tego kursu, skontaktuj się z nami.
Plan Szkolenia
Wprowadzenie do Big Data Analityka w zdrowiu
Przegląd Big Data technologii analitycznych
- Apache Hadoop MapReduce
- Apache Spark
Instalacja i konfiguracja Apache Hadoop MapReduce
Instalacja i konfiguracja Apache Spark
Korzystanie z modelowania predykcyjnego dla danych zdrowotnych
Korzystanie z Apache Hadoop MapReduce dla danych zdrowotnych
Wykonywanie fenotypowania i grupowania danych dotyczących zdrowia
- Metryki oceny klasyfikacji
- Metody zespołowe klasyfikacji
Używanie Apache Spark do danych zdrowotnych
Praca z ontologią medyczną
Korzystanie z analizy wykresów danych dotyczących zdrowia
Redukcja wymiarowości danych zdrowotnych
Praca z metrykami podobieństwa pacjentów
Rozwiązywanie problemów
Podsumowanie i wnioski
Wymagania
- Zrozumienie koncepcji uczenia maszynowego i eksploracji danych
- Doświadczenie w programowaniu na poziomie zaawansowanym (Python, Java, Scala)
- Biegła znajomość danych i procesów ETL
Szkolenia otwarte są realizowane w przypadku uzbierania się grupy szkoleniowej liczącej co najmniej 5 osób na dany termin.
Big Data Analiza zdrowia - Plan Szkolenia - Rezerwacja
Big Data Analiza zdrowia - Plan Szkolenia - Zapytanie
Big Data Analiza zdrowia - Zapytanie o Konsultacje
Zapytanie o Konsultacje
Opinie uczestników (1)
Książka wirtualna, która bardzo mi się podobała Nauczyciel był bardzo wyznawczy co do tematu oraz innych tematów, był bardzo miły i przyjazny Podobało mi się miejsce w Dubaju.
Safar Alqahtani - Elm Information Security
Szkolenie - Big Data Analytics in Health
Przetłumaczone przez sztuczną inteligencję
Propozycje terminów
Szkolenia Powiązane
Administrator Training for Apache Hadoop
35 godzinGrupa docelowa:
Kurs przeznaczony jest dla specjalistów IT szukających rozwiązania do przechowywania i przetwarzania dużych zestawów danych w środowisku systemów rozproszonych.
Wymagania:
Głęboka wiedza z zarządzania klastrami Hadoop.
Big Data Analytics z Google Colab i Apache Spark
14 godzinTo szkolenie prowadzone przez instruktora (online lub na miejscu) jest skierowane do średniozaawansowanych naukowców danych i inżynierów danych, którzy chcą używać Google Colab i Apache Spark do przetwarzania i analizy dużych zbiorów danych.
Na zakończenie tego szkolenia uczestnicy będą w stanie:
- Zainstalować środowisko big data z użyciem Google Colab i Spark.
- Efektywnie przetwarzać i analizować duże zbiory danych za pomocą Apache Spark.
- Wizualizować big data w środowisku współpracy.
- Integrować Apache Spark z narzędziami chmurowymi.
Big Data Hadoop Administration Training
21 godzinKurs jest dedykowany specjalistom IT poszukującym rozwiązania do przechowywania i przetwarzania dużych zbiorów danych w środowisku systemu rozproszonego
Cel kursu:
Nabycie wiedzy dotyczącej zarządzania Hadoop klasterem
Hadoop i Spark dla Administratorów
35 godzinTo prowadzone przez instruktora szkolenie na żywo w Polsce (online lub na miejscu) jest przeznaczone dla administratorów systemów, którzy chcą dowiedzieć się, jak konfigurować, wdrażać i zarządzać klastrami Hadoop w swojej organizacji.
Po zakończeniu tego szkolenia uczestnicy będą w stanie
- Instalacja i konfiguracja Apache Hadoop.
- Zrozumienie czterech głównych komponentów ekosystemu Hadoop: HDFS, MapReduce, YARN i Hadoop Common.
- Używanie rozproszonego systemu plików Hadoop (HDFS) do skalowania klastra do setek lub tysięcy węzłów.
- Konfigurowanie HDFS do działania jako silnik pamięci masowej dla lokalnych wdrożeń Spark.
- Konfiguracja Spark, aby uzyskać dostęp do alternatywnych rozwiązań pamięci masowej, takich jak Amazon S3 i systemów baz danych NoSQL, takich jak Redis, Elasticsearch, Couchbase, Aerospike itp.
- Wykonywanie zadań administracyjnych, takich jak udostępnianie, zarządzanie, monitorowanie i zabezpieczanie klastra Apache Hadoop.
Przykładowe Wprowadzenie do Przetwarzania Strumieniowego
21 godzinW tym szkoleniu prowadzonym przez instruktora (stacjonarnie lub zdalnie) uczestnicy nauczą się instalować i integrować różne ramki Stream Processing z istniejącymi systemami magazynowania dużych danych oraz z powiązanymi aplikacjami oprogramowania i mikrousługami.
Po zakończeniu tego szkolenia uczestnicy będą w stanie:
- Zainstalować i skonfigurować różne ramki Stream Processing, takie jak Spark Streaming i Kafka Streaming.
- Zrozumieć i wybrać najbardziej odpowiednią ramkę dla danego zadania.
- Proces danych w sposób ciągły, równoległy i rekord po rekordu.
- Zintegrować rozwiązania Stream Processing z istniejącymi bazami danych, magazynami danych, jeziorami danych, itd.
- Zintegrować najbardziej odpowiednią bibliotekę stream processing z aplikacjami przedsiębiorstw i mikrousługami.
SMACK Stack dla nauki o danych
14 godzinTo szkolenie prowadzone przez instruktora (online lub na miejscu) jest skierowane do naukowców danych, którzy chcą wykorzystać stos SMACK do budowy platform przetwarzania danych dla rozwiązań big data.
Po ukończeniu tego szkolenia uczestnicy będą w stanie:
- Zaimplementować architekturę kanału danych do przetwarzania dużych danych.
- Rozwinąć infrastrukturę klasterową z Apache Mesos i Docker.
- Analizować dane z użyciem Spark i Scala.
- Zarządzać niestrukturyzowanymi danymi z Apache Cassandra.
Fundamentals of Apache Spark
21 godzinSzkolenie na żywo prowadzone przez instruktora (na miejscu lub zdalnie) jest przeznaczone dla inżynierów, którzy chcą skonfigurować i wdrożyć system Apache Spark do przetwarzania bardzo dużych ilości danych.
Po zakończeniu tego szkolenia uczestnicy będą w stanie
- Instalacja i konfiguracja Apache Spark.
- Szybkie przetwarzanie i analizowanie bardzo dużych zbiorów danych.
- Zrozumienie różnicy między Apache Spark i Hadoop MapReduce i kiedy używać którego z nich.
- Integracja Apache Spark z innymi narzędziami uczenia maszynowego.
Administracja Apache Spark
35 godzinTo szkolenie prowadzone przez instruktora w Polsce (online lub na miejscu) jest skierowane do administratorów systemów na poziomie początkującego do średniozaawansowanego, którzy chcą wdrażać, utrzymywać i optymalizować klastery Spark.
Po zakończeniu tego szkolenia uczestnicy będą w stanie:
- Instalować i konfigurować Apache Spark w różnych środowiskach.
- Zarządzać zasobami klastra i monitorować aplikacje Spark.
- Optymalizować wydajność klastrów Spark.
- Wdrażać środki zabezpieczające i zapewniać wysoką dostępność.
- Diagnozować i rozwiązywać typowe problemy związane z Spark.
Apache Spark w Chmurze
21 godzinKrzywa uczenia się Apache Spark powoli rośnie na początku, wymaga dużo wysiłku, aby uzyskać pierwszy zwrot. Ten kurs ma na celu przeskoczenie pierwszej trudnej części. Po ukończeniu tego kursu uczestnicy zrozumieją podstawy Apache Spark , będą wyraźnie odróżniać RDD od DataFrame, nauczą się Pythona i Scala API, zrozumieją executory i zadania itp. Również zgodnie z najlepszymi praktykami, kurs ten silnie koncentruje się na wdrażaniu w chmurze, Databricks i AWS. Studenci zrozumieją również różnice między AWS EMR i AWS Glue, jedną z najnowszych usług Spark w AWS.
AUDIENCJA:
Inżynier ds. danych, DevOps, Naukowiec ds. danych
Spark dla Programistów
21 godzinCEL:
Ten kurs wprowadzi Apache Spark. Studenci dowiedzą się, jak Spark pasuje do ekosystemu Big Data i jak używać Spark do analizy danych. Kurs obejmuje powłokę Spark do interaktywnej analizy danych, elementy wewnętrzne Spark, interfejsy API Spark, Spark SQL, przesyłanie strumieniowe Spark oraz uczenie maszynowe i graphX.
AUDIENCJA :
Programiści / analitycy danych
Skalowanie Pipelines Danych z Spark NLP
14 godzinTo prowadzone przez instruktora szkolenie na żywo w Polsce (na miejscu lub zdalnie) jest przeznaczone dla naukowców zajmujących się danymi i programistów, którzy chcą używać Spark NLP, zbudowanego na bazie Apache Spark, do opracowywania, wdrażania i skalowania modeli i potoków przetwarzania tekstu w języku naturalnym.
Pod koniec tego szkolenia uczestnicy będą mogli
- Skonfigurować niezbędne środowisko programistyczne, aby rozpocząć tworzenie potoków NLP za pomocą Spark NLP.
- Zrozumieć funkcje, architekturę i zalety korzystania z Spark NLP.
- Używać wstępnie wytrenowanych modeli dostępnych w Spark NLP do implementacji przetwarzania tekstu.
- Dowiedz się, jak budować, trenować i skalować modele Spark NLP dla projektów klasy produkcyjnej.
- Zastosuj klasyfikację, wnioskowanie i analizę nastrojów w rzeczywistych przypadkach użycia (dane kliniczne, spostrzeżenia dotyczące zachowań klientów itp.)
Python i Spark dla Big Data (PySpark)
21 godzinW tym prowadzonym przez instruktora szkoleniu na żywo w Polsce uczestnicy dowiedzą się, jak używać Python i Spark razem do analizy dużych zbiorów danych podczas pracy nad ćwiczeniami praktycznymi.
Pod koniec tego szkolenia uczestnicy będą mogli:
- Dowiedzieć się, jak używać Sparka z Python do analizy Big Data.
- Pracować nad ćwiczeniami, które naśladują rzeczywiste przypadki.
- Używać różnych narzędzi i technik do analizy dużych zbiorów danych przy użyciu PySpark.
Python, Spark, oraz Hadoop dla Big Data
21 godzinTo prowadzone przez instruktora szkolenie na żywo w Polsce (na miejscu lub zdalnie) jest przeznaczone dla programistów, którzy chcą używać i integrować Spark, Hadoop i Python do przetwarzania, analizowania i przekształcania dużych i złożonych zestawów danych.
Pod koniec tego szkolenia uczestnicy będą mogli
- Skonfigurować środowisko niezbędne do rozpoczęcia przetwarzania dużych zbiorów danych za pomocą Spark, Hadoop i Python.
- Zrozumieć funkcje, podstawowe komponenty i architekturę Spark i Hadoop.
- Dowiedz się, jak zintegrować Spark, Hadoop i Python w celu przetwarzania dużych zbiorów danych.
- Poznanie narzędzi w ekosystemie Spark (Spark MlLib, Spark Streaming, Kafka, Sqoop, Kafka i Flume).
- Tworzenie systemów rekomendacji opartych na filtrowaniu kolaboracyjnym podobnych do Netflix, YouTube, Amazon, Spotify i Google.
- Wykorzystanie Apache Mahout do skalowania algorytmów uczenia maszynowego.
Apache Spark SQL
7 godzinSpark SQL to moduł Apache Spark do pracy z ustrukturyzowanymi i nieustrukturyzowanymi danymi. Spark SQL dostarcza informacji o strukturze danych, a także o wykonywanych obliczeniach. Informacje te mogą być wykorzystywane do przeprowadzania optymalizacji. Dwa typowe zastosowania Spark SQL to: - wykonywanie zapytań SQL. - odczytywanie danych z istniejącej instalacji Hive.
W tym prowadzonym przez instruktora szkoleniu na żywo (na miejscu lub zdalnie) uczestnicy dowiedzą się, jak analizować różne typy zestawów danych za pomocą Spark SQL.
Po zakończeniu tego szkolenia uczestnicy będą w stanie
- Instalowanie i konfigurowanie Sparka SQL.
- Przeprowadzanie analizy danych przy użyciu Spark SQL.
- Zapytania do zestawów danych w różnych formatach.
- Wizualizacja danych i wyników zapytań.
Format kursu
- Interaktywny wykład i dyskusja.
- Dużo ćwiczeń i praktyki.
- Praktyczne wdrożenie w środowisku live-lab.
Opcje dostosowywania kursu
- Aby zamówić niestandardowe szkolenie dla tego kursu, skontaktuj się z nami.
Stratio: Moduły Rakietowe i Inteligencji z PySpark
14 godzinStratio to platforma centrowana na danych, która integruje big data, sztuczną inteligencję i zarządzanie w jedno rozwiązanie. Jej moduły Rocket i Intelligence umożliwiają szybkie eksplorowanie, transformację i zaawansowaną analitykę danych w środowiskach korporacyjnych.
To szkolenie prowadzone przez instruktora (online lub stacjonarnie) jest skierowane do profesjonalistów danych na poziomie średnim, którzy chcą efektywnie wykorzystywać moduły Rocket i Intelligence w Stratio z użyciem PySpark, skupiając się na strukturach pętli, funkcjach zdefiniowanych przez użytkownika oraz zaawansowanej logice danych.
Na koniec tego szkolenia uczestnicy będą w stanie:
- Poruszać się i pracować w platformie Stratio za pomocą modułów Rocket i Intelligence.
- Zastosować PySpark w kontekście wczytywania, transformacji i analizy danych.
- Używać pętli i logiki warunkowej do kontrolowania przepływu danych i zadań inżynierii cech.
- Tworzyć i zarządzać funkcjami zdefiniowanymi przez użytkownika (UDF) do powtarzalnych operacji danych w PySpark.
Format kursu
- Interaktywne wykłady i dyskusje.
- Dużo ćwiczeń i praktyki.
- Ręczne wdrożenie w środowisku live-lab.
Opcje dostosowania kursu
- Aby poprosić o dostosowane szkolenie dla tego kursu, skontaktuj się z nami w celu ustalenia szczegółów.