RB11 - Big Data, méthodes et solutions

Référence RB11

Durée 5 days

Modalité Formations catalogue

2600 

UGS : RB11 Catégories : ,

target Objectives

Comprendre les concepts et l'apport du Big Data par rapport aux enjeux métiers.

Comprendre l'écosystème technologique nécessaire pour réaliser un projet Big Data.

Acquérir les compétences techniques pour gérer des flux de données complexes, non structurés et massifs.

Implémenter des modèles d'analyses statistiques pour répondre aux besoins métiers.

Appréhender un outil de data visualisation pour restituer des analyses dynamiques.

tablet Prerequistes

Connaissances de base des modèles relationnels, des statistiques et des langages de programmation. Connaissances de base des concepts de la Business Intelligence.

check Description

Ce stage vous permettra de comprendre les enjeux et les apports du Big Data ainsi que les technologies pour le mettre en œuvre. Vous apprendrez à intégrer des volumétries massives de données structurées et non structurées via un ETL, puis à les analyser grâce à des modèles statistiques et des dashboards dynamiques.

check user Audience profile

Dataminers, chargés d'études statistiques, développeurs, chefs de projet, consultants en informatique décisionnelle.

Discover lesson plan

Comprendre les concepts et les enjeux du Big Data

Origines et définition du Big Data.
Les chiffres clés du marché dans le monde et en France.
Les enjeux du Big Data : ROI, organisation, confidentialité des données.
Un exemple d’architecture Big Data.
Les technologies du Big Data

Description de l’architecture et des composants de la plateforme Hadoop.
Les modes de stockage (NoSQL, HDFS).
Principes de fonctionnement de MapReduce, Spark, Storm…
Principales distributions du marché (Hortonworks, Cloudera, MapR, Elastic Map Reduce, Biginsights).
Installer une plateforme Hadoop.
Les technologies du datascientist.
Présentation des technologies spécifiques pour le Big Data (Tableau, Talend, Qlikview …).
Travaux pratiques

Installation d’une plateforme Big Data Hadoop (via Cloudera QuickStart ou autre).

Gérer les données structurées et non structurées

Principes de fonctionnement de Hadoop Distributed File System (HDFS).
Importer des données externes vers HDFS.
Réaliser des requêtes SQL avec HIVE.
Utiliser PIG pour traiter la donnée.
Le principe des ETL (Talend…).
Gestion de streaming de données massive (NIFI, Kafka, Spark, Storm…)
Travaux pratiques

Implémentation de flux de données massives.

L’univers NoSQL

Le théorème CAP
NoSQL
Les entrepôts clé­valeur
Les bases orientées documents
Les bases orientées colonnes
Le déluge des données
La diversité des sources
La diversité des formats
Travaux pratiques

Mise en place une base de données NoSQL.

Technique et méthodes Big data analytics

Machine Learning, une composante de l’intelligence artificielle.
Découvrir les trois familles : Régression, Classification et Clustering.
La préparation des données (data preparation, feature engineering).
Générer des modèles en R ou Python.
Ensemble Learning.
Découvrir les outils du marché : Jupyter Notebook, Dataïku, DataBricks, Amazon Machine Learning…
Travaux pratiques

Mise en place d’analyses avec une des outils étudiés.

Data visualisation et cas d’usage concrets

Définir le besoin de la data visualisation.
Analyse et visualisation des données.
Peut concerner tous les types de données dans la DataViz ?
Les outils DataViz du marché.
Travaux pratiques

Installation et utilisation d’un outil de Data Visualisation pour constituer des analyses dynamiques.

Conclusion

Ce qu’il faut retenir.
Synthèse des bonnes pratiques.
Bibliographie.