IFGPE > Big Data – Mise en oeuvre pratique d’une solution complète d’analyse des données
Formation People Cert

Big Data – Mise en oeuvre pratique d’une solution complète d’analyse des données
Formation non certifiante

Objectifs

  • Disposer des compétences techniques nécessaires à la mise en oeuvre d’analyses Big Data
  • Comprendre le cadre juridique du stockage et de l’analyse de données
  • Savoir utiliser des outils de collecte opensource
  • Être en mesure de choisir la bonne solution de stockage de données au regard des spécificités d’un projet (OLAP, NoSQL, graph)
  • Explorer la boite à outils technologique que constitue Hadoop et son écosystème et savoir comment utiliser chaque brique (MapReduce, HIVE, SPARK,…)
  • Apprendre à analyser les résultats et comprendre la signification des données extraites

Participants

  • Chefs de projet
  • Data Scientists, Data Analysts
  • Développeurs
  • Analystes et statisticien
  • Toute personne en charge de la mise en oeuvre opérationnelle d’un projet Big Data en environnement Hadoop

Déroulement

  • L’accueil au centre en salle dédiée 15 minutes avant le début de la formation, petits déjeuners, boissons, pauses gourmandes
  • Présentation du formateur et des participants
  • Le support de cours format papier personnalisé
  • La formation par un formateur expert
  • La préparation intensive à l’examen de certification
  • Le passage de la certification
  • L’envoi des résultats par e-mail puis certificat officiel envoyé par courriel
  • Les déjeuners complets
  • Formation en français

Programme

La collecte de données
  • Où et comment collecter des données ?
  • Les sources de données, les API, les fournisseurs, les agrégateurs…
  • Les principaux outils de collecte et de traitement de l’information (ETL)
  • Prise en main de Talend ETL et de Talend Data Preparation (outils libres)
  • Les particularités de la collecte des données semi-structurées et non-structurées
Le stockage les données
  • Les différentes formes de stockage des données : rappel de l’architecture relationnelle de stockage des données transactionnelles (SGBD/R) et multidimensionnelles (OLAP)
  • Les nouvelles formes de stockage des données – compréhension, positionnement et comparaison : Bases orientées clé-valeur, documents, colonnes, graphes
  • Panorama des bases de données NoSQL
  • Prise en main d’une base de données orientée colonne (Hbase)
  • Particularités liées au stockage des données non-structurées
  • Comment transformer des données non structurées en données structurées
L’écosystème Hadoop
  • Présentation des principaux modules de la distribution Apache Hadoop
  • Présentation et comparaison des principales distributions commerciales (Cloudera, Hortonworks…)
  • L’infrastructure matérielle et logicielle nécessaire au fonctionnement d’une distribution Hadoop en local ou dans le Cloud
  • Les concepts de base de l’architecture Hadoop: Data Node, Name Node, Job Tracker, Task Tracker
  • Présentation de HDFS (Système de gestion des fichiers de Hadoop)
  • Prise en main et exercices pratiques dans HDFS
  • Présentation de MapReduce (Outil de traitement de Hadoop)
  • Les commandes exécutées au travers de PIG
  • Utilisation de HIVE pour transformer du SQL en MapReduce
L’analyse de données
  • Requêter les données
  • Analyser et comprendre la signification des données extraites
  • Particularités liées à l’analyse des données non structurées
  • Analyse statistique : notions de base
  • Analyse prédictive : comment transformer des données du passé en prévisions pour le futur
  • Calculer des tendances
  • Développer des programmes simples d’automatisation des analyses (en Python)
  • Machine Learning : les bases de l’apprentissage machine avec Spark
  • Deep Learning : notions de base de l’analyse future automatisée de données non structurées
Mise en oeuvre de projets BigData
  • Automatisation de tâches avec Oozie
  • Mise en production de programmes de Machine Learning
  • L’utilisation des notebooks comme délivrables
  • Traitement du temps réel
  • Gouvernance de données Big Data
Les plus de cette formation Big Data
  • Une formation très opérationnelle durant laquelle s’alternent les phases d’apports théoriques, d’échanges, de partage d’expériences.
  • Les ateliers s’appuieront sur des cas réels ; les participants extrairont, stockeront et analyseront des données réelles, en provenance de données ouvertes pour réaliser leurs analyses dans un environnement le plus proche possible de la réalité.
  • L’ensemble des ateliers est réalisé sur une plateforme Cloud (Azure, HDInsight,…)
  • Les retours d’expérience et conseils de consultants experts du domaine.
  • ifg-bd550
  • 4 jours
  • 2290
 
  • Dates d'inscriptionCentre Paris

  • 01 42 60 10 55
  • contact@ifgpe.fr

Parlez en autour de vous

Le retour des formés