Accueil    Formations    Informatique    Big Data    Big Data - Infrastructure    Hadoop - Stockage avec HBase

Partager cette formation Télécharger au format pdf Ajouter à mes favoris

Objectifs pédagogiques / Compétences visées

  • Comprendre le fonctionnement de HBase
  • Mettre en place une configuration distribuée.

Niveau requis

Avoir connaissance des principes de base Hadoop et des bases de données.

Public concerné

Chefs de projets, administrateurs ou toute personne souhaitant stocker des données avec HBase.

Programme

Introduction

  • Rappels rapides sur l'écosystème Hadoop
  • Les fonctionnalités du framework Hadoop
  • Le projet et les modules :
    • Hadoop Common
    • HDFS
    • YARN
    • Spark
    • MapReduce
  • Présentation HBase
    • Historique
    • Lien avec HDFS
  • Format des données dans HBase
  • Définitions :
    • Table
    • Région
    • Ligne
    • Famille de colonnes
    • Cellules
    • Espace de nommage
  • Fonctionnalités :
    • Failover automatique
    • Sharding
    • Interface avec des jobs MapReduce

Architecture

  • HBase master node, région master, liens avec les clients HBase
  • Présentation du rôle de ZooKeeper

Installation

  • Choix des packages
  • Installation et configuration dans le fichier conf/hbase-site.xml
  • Installation en mode distribué
  • Test de connexion avec HBase Shell

Exemple de travaux pratiques (à titre indicatif)

  • Interrogations depuis le serveur HTTP intégré

HBase utilisation : Shell

  • Présentation des différentes interfaces disponibles
  • Commandes de base, syntaxe, variable, manipulation des données :
    • Create
    • List
    • Put
    • Scan
    • Get
  • Désactiver une table ou l'effacer :
    • Disable (enable)
    • Drop
  • Programmation de scripts
  • Gestion des tables : principe des filtres
  • Mise en oeuvre de filtres de recherche, paramètres des tables
  • Présentation des espaces de nommage

Exemple de travaux pratique (à titre indicatif)

  • HBase Shell

Cluster HBase

  • Fonctionnement en mode distribué
  • Première étape : fonctionnement indépendant des démons
    • HMaster
    • HRegionServer
    • ZooKeeper
  • Deuxième étape : passage en mode distribué
    • Mise en oeuvre avec HDFS dans un environnement distribué

Exemple de travaux pratiques (à titre indicatif)

  • Mise en oeuvre des splits sur un exemple de tables réparties

Programmation

  • Introduction - Les API
    • REST
    • Avro
    • Thrift
    • Java
    • Ruby
    • Spark...
  • Principe des accès JMX
    • Démonstration avec Prometheus
  • Exemple de programmation d'un client Java
  • Gestion des tables - Lien avec MapReduce

Exemple de travaux pratiques (à titre indicatif)

  • Lancement et écriture de programmes Spark

Modalités d’évaluation des acquis

L'évaluation des acquis se fait :

  • En cours de formation, par des études de cas ou des travaux pratiques
  • Et, en fin de formation, par un questionnaire d'auto-évaluation ou une certification (M2i ou éditeur)

Partager cette formation Télécharger au format pdf Ajouter à mes favoris

Vous souhaitez suivre cette formation ?

Cette formation est disponible en présentiel ou en classe à distance, avec un programme et une qualité pédagogique identiques.

Choisissez la modalité souhaitée pour vous inscrire :

Votre société a besoin d'une offre personnalisée ? Contactez-nous

Faites-nous part de votre projet de formation, nous sommes là pour vous guider.

Contactez-nous