Hadoop – Stockage avec HBase
25 HeuresFormation Hadoop – Stockage avec HBase
Objectifs de la formation Hadoop Hbase
L’objectif premier de cette formation Hadoop Hbase est de vous faire intégrer le fonctionnement de HBase, notamment le fait de bien maîtriser la mise en place d’une configuration distribuée.
À qui s’adresse cette formation ?
Public :
Ce cours s’adresse aux Chefs de projet, administrateurs ainsi qu’à toute personne souhaitant stocker des données avec Hbase.
Prérequis :
Pour suivre ce stage dans les meilleures conditions possibles, il vous faut avoir certaines connaissance des principes de base Hadoop et des bases de données.
Contenu du cours Hadoop Hbase
Introduction à Hadoop
- Rappels rapides sur l’ecosystème Hadoop.
- Les fonctionnalités du framework Hadoop.
- Le projet et les modules : Hadoop Common, HDFS, YARN, Spark, MapReduce.
- Présentation HBase. Historique. Lien avec HDFS.
- Format des données dans HBase.
- Définitions : table, région, ligne, famille de colonnes,cellules, espace de nommage, …
- Fonctionnalités : failover automatique, sharding,
- Interface avec des jobs MapReduce.
Architecture Hbase
- HBase master node, Region Master, liens avec les clients HBase.
- Présentation du rôle de Zookeeper.
Installation
- Choix des packages.
- Installation et configuration dans le fichier conf/hbase-site.xml
- Démarrage en mode standalone start-hbase.
- Test de connexion avec hbase shell.
- Installation en mode distribué.
Travaux pratiques :
Interrogations depuis le serveur http intégré.
HBase utilisation : shell
Présentation des différentes interfaces disponibles.
Travaux pratiques avec hbase shell.
- Commandes de base, syntaxe, variables,
- Manipulation des données : create, list, put, scan, get
- Désactiver une table ou l’effacer : disable (enable), drop, …
- Programmation de scripts.
- Gestion des tables : principe des filtres.
- Mise en oeuvre de filtres de recherche, paramètres des tables.
- Présentation des espaces de nommage.
Cluster HBase
- Fonctionnement en mode distribué
- Première étape : fonctionnement indépendant des démons (HMaster, HRegionServer, Zookeeper)
- Passage au mode distribué : mise en oeuvre avec HDFS dans un environnement distribué.
Travaux pratiques:
Sur un exemple de tables réparties : mise en oeuvre des splits.
Programmation
- Introduction, les APIs (REST, Avro, Thrift, Java, Ruby, …)
- Utilisation d’un client Java.
- Gestion des tables.Lien avec MapReduce.
- Principe des accès JMX.
Travaux pratiques :
Création d’un client JMX