Toutes les commandes HDFS utilise la syntaxe suivante :
hdfs [SHELL_OPTIONS] COMMAND [GENERIC_OPTIONS] [COMMAND_OPTIONS] |
Voici les commandes disponibles avec le HDFS :
Nom | Description |
---|---|
balancer | Cette commande permet d'exécuter un utilitaire d'équilibrage de l'unité d'allocation. Un administrateur peut simplement appuyer sur Ctrl+C pour arrêter le processus de rééquilibrage. |
cacheadmin | Cette commande permet d'effectuer la gestion du cache administrateur. |
classpath | Cette commande permet d'afficher le chemin de classe nécessaire pour obtenir le fichier jar de Hadoop et les bibliothèques requises. |
computeMeta | Cette commande permet de calculer les métadonnées HDFS à partir de fichiers de bloc. |
crypto | Cette commande permet de gérer l'encryption. |
datanode | Cette commande permet d'exécuter un noeud de données. |
dfs | Cette commande permet d'exécuter une commande de système de fichiers sur le système de fichiers pris en charge dans Hadoop. |
dfsadmin | Cette commande permet d'exécuter un client dfsadmin pour HDFS. |
dfsrouter | Cette commande permet d'exécuter le routeur DFS. |
dfsrouteradmin | Cette commande permet d'effectuer la gestion de la fédération basée sur un routeur. |
diskbalancer | Cette commande permet d'exécuter le CLI du diskbalancer. |
ec | Cette commande permet d'exécuter le CLI du ErasureCoding. |
envvars | Cette commande permet d'afficher les variables d'environnement Hadoop calculées. |
fetchdt | Cette commande permet de demander le jeton de délégation d'un nom de noeud. |
fsck | Cette commande permet d'exécuter l'utilitaire de vérification du système de fichiers HDFS. |
getconf | Cette commande permet de demander les informations de configuration à partir du répertoire de configuration, post-traitement. |
groups | Cette commande permet de demander les informations de groupe en fonction d'un ou de plusieurs noms d'utilisateur. |
haadmin | Cette commande permet d'effectuer la gestion de l'administrateur HA. |
httpfs | Cette commande permet d'exécuter le serveur HttpFS et la passerelle HTTP de HDFS. |
journalnode | Cette commande permet de démarrer un nom de journal de bord à utiliser dans HDFS HA avec QJM. |
lsSnapshottableDir | Cette commande permet de demander la liste des répertoires snapshottable. Lorsqu'il est exécuté en tant que super utilisateur, il renvoie tous les répertoires snapshottable. Sinon, il renvoie les répertoires appartenant à l'utilisateur actuel. |
jmxget | Cette commande permet de vider les informations JMX d'un service. |
mover | Cette commande permet d'exécuter l'utilitaire de migration de données. |
namenode | Cette commande permet d'exécuter le nom du noeud. |
nfs3 | Cette commande permet de démarrer la passerelle NFS3 à utiliser avec le service NFS3 du HDFS. |
oev | Cette commande permet d'indiquer que Hadoop doit éditer en mode hors ligne le visualiseur. |
oiv | Cette commande permet d'appeler le Hadoop Offline Image Viewer pour les fichiers image dans Hadoop 2.4 ou version ultérieure. |
oiv_legacy | Cette commande permet de visualiser les images hors connexion Hadoop pour les anciennes versions de Hadoop. |
portmap | Cette commande permet de démarrer la carte de port RPC à utiliser avec le service NFS3 du HDFS. |
recoverLease | Cette commande permet de récupérer le bail sur le chemin spécifié. |
secondarynamenode | Cette commande permet d'exécuter le nom du noeud secondaire de HDFS. |
storagepolicies | Cette commande permet d'afficher la liste de toutes les politiques d'entreposage Gets/sets/unsets. |
snapshotDiff | Cette commande permet de déterminer la différence entre les instantanés HDFS. |
verifyMeta | Cette commande permet de vérifier les métadonnées HDFS et bloquer les fichiers. |
version | Cette commande permet d'afficher la version de la commande. |
zkfc | Cette commande permet de démarrer un processus de contrôleur de basculement Zookeeper à utiliser dans HDFS HA avec QJM. |
Dernière mise à jour : Vendredi, le 8 novembre 2019