Mickaelbaron-Hadoopinstallation Part8
Mickaelbaron-Hadoopinstallation Part8
Mickaelbaron-Hadoopinstallation Part8
Comme vous pouvez le constatez il s'agit des commandes de bases qu'un utilisateur d'un système POSIX, Linux par
exemple, aurait l'habitude de manipuler. Nous dénoterons toutefois deux principales différences.
• La première différence concerne l'appel à une commande HDFS qui doit se faire comme une sous-
commande de la commande Hadoop. Cela peut vite devenir contraignant. De même, vous ne pourrez pas
exploiter l'aide à la complétion sur les fichiers HDFS, il faudra saisir entièrement les noms de fichiers.
• La seconde différence concerne l'absence de répertoire courant. Il n'y a donc pas de possibilité d'utiliser
la commande cd puisqu'elle n'existe pas. Par conséquent tous les chemins sont absolus ou relatifs par
rapport au répertoire de l'utilisateur en cours (dans notre cas il s'agira de /user/hdfs et /user/hduser). Pour le
chemin absolu, deux écritures sont autorisées : une écriture via une URL, par exemple, hdfs://localhost:9000/
monfichier/premierfichier.txt et une écriture via une URI, par exemple, /monfichier/premierfichier.txt.
La localisation du namenode hdfs://localhost:9000 est définie par la valeur de la propriété fs.defaultFS
(paramètre présent dans le fichier core-site.xml). À noter que si un chemin absolu avec une URI est utilisé, il
sera complété par la localisation du nœud namenode.
Des solutions existent pour faciliter l'utilisation d'HDFS. Nous montrons par exemple comment
monter HDFS depuis un système de fichiers local via la section Monter un disque HDFS
avec Fuse et Cloudera.
Concernant l'usage du chemin relatif dans le système de fichier HDFS, j'ai constaté que sur la version Cloudera, il était
nécessaire d'initialiser soi-même le répertoire /user/[USER]. Nous ferons cette initialisation quand nous étudierons
la mise en place des droits.
Intéressons-nous à expérimenter par des exemples l'usage de quelques commandes de base, à savoir l'affichage
d'un répertoire, la copie de fichiers depuis ou vers HDFS, la suppression de fichiers et la modification des droits sur
un répertoire.
La lecture d'un fichier se fera par la sous commande -ls. L'exemple ci-dessous liste l'ensemble des fichiers du
répertoire utilisateur hdfs.
- 15 -
Le contenu de cet article est rédigé par Mickael BARON et est mis à disposition selon les termes de la Licence Creative Commons Attribution - Partage dans les Mêmes Conditions 3.0 non
transposé. Les logos Developpez.com, en-tête, pied de page, css, et look & feel de l'article sont Copyright ® 2018 Developpez.com.
https://mbaron.developpez.com/tutoriels/bigdata/hadoop/installation-configuration-cluster-singlenode-avec-cloudera-cdh5/
Tutoriel d'introduction à Apache Hadoop par Mickael BARON
Les informations retournées sont très similaires à ce qu'on obtient avec la commande Linux ls -l, à part une différence
notable qui vient de la seconde colonne donnant le facteur de réplication du fichier considéré. Dans notre cas, celui-
ci vaut 1 puisque nous avons configuré un cluster avec un nœud unique.
Nous donnons ci-dessous un exemple qui liste le contenu du répertoire racine en utilisant un chemin absolu via une
URI /.
Ci-dessous nous obtenons le même résultat en utilisant cette fois un chemin absolu via une URL hdfs://
localhost:9000/.
La copie de fichiers est similaire à ce que nous pouvons réaliser depuis un système de fichiers distant comme par
exemple FTP. Ainsi, la copie de fichiers vers le système de fichiers HDFS depuis le système local, se fait via la
commande -put ou son alias -copyFromLocal. La copie de fichiers vers le système local ou vers le système de fichiers
HDFS se fait via la commande -get ou son alias -copyToLocal. À noter que les commandes -moveFromLocal et -
moveToLocal copieront les fichiers depuis ou vers le système de fichiers HDFS et supprimeront les fichiers sources.
Ci-dessous nous donnons un exemple permettant de copier un fichier depuis le système de fichiers local vers le
système de fichiers HDFS.
Enfin, nous donnons à la suite un exemple permettant de copier un fichier depuis le système de fichiers HDFS vers
le système de fichiers local.
- 16 -
Le contenu de cet article est rédigé par Mickael BARON et est mis à disposition selon les termes de la Licence Creative Commons Attribution - Partage dans les Mêmes Conditions 3.0 non
transposé. Les logos Developpez.com, en-tête, pied de page, css, et look & feel de l'article sont Copyright ® 2018 Developpez.com.
https://mbaron.developpez.com/tutoriels/bigdata/hadoop/installation-configuration-cluster-singlenode-avec-cloudera-cdh5/