您好,登錄后才能下訂單哦!
? 注意:"# ./hdfs dfs -ls /"命令前的"#"代表當(dāng)前登錄用戶是root。運(yùn)行路徑位于hadoop目錄中的bin文件夾下。命令中的"."代表當(dāng)前目錄。命令中涉及的info文件需要提前創(chuàng)建好。如下圖所示:
# ./hdfs dfs -ls /
drwxr-xr-x - root supergroup 0 2018-07-30 00:09 /hbase
drwxr-xr-x - root supergroup 0 2018-06-23 15:22 /output
drwx------ - root supergroup 0 2018-07-31 00:32 /tmp
drwxr-xr-x - root supergroup 0 2018-07-31 00:41 /user
-rw-r--r-- 2 root supergroup 77 2018-04-22 02:34 /wordcount
# ./hdfs dfs -mkdir /wanhe
# ./hdfs dfs -ls /
drwxr-xr-x - root supergroup 0 2018-07-30 00:09 /hbase
drwxr-xr-x - root supergroup 0 2018-06-23 15:22 /output
drwx------ - root supergroup 0 2018-07-31 00:32 /tmp
drwxr-xr-x - root supergroup 0 2018-07-31 00:41 /user
drwxr-xr-x - root supergroup 0 2018-09-12 18:00 /wanhe
-rw-r--r-- 2 root supergroup 77 2018-04-22 02:34 /wordcount
# ./hdfs dfs -put info /wanhe
# ./hdfs dfs -ls /wanhe
-rw-r--r-- 2 root supergroup 38 2018-09-12 18:10 /wanhe/info
# rm -rf info
# ls
container-executor hadoop hadoop.cmd hdfs hdfs.cmd mapred mapred.cmd rcc test-container-executor yarn yarn.cmd
# ./hdfs dfs -get /wanhe/info ./
# ls
container-executor hadoop hadoop.cmd hdfs hdfs.cmd info mapred mapred.cmd rcc test-container-executor yarn yarn.cmd
# ./hdfs dfs -rm /wanhe/info
# ./hdfs dfs -ls /wanhe
空
# ./hdfs dfs -moveFromLocal info /wanhe
# ./hdfs dfs -ls /wanhe
-rw-r--r-- 2 root supergroup 38 2018-09-12 22:04 /wanhe/info
# ls
container-executor hadoop hadoop.cmd hdfs hdfs.cmd mapred mapred.cmd rcc test-container-executor yarn yarn.cmd
# ./hdfs dfs -cat /wanhe/info
jiangsuwanhe
# ./hdfs dfs -appendToFile info /wanhe/info
# ./hdfs dfs -cat /wanhe/info
jiangsuwanhe
jiangsuwanhe
# ./hdfs dfs -ls /wanhe
-rw-r--r-- 2 root supergroup 51 2018-09-12 22:13 /wanhe/info
# ./hdfs dfs -chmod 777 /wanhe/info
# ./hdfs dfs -ls /wanhe
-rwxrwxrwx 2 root supergroup 51 2018-09-12 22:13 /wanhe/info
將/wanhe/info拷貝到/tmp下:
# ./hdfs dfs -cp /wanhe/info /tmp/
# ./hdfs dfs -ls /tmp
-rw-r--r-- 2 root supergroup 51 2018-09-12 22:20 /tmp/info
將/wanhe/info移動(dòng)到 /user下
# ./hdfs dfs -mv /wanhe/info /user/
# ./hdfs dfs -ls /wanhe
空
# ./hdfs dfs -ls /user
-rwxrwxrwx 2 root supergroup 51 2018-09-12 22:13 /user/info
# ./hdfs dfs -df -h /
Filesystem Size Used Available Use%
hdfs://master:9000 17.5 G 352 K 11.4 G 0%
# ./hdfs dfs -du /user
51 /user/info
# ./hdfs dfs -count /user
2 1 51 /user
第一列2表示/user/下文件夾的數(shù)量,第二列1表示/user/下文件的個(gè)數(shù)。51表示/user/目錄下所有文件占用的磁盤容量(不計(jì)算副本個(gè)數(shù))。
? HDFS中的命令行操作類似于linux命令,熟練使用linux命令便可以熟練的使用命令行操作HDFS。后面我們將連載大數(shù)據(jù)系列博客,歡迎關(guān)注和交流。
免責(zé)聲明:本站發(fā)布的內(nèi)容(圖片、視頻和文字)以原創(chuàng)、轉(zhuǎn)載和分享為主,文章觀點(diǎn)不代表本網(wǎng)站立場(chǎng),如果涉及侵權(quán)請(qǐng)聯(lián)系站長(zhǎng)郵箱:is@yisu.com進(jìn)行舉報(bào),并提供相關(guān)證據(jù),一經(jīng)查實(shí),將立刻刪除涉嫌侵權(quán)內(nèi)容。