溫馨提示×

溫馨提示×

您好,登錄后才能下訂單哦!

密碼登錄×
登錄注冊×
其他方式登錄
點擊 登錄注冊 即表示同意《億速云用戶服務條款》

Hadoop回收站及fs.trash參數(shù)詳解

發(fā)布時間:2020-07-16 03:12:30 來源:網(wǎng)絡 閱讀:507 作者:wangkunj 欄目:大數(shù)據(jù)

前言:

  • Linux系統(tǒng)里,個人覺得最大的不方便之一就是沒有回收站的概念。rm -rf很容易造成極大的損失。而在Hadoop或者說HDFS里面,有trash(回收站)的概念,可以使得數(shù)據(jù)被誤刪以后,還可以找回來。
  • Hadoop里的trash選項默認是關(guān)閉的,所以如果要生效,需要提前將trash選項打開,修改conf里的core-site.xml即可,下面我們測試下開啟前后的區(qū)別:
    1.不啟用trash
    [hadoop@hadoop000 ~]$ hdfs dfs -put test.log /
    [hadoop@hadoop000 ~]$ hdfs dfs -ls /
    Found 3 items
    -rw-r--r--   1 hadoop supergroup         34 2018-05-23 16:49 /test.log
    drwx------   - hadoop supergroup          0 2018-05-19 15:48 /tmp
    drwxr-xr-x   - hadoop supergroup          0 2018-05-19 15:48 /user
    # 刪除test.log 注意提示
    [hadoop@hadoop000 ~]$ hdfs dfs -rm -r /test.log
    Deleted /test.log
    # 重新查看 發(fā)現(xiàn)test.log被刪除
    [hadoop@hadoop000 ~]$ hdfs dfs -ls /
    Found 2 items
    drwx------   - hadoop supergroup          0 2018-05-19 15:48 /tmp
    drwxr-xr-x   - hadoop supergroup          0 2018-05-19 15:48 /user
    2.啟用trash
[hadoop@hadoop000 hadoop]$ pwd
/opt/software/hadoop-2.8.1/etc/hadoop
# 增加fs.trash參數(shù)配置 開啟trash(進程不需重啟)
[hadoop@hadoop000 hadoop]$ vi core-site.xml
    <property>
        <name>fs.trash.interval</name>
        <value>1440</value>
    </property>
    <property>
        <name>fs.trash.checkpoint.interval</name>
        <value>1440</value>
    </property>
# fs.trash.interval是在指在這個回收周期之內(nèi),文件實際上是被移動到trash的這個目錄下面,而不是馬上把數(shù)據(jù)刪除掉。等到回收周期真正到了以后,hdfs才會將數(shù)據(jù)真正刪除。默認的單位是分鐘,1440分鐘=60*24,剛好是一天;fs.trash.checkpoint.interval則是指垃圾回收的檢查間隔,應該是小于或者等于fs.trash.interval。
# 參考官方文檔:http://hadoop.apache.org/docs/r2.8.4/hadoop-project-dist/hadoop-common/core-default.xml 

[hadoop@hadoop000 ~]$ hdfs dfs -put test.log /
[hadoop@hadoop000 ~]$ hdfs dfs -ls /                           
Found 3 items
-rw-r--r--   1 hadoop supergroup         34 2018-05-23 16:54 /test.log
drwx------   - hadoop supergroup          0 2018-05-19 15:48 /tmp
drwxr-xr-x   - hadoop supergroup          0 2018-05-19 15:48 /user
# 刪除test.log 注意提示的不同
[hadoop@hadoop000 ~]$ hdfs dfs -rm -r /test.log                
18/05/23 16:54:55 INFO fs.TrashPolicyDefault: Moved: 'hdfs://192.168.6.217:9000/test.log' to trash at: hdfs://192.168.6.217:9000/user/hadoop/.Trash/Current/test.log
# 發(fā)現(xiàn)刪除的文件在回收站里
[hadoop@hadoop000 ~]$ hdfs dfs -ls /user/hadoop/.Trash/Current
Found 1 items
-rw-r--r--   1 hadoop supergroup         34 2018-05-23 16:54 /user/hadoop/.Trash/Current/test.log
# 恢復誤刪除的文件
[hadoop@hadoop000 ~]$ hdfs dfs -mv /user/hadoop/.Trash/Current/test.log /test.log
[hadoop@hadoop000 ~]$ hdfs dfs -ls /
Found 3 items
-rw-r--r--   1 hadoop supergroup         34 2018-05-23 16:54 /test.log
drwx------   - hadoop supergroup          0 2018-05-19 15:48 /tmp
drwxr-xr-x   - hadoop supergroup          0 2018-05-19 15:48 /user
向AI問一下細節(jié)

免責聲明:本站發(fā)布的內(nèi)容(圖片、視頻和文字)以原創(chuàng)、轉(zhuǎn)載和分享為主,文章觀點不代表本網(wǎng)站立場,如果涉及侵權(quán)請聯(lián)系站長郵箱:is@yisu.com進行舉報,并提供相關(guān)證據(jù),一經(jīng)查實,將立刻刪除涉嫌侵權(quán)內(nèi)容。

AI