溫馨提示×

溫馨提示×

您好,登錄后才能下訂單哦!

密碼登錄×
登錄注冊×
其他方式登錄
點擊 登錄注冊 即表示同意《億速云用戶服務(wù)條款》

Linux系統(tǒng)如何部署Hadoop集群

發(fā)布時間:2022-01-25 10:12:15 來源:億速云 閱讀:144 作者:小新 欄目:開發(fā)技術(shù)

這篇文章將為大家詳細講解有關(guān)Linux系統(tǒng)如何部署Hadoop集群,小編覺得挺實用的,因此分享給大家做個參考,希望大家閱讀完這篇文章后可以有所收獲。

Hadoop簡介:

  • Hadoop是Apache旗下的一個用java語言實現(xiàn)開源軟件框架,是一個開發(fā)和運行處理大規(guī)模數(shù)據(jù)的軟件平臺

  • Hadoop允許使用簡單的編程模型在大量計算機集群上對大型數(shù)據(jù)集進行分布式處理。

Linux系統(tǒng)如何部署Hadoop集群

  • 狹義上說,Hadoop指Apache這款開源框架,它的核心組件有:

  • HDFS(分布式文件系統(tǒng)):解決海量數(shù)據(jù)存儲

  • YARN(作業(yè)調(diào)度和集群資源管理的框架):解決資源任務(wù)調(diào)度

  • MAPREDUCE(分布式運算編程框架):解決海量數(shù)據(jù)計算

廣義上來說,Hadoop通常是指一個更廣泛的概念——Hadoop生態(tài)圈。

Linux系統(tǒng)如何部署Hadoop集群

當下的Hadoop已經(jīng)成長為一個龐大的體系,隨著生態(tài)系統(tǒng)的成長,新出現(xiàn)的項目越來越多,其中不乏一些非Apache主管的項目,這些項目對HADOOP是很好的補充或者更高層的抽象。

Linux系統(tǒng)安裝Hadoop步驟

安裝ssh服務(wù)

  進入shell命令,輸入如下命令,查看是否已經(jīng)安裝好ssh服務(wù),若沒有,則使用如下命令進行安裝:

    sudo apt-get install ssh openssh-server

  安裝過程還是比較輕松加愉快的。

使用ssh進行無密碼驗證登錄

  1.創(chuàng)建ssh-key,這里我們采用rsa方式,使用如下命令:

    ssh-keygen -t rsa -P “”

  2.出現(xiàn)一個圖形,出現(xiàn)的圖形就是密碼,不用管它

    cat ~/.ssh/id_rsa.pub >> authorized_keys(好像是可以省略的)

  3.然后即可無密碼驗證登錄了,如下:

    ssh localhost

  成功截圖如下:

    Linux系統(tǒng)如何部署Hadoop集群

下載Hadoop安裝包

  下載Hadoop安裝也有兩種方式

    1.直接上官網(wǎng)進行下載,http://mirrors.hust.edu.cn/apache/hadoop/core/stable/hadoop-2.7.1.tar.gz

    2.使用shell進行下載,命令如下:

      wget http://mirrors.hust.edu.cn/apache/hadoop/core/stable/hadoop-2.7.1.tar.gz

  貌似第二種的方法要快點,經(jīng)過漫長的等待,終于下載完成。

解壓縮Hadoop安裝包

  使用如下命令解壓縮Hadoop安裝包

    tar -zxvf hadoop-2.7.1.tar.gz

  解壓縮完成后出現(xiàn)hadoop2.7.1的文件夾

配置Hadoop中相應(yīng)的文件

  需要配置的文件如下,hadoop-env.sh,core-site.xml,mapred-site.xml.template,hdfs-site.xml,所有的文件均位于hadoop2.7.1/etc/hadoop下面,具體需要的配置如下:

  1.core-site.xml 配置如下:    

                  hadoop.tmp.dir        file:/home/leesf/program/hadoop/tmp        Abase for other temporary directories.                    fs.defaultFS        hdfs://localhost:9000          

  其中的hadoop.tmp.dir的路徑可以根據(jù)自己的習(xí)慣進行設(shè)置。

  2.mapred-site.xml.template配置如下:    

                  mapred.job.tracker        localhost:9001          

  3.hdfs-site.xml配置如下:

                  dfs.replication        1                    dfs.namenode.name.dir        file:/home/leesf/program/hadoop/tmp/dfs/name                    dfs.datanode.data.dir        file:/home/leesf/program/hadoop/tmp/dfs/data          

  其中dfs.namenode.name.dir和dfs.datanode.data.dir的路徑可以自由設(shè)置,最好在hadoop.tmp.dir的目錄下面。

  補充,如果運行Hadoop的時候發(fā)現(xiàn)找不到j(luò)dk,可以直接將jdk的路徑放置在hadoop.env.sh里面,具體如下:

    export JAVA_HOME=”/home/leesf/program/java/jdk1.8.0_60″

運行Hadoop

  在配置完成后,運行hadoop。

  1.初始化HDFS系統(tǒng)

    在hadop2.7.1目錄下使用如下命令:

    bin/hdfs namenode -format

    截圖如下:

    Linux系統(tǒng)如何部署Hadoop集群 

    過程需要進行ssh驗證,之前已經(jīng)登錄了,所以初始化過程之間鍵入y即可。

    成功的截圖如下:

    Linux系統(tǒng)如何部署Hadoop集群

    表示已經(jīng)初始化完成。

  2.開啟NameNodeDataNode守護進程

    使用如下命令開啟:

    sbin/start-dfs.sh,成功的截圖如下:

    Linux系統(tǒng)如何部署Hadoop集群

  3.查看進程信息

    使用如下命令查看進程信息

    jps,截圖如下:

    Linux系統(tǒng)如何部署Hadoop集群

    表示數(shù)據(jù)DataNode和NameNode都已經(jīng)開啟

  4.查看Web UI

    在瀏覽器中輸入http://localhost:50070,即可查看相關(guān)信息,截圖如下:

    Linux系統(tǒng)如何部署Hadoop集群

  至此,hadoop的環(huán)境就已經(jīng)搭建好了。下面開始使用hadoop來運行一個WordCount例子。

運行WordCount Demo

  1.在本地新建一個文件,筆者在home/leesf目錄下新建了一個words文檔,里面的內(nèi)容可以隨便填寫。

  2.在HDFS中新建一個文件夾,用于上傳本地的words文檔,在hadoop2.7.1目錄下輸入如下命令:

    bin/hdfs dfs -mkdir /test,表示在hdfs的根目錄下建立了一個test目錄

    使用如下命令可以查看HDFS根目錄下的目錄結(jié)構(gòu)

    bin/hdfs dfs -ls /

    具體截圖如下:

    Linux系統(tǒng)如何部署Hadoop集群

    表示在HDFS的根目錄下已經(jīng)建立了一個test目錄

  3.將本地words文檔上傳到test目錄中

    使用如下命令進行上傳操作:

    bin/hdfs dfs -put /home/leesf/words /test/

    使用如下命令進行查看

    bin/hdfs dfs -ls /test/

    結(jié)果截圖如下:

    Linux系統(tǒng)如何部署Hadoop集群

    表示已經(jīng)將本地的words文檔上傳到了test目錄下了。

  4.運行wordcount

    使用如下命令運行wordcount:

    bin/hadoop jar share/hadoop/mapreduce/hadoop-mapreduce-examples-2.7.1.jar wordcount /test/words /test/out

    截圖如下:

    Linux系統(tǒng)如何部署Hadoop集群

    運行完成后,在/test目錄下生成名為out的文件,使用如下命令查看/test目錄下的文件

    bin/hdfs dfs -ls /test

    截圖如下:

    Linux系統(tǒng)如何部署Hadoop集群

    表示在test目錄下已經(jīng)有了一個名為Out的文件目錄

    輸入如下命令查看out目錄下的文件:

    bin/hdfs dfs -ls /test/out,結(jié)果截圖如下:

    Linux系統(tǒng)如何部署Hadoop集群

    表示已經(jīng)成功運行了,結(jié)果保存在part-r-00000中。

  5.查看運行結(jié)果

    使用如下命令查看運行結(jié)果:

    bin/hadoop fs -cat /test/out/part-r-00000

    結(jié)果截圖如下:

    Linux系統(tǒng)如何部署Hadoop集群

關(guān)于“Linux系統(tǒng)如何部署Hadoop集群”這篇文章就分享到這里了,希望以上內(nèi)容可以對大家有一定的幫助,使各位可以學(xué)到更多知識,如果覺得文章不錯,請把它分享出去讓更多的人看到。

向AI問一下細節(jié)

免責(zé)聲明:本站發(fā)布的內(nèi)容(圖片、視頻和文字)以原創(chuàng)、轉(zhuǎn)載和分享為主,文章觀點不代表本網(wǎng)站立場,如果涉及侵權(quán)請聯(lián)系站長郵箱:is@yisu.com進行舉報,并提供相關(guān)證據(jù),一經(jīng)查實,將立刻刪除涉嫌侵權(quán)內(nèi)容。

AI