溫馨提示×

您好,登錄后才能下訂單哦!

密碼登錄×
登錄注冊(cè)×
其他方式登錄
點(diǎn)擊 登錄注冊(cè) 即表示同意《億速云用戶服務(wù)條款》

CentOS7下怎么部署Hadoop2.X

發(fā)布時(shí)間:2021-08-21 02:53:11 來源:億速云 閱讀:185 作者:chen 欄目:開發(fā)技術(shù)

本篇內(nèi)容主要講解“CentOS7下怎么部署Hadoop2.X”,感興趣的朋友不妨來看看。本文介紹的方法操作簡(jiǎn)單快捷,實(shí)用性強(qiáng)。下面就讓小編來帶大家學(xué)習(xí)“CentOS7下怎么部署Hadoop2.X”吧!

一、部署JAVA--(使用root用戶)
  1、上傳Oracle公司的Java組件--jdk1.8.0_151
    A)、cd /uar/java
    B)、執(zhí)行rz -be->選擇本地JDK組件->添加文件->確定上傳
  2、解決安裝包-->tar -zxvf jdk-8u151-linux-x64.tar.gz
  3、給解壓文件夾賦權(quán):chmod 775 jdk1.8.0_151
  4、設(shè)置環(huán)境變量:
         vi /etc/profile
            export JAVA_HOME=/usr/java/jdk1.8.0_151
            export PATH=$JAVA_HOME/bin:$PATH
  5、生效環(huán)境變量:source /etc/profile
  6、驗(yàn)證命令:java -version和which java

二、部署ssh服務(wù)是否運(yùn)行(使用root用戶)
  service sshd status
  提示:openssh-daemon (pid  5124) is running...
  注:如未安裝使用yum install -y ssh

三、修改hosts文件(使用root用戶)
  vi /etc/hosts
    192.168.40.130  hadoop001
  cat /etc/hosts

四、配置ssh對(duì)等性(使用hadoop用戶)
  ssh-keygen -t rsa -P '' -f ~/.ssh/id_rsa
  cat ~/.ssh/id_rsa.pub >> ~/.ssh/authorized_keys
  chmod 0600 ~/.ssh/authorized_keys

  測(cè)試:ssh hadoop1 date(第一次需要輸入yes,之后需要輸入即可顯示遠(yuǎn)程時(shí)間)

五、部署Hadoop--偽分布模式
  1、使用root用戶在/opt中創(chuàng)建software、sourcecode目錄,并賦權(quán)權(quán)限
     cd /opt
     mkdir software sourcecode
     chown hadoop:hadoop software sourcecode
  2、上傳hadoop-2.8.1.tar.gz(使用hadoop用戶)
    A)、cd /opt/software
    B)、執(zhí)行rz -be->選擇本地hadoop-2.8.1.tar.gz文件->添加文件->確定上傳
  3、解決安裝包-->tar -zxvf hadoop-2.8.1.tar.gz(使用hadoop用戶)
  4、配置環(huán)境變更(使用hadoop用戶)
     vi ~/.bash_profile
       export HADOOP_HOME=/opt/software/hadoop-2.8.1
       export PATH=$HADOOP_HOME/bin:$HADOOP_HOME/sbin:$PATH
     環(huán)境變量生效:source ~/.bash_profile
     驗(yàn)證環(huán)境變更:echo $HADDOP_HOME,輸出為:/opt/software/hadoop-2.8.1則為正常
                   which hadoop,輸出為:/opt/software/hadoop-2.8.1/bin/hadoop則為正常
  5、配置hadoop偽分布模式參數(shù):
     A)、進(jìn)入hadoop安裝目錄:cd $HADOOP_HOME/etc/hadoop
     B)、修改hadoop-env.sh文件,并文件中export JAVA_HOME=${JAVA_HOME}修改為:export JAVA_HOME=/usr/java/jdk1.8.0_151
         vi hadoop-env.sh
           export JAVA_HOME=${JAVA_HOME}  --->  export JAVA_HOME=/usr/java/jdk1.8.0_151
         退出保存(:wq)
     C)、修改core-site.xml文件,在與中新增如下內(nèi)容:
         vi core-site.xml
             
               fs.defaultFS
               hdfs://192.168.40.130:9000
             

             
               hadoop.tmp.dir
               /opt/software/hadoop-2.8.1/tmp
             
         退出保存(:wq)
     D)、修改hdfs-site.xml文件,在與中新增如下內(nèi)容:
         vi hdfs-site.xml
             
               dfs.replication
               1
             

           
             dfs.namenode.secondary.http-address
             192.168.40.130:50090
           

         
            dfs.namenode.secondary.https-address
            192.168.40.130:50091
         
         退出保存(:wq)
     E)、修改slaves文件,將localhost修改為192.168.40.130:
         vi slaves
            192.168.40.130
         退出保存(:wq)
     F)、修改yarn-site.xml文件,在與中新增如下內(nèi)容:
         vi yarn-site.xml
          
            yarn.nodemanager.aux-services
            mapreduce_shuffle
         
         退出保存(:wq)
     G)、修改mapred-site.xml文件,在與中新增如下內(nèi)容:
        cp mapred-site.xml.template mapred-site.xml
         vi mapred-site.xml
           
              mapreduce.framework.name
              yarn
           
         退出保存(:wq)
  6、在hadoop文件夾中創(chuàng)建tmp目錄
     cd /opt/software/hadoop-2.8.1
     mkdir tmp

  7、格式化HDFS:hdfs namenode -format
     提示:
17/12/15 09:56:24 INFO namenode.FSImage: Allocated new BlockPoolId: BP-1926188112-192.168.40.130-1513302984957
17/12/15 09:56:25 INFO common.Storage: Storage directory /opt/software/hadoop-2.8.1/tmp/dfs/name has been successfully formatted.
17/12/15 09:56:25 INFO namenode.FSImageFormatProtobuf: Saving image file /opt/software/hadoop-2.8.1/tmp/dfs/name/current/fsimage.ckpt_0000000000000000000 using no compression
17/12/15 09:56:25 INFO namenode.FSImageFormatProtobuf: Image file /opt/software/hadoop-2.8.1/tmp/dfs/name/current/fsimage.ckpt_0000000000000000000 of size 323 bytes saved in 0 seconds.
17/12/15 09:56:25 INFO namenode.NNStorageRetentionManager: Going to retain 1 images with txid >= 0
17/12/15 09:56:25 INFO util.ExitUtil: Exiting with status 0
17/12/15 09:56:25 INFO namenode.NameNode: SHUTDOWN_MSG: 
/************************************************************
SHUTDOWN_MSG: Shutting down NameNode at spark220/192.168.40.130
************************************************************/
   8、啟動(dòng)HDFS服務(wù):start-dfs.sh
   
   9、啟動(dòng)Yarn服務(wù):start-yarn.sh

       注:如需同時(shí)啟動(dòng),則執(zhí)行strat-all.sh

    10、驗(yàn)證:
      A)、輸入:jps,返回如下信息:
         3536 NodeManager
         3234 SecondaryNameNode
        3046 DataNode
        2938 NameNode
        3422 ResourceManager

  B)、上傳文件測(cè)試:
      hdfs dfs -mkdir /input            ==>創(chuàng)建目錄input
      hdfs dfs -ls /input               ==>查看目錄
      hdfs dfs -put slaves /input       ==>上傳文件到input目錄
      hdfs dfs -ls /input               ==>查看目錄(-rw-r--r--   1 hadoop supergroup         15 2017-12-15 10:07 /input/slaves)


注:
   停止HDFS、YARN命令:
   sbin/stop-yarn.sh
   sbin/stop-hdfs.sh
   或者:sbin/stop-all.sh
---------------------完---------------------------

到此,相信大家對(duì)“CentOS7下怎么部署Hadoop2.X”有了更深的了解,不妨來實(shí)際操作一番吧!這里是億速云網(wǎng)站,更多相關(guān)內(nèi)容可以進(jìn)入相關(guān)頻道進(jìn)行查詢,關(guān)注我們,繼續(xù)學(xué)習(xí)!

向AI問一下細(xì)節(jié)

免責(zé)聲明:本站發(fā)布的內(nèi)容(圖片、視頻和文字)以原創(chuàng)、轉(zhuǎn)載和分享為主,文章觀點(diǎn)不代表本網(wǎng)站立場(chǎng),如果涉及侵權(quán)請(qǐng)聯(lián)系站長(zhǎng)郵箱:is@yisu.com進(jìn)行舉報(bào),并提供相關(guān)證據(jù),一經(jīng)查實(shí),將立刻刪除涉嫌侵權(quán)內(nèi)容。

AI