溫馨提示×

您好,登錄后才能下訂單哦!

密碼登錄×
登錄注冊(cè)×
其他方式登錄
點(diǎn)擊 登錄注冊(cè) 即表示同意《億速云用戶(hù)服務(wù)條款》

centos6.4 32/64位機(jī)中如何安裝hadoop2.2.0集群

發(fā)布時(shí)間:2021-11-12 14:14:44 來(lái)源:億速云 閱讀:112 作者:小新 欄目:云計(jì)算

小編給大家分享一下centos6.4 32/64位機(jī)中如何安裝hadoop2.2.0集群,希望大家閱讀完這篇文章之后都有所收獲,下面讓我們一起去探討吧!

1、準(zhǔn)備環(huán)境 

     安裝VMware10 ,三臺(tái)centos6.4 版本,安裝在VMware虛擬機(jī)下。

  1)安裝中文輸入法:

       1、需要root權(quán)限,所以要用root登錄 ,或su root

        2、yum install "@Chinese Support"

   2)安裝ssh或者vsftp

       使用chkconfig --list來(lái)查看是否裝有vsftpd服務(wù);

       使用yum命令直接安裝:  yum install vsftpd 

       查看與管理ftp服務(wù):

       啟動(dòng)ftp服務(wù):service vsftpd start

        查看ftp服務(wù)狀態(tài):service vsftpd status

        重啟ftp服務(wù):service vsftpd restart

        關(guān)閉ftp服務(wù):service vsftpd stop

    3)jdk安裝 

     參考http://my.oschina.net/kt431128/blog/269262

2、修改主機(jī)名 

      本人安裝一個(gè)虛擬機(jī),然后通過(guò)虛擬機(jī)-》管理-》克隆 完成其他兩臺(tái)機(jī)器的安裝,現(xiàn)在存在的一個(gè)問(wèn)題就是主機(jī)名是一樣的,這個(gè)明顯不是自己想要的,所以需要修改其余兩臺(tái)的主機(jī)名。

  [root@slaver2 sysconfig]# vi /etc/sysconfig/network

    NETWORKING=yes

    HOSTNAME=slaver

3、配置/ect/hosts,三臺(tái)服務(wù)器的配置一樣

vi /etc/hosts

192.168.21.128   master

192.168.21.131   slaver

192.168.21.130   slaver2

4、創(chuàng)建用戶(hù)(使用root用戶(hù)創(chuàng)建后來(lái)發(fā)現(xiàn)Browse the filesystem 報(bào)錯(cuò),后來(lái)查文檔,建議使用新建的用戶(hù))

useradd  hadoop 

passwd hadoop

輸入密碼,確認(rèn)

5、ssh無(wú)密碼登錄

參考:http://my.oschina.net/kt431128/blog/269266

6、HADOOP的下載和環(huán)境的配置

http://mirror.esocc.com/apache/hadoop/common/hadoop-2.2.0/

[   ] hadoop-2.2.0.tar.gz         07-Oct-2013 14:46  104M 

hadoop環(huán)境變量的配置:

vi/etc/profile

在文件的最下面添加

export HADOOP_HOME=/usr/zkt/hadoop2.2.0/hadoop-2.2.0

export PAHT=$PATH:$HADOOP_HOME/bin:$HADOOP_HOME/sbin

export HADOOP_LOG_DIR=/usr/zkt/hadoop2.2.0/hadoop-2.2.0/logs

export YARN_LOG_DIR=$HADOOP_LOG_DIR

export HADOOP_COMMON_LIB_NATIVE_DIR=$HADOOP_HOME/lib/native

export HADOOP_OPTS="-Djava.library.path=$HADOOP_HOME/lib"

注:在64位操作系統(tǒng)上需要加入一下紅色部分的配置信息

網(wǎng)上看到的另一種解決辦法:

在使用./sbin/start-dfs.sh或./sbin/start-all.sh啟動(dòng)時(shí)會(huì)報(bào)出這樣如下警告:

Java HotSpot(TM) 64-Bit Server VM warning: You have loaded library /usr/local/hadoop-2.2.0/lib/native/libhadoop.so.1.0.0 which might have disabled stack guard. The VM will try to fix the stack guard now.

....

Java: ssh: Could not resolve hostname Java: Name or service not known

HotSpot(TM): ssh: Could not resolve hostname HotSpot(TM): Name or service not known

64-Bit: ssh: Could not resolve hostname 64-Bit: Name or service not known

....

這個(gè)問(wèn)題的錯(cuò)誤原因會(huì)發(fā)生在64位的操作系統(tǒng)上,原因是從官方下載的hadoop使用的本地庫(kù)文件(例如lib/native/libhadoop.so.1.0.0)都是基于32位編譯的,運(yùn)行在64位系統(tǒng)上就會(huì)出現(xiàn)上述錯(cuò)誤。

解決方法之一是在64位系統(tǒng)上重新編譯hadoop,另一種方法是在hadoop-env.sh和yarn-env.sh中添加如下兩行: 

export HADOOP_COMMON_LIB_NATIVE_DIR=${HADOOP_HOME}/lib/native  

export HADOOP_OPTS="-Djava.library.path=$HADOOP_HOME/lib"  

注:/usr/zkt/hadoop2.2.0/hadoop-2.2.0為自定義的下載hadoop文件的解壓路徑

7、修改hadoop的配置文件hadoop2.2.0/etc/hadoop

    1、修改hadoop-env.sh 、yarn-env.sh 確保hadoop運(yùn)行所需要的java環(huán)境

    # The java implementation to use.

    export JAVA_HOME=/usr/java/jdk1.7.0_55

    2、修改core-site.xml文件  定義文件系統(tǒng)的配置

<configuration>

 <property>  

    <name>fs.default.name</name>  

        <value>hdfs://master:9000/</value>  

 </property>  

 <property>

         <name>hadoop.tmp.dir</name>

         <value>/usr/zkt/hadoop2.2.0/tmp</value>

  </property>  

 </configuration>

  3、修改hadfs-site.xml  定義名稱(chēng)節(jié)點(diǎn)和數(shù)據(jù)節(jié)點(diǎn)

  <configuration>

<property>  

        <name>dfs.datanode.data.dir</name>  

        <value>/usr/zkt/hadoop2.2.0/hdf/data</value>  

        <final>true</final>  

   </property>  

     <property>  

       <name>dfs.namenode.name.dir</name>  

       <value>/usr/zkt/hadoop2.2.0/hdf/name</value>  

       <final>true</final>  

   </property>  

   <property>  

        <name>dfs.replication</name>  

        <value>2</value>  

   </property>

 <property>  

            <name>dfs.permissions</name>  

            <value>false</value>  

    </property> 

</configuration>

4、修改mapred-site.xml   Configurations for MapReduce Applications

   <property>  

        <name>mapreduce.framework.name</name>  

        <value>yarn</value>  

    </property>  

    <property>  

        <name>mapreduce.jobhistory.address</name>  

        <value>master:10020</value>  

    </property>  

  <property>  

        <name>mapreduce.jobhistory.webapp.address</name>  

        <value>master:19888</value>  

    </property>  

  5、修改yarn-site.xml文件    

     該文件主要用于:

     1、Configurations for ResourceManager and NodeManager:

     2、Configurations for ResourceManager:

     3、Configurations for NodeManager:

    4、Configurations for History Server (Needs to be moved elsewhere):

    <property>  

        <name>yarn.nodemanager.aux-services.mapreduce.shuffle.class</name>  

        <value>org.apache.hadoop.mapred.ShuffleHandler</value>  

    </property>  

 <property>  

        <name>yarn.resourcemanager.address</name>  

        <value>master:8032</value>  

    </property>  

    <property>  

        <name>yarn.resourcemanager.scheduler.address</name>  

        <value>master:8030</value>  

    </property>  

    <property>  

        <name>yarn.resourcemanager.resource-tracker.address</name>  

        <value>master:8031</value>  

    </property>  

    <property>  

        <name>yarn.resourcemanager.admin.address</name>  

        <value>master:8033</value>  

    </property>  

      <property>  

        <name>yarn.resourcemanager.webapp.address</name>  

        <value>master:8088</value>  

    </property> 

 

8、創(chuàng)建第7步配置文件中多出的文件夾

   data  tmp  name  log    mkdir -r  /usr/zkt/hadoop2.2.0/hdf/data 等

9、為這些文件夾賦權(quán)限 比較關(guān)鍵 不然文件生成的時(shí)候無(wú)文件創(chuàng)建、寫(xiě)權(quán)限

   su - root

  chown -R hadoop:hadoop /usr/zkt/hadoop2.2.0 (不明白的可以查看chown命令)

    或者切換到hadoop用戶(hù)下 通過(guò)chmod -R 777 data 賦權(quán)限

10、將配置好的hadoop分別拷貝到 slaver 和slaver2主機(jī)上

    scp -r  /usr/zkt/hadoop2.2.0/hadoop-2.2.0    hadoop@slaver:/usr/zkt/hadoop2.2.0/

     scp -r  /usr/zkt/hadoop2.2.0/hadoop-2.2.0    hadoop@slaver2:/usr/zkt/hadoop2.2.0/

11、hadoop namenode的初始化

      如果 hadoop環(huán)境變量配置沒(méi)問(wèn)題直接使用

      hdfs namenode -format 

       hadoop command not found 解決辦法:

        echo $PATH 

        發(fā)現(xiàn)hadoop的環(huán)境變量是:/home/hadoop/bin 而不是我們配置的環(huán)境變量,我們需要把hadoop-2.2.0包下的bin、sbin文件夾拷貝到/home/hadoop/下,再次echo $PATH,發(fā)現(xiàn)可以了。

12、關(guān)閉防火墻  三臺(tái)服務(wù)器的防火墻都需要關(guān)閉

查看iptables狀態(tài):

service iptables status

iptables開(kāi)機(jī)自動(dòng)啟動(dòng): 

開(kāi)啟: chkconfig iptables on
關(guān)閉: chkconfig iptables off

iptables關(guān)閉服務(wù):

開(kāi)啟: service iptables start
關(guān)閉: service iptables stop

13、啟動(dòng)hadoop

   start-all.sh

    關(guān)閉hadoop

     stop-all.sh

14、查看啟動(dòng)的節(jié)點(diǎn)進(jìn)程

         jps

15、查看啟動(dòng)后的服務(wù)信息

master中應(yīng)該有ResourceManager服務(wù),slave中應(yīng)該有nodemanager服務(wù)

查看集群狀態(tài):./bin/hdfs dfsadmin –report

查看文件塊組成:  ./bin/hdfsfsck / -files -blocks

查看各節(jié)點(diǎn)狀態(tài):    http://master:50070

看完了這篇文章,相信你對(duì)“centos6.4 32/64位機(jī)中如何安裝hadoop2.2.0集群”有了一定的了解,如果想了解更多相關(guān)知識(shí),歡迎關(guān)注億速云行業(yè)資訊頻道,感謝各位的閱讀!

向AI問(wèn)一下細(xì)節(jié)

免責(zé)聲明:本站發(fā)布的內(nèi)容(圖片、視頻和文字)以原創(chuàng)、轉(zhuǎn)載和分享為主,文章觀點(diǎn)不代表本網(wǎng)站立場(chǎng),如果涉及侵權(quán)請(qǐng)聯(lián)系站長(zhǎng)郵箱:is@yisu.com進(jìn)行舉報(bào),并提供相關(guān)證據(jù),一經(jīng)查實(shí),將立刻刪除涉嫌侵權(quán)內(nèi)容。

AI