溫馨提示×

溫馨提示×

您好,登錄后才能下訂單哦!

密碼登錄×
登錄注冊×
其他方式登錄
點擊 登錄注冊 即表示同意《億速云用戶服務(wù)條款》

CentOS下hadoop完全分布式的基礎(chǔ)配置

發(fā)布時間:2020-04-03 13:04:29 來源:網(wǎng)絡(luò) 閱讀:570 作者:AricaCui 欄目:大數(shù)據(jù)

配置完全分布式


1、修改靜態(tài)IP和主機(jī)名稱

①規(guī)劃IP和主機(jī)名映射

②涉及文件

etc/hostname

etc/hosts

etc/resolve.conf

etc/sysconfig/network-script/ifcfg-ens3

2、配置ssh

①刪除各節(jié)點的~/.ssh目錄

②在各節(jié)點創(chuàng)建~/.ssh目錄,同時指定權(quán)限

mkdir ~/.ssh -m 700

③在主節(jié)點生成公私密鑰對

//生成成公私密鑰對

ssh-keygen -t rsa -P '' -f ~/.ssh/id_rsa

cp id_rsa.pub authorized_keys        //authorized_keys為644權(quán)限

//分發(fā)公鑰

scp ~/.ssh/authorized_keys centos@s202:/home/centos/.ssh/

ssh-copy-id centos@s202

④分發(fā)密鑰

scp ~/.ssh/authorized_keys centos@s212:/~/.ssh/

⑤測試ssh是否成功

ssh s212

3、修改配置文件并分發(fā)到個節(jié)點

①core-site.xml

<?xml version="1.0"?>

<!-- core-site.xml -->

<configuration>

    <property>

        <name>fs.defaultFS</name>

        <value>hdfs://s201</value>

    </property>

</configuration>

②hdfs-site.xml

<?xml version="1.0"?>

<!-- hdfs-site.xml -->

<configuration>

    <property>

            <name>dfs.replication</name>

            <value>3</value>

        </property>

    <property>

            <name>dfs.namenode.name.dir</name>

            <value>/home/centos/hadoop/hdfs/name</value>

    </property>

    <property>

            <name>dfs.datanode.data.dir</name>

            <value>/home/centos/hadoop/hdfs/data</value>

    </property>

    <property>

            <name>dfs.namenode.checkpoint.dir</name>

            <value>/home/centos/hadoop/hdfs/namesecondary</value>

    </property>

</configuration>

③mapred-site.xml

<?xml version="1.0"?>

<!-- mapred-site.xml -->   

<configuration>

    <property>

            <name>mapreduce.framework.name</name>

            <value>yarn</value>

    </property>

</configuration>

④yarn-site.xml

<?xml version="1.0"?>

<!-- yarn-site.xml -->

<configuration>

    <property>

        <name>yarn.resourcemanager.hostname</name>

        <value>s201</value>

    </property>

    <property>

        <name>yarn.nodemanager.local-dirs</name>

        <value>/home/centos/hadoop/nm-local-dir</value>

    </property>

    <property>

        <name>yarn.nodemanager.aux-services</name>

        <value>mapreduce_shuffle</value>

    </property>

</configuration>

⑤分發(fā)配置文件

rsync etc centos@s212:/soft/hadoop/

4、NN和DN指定

slaves文件配置

5、克隆主機(jī)并修改各節(jié)點主機(jī)IP和名稱

方法同步驟1

6、格式化文件系統(tǒng)

hdfs namenode -format

7、啟動集群,觀察進(jìn)程

1、啟動hdfs

start-dfs.sh

//涉及進(jìn)程

namenode    50070    元數(shù)據(jù)

datanode    50075    數(shù)據(jù)

secondarynamenode    50090    

2、啟動yarn

start-yarn.sh

//涉及進(jìn)程

resourcemanager    

nodemanager

涉及腳本:


1、xcall.sh

#!/bin/bash

for host in `cat /soft/hadoop/etc/hadoop/slaves` ; do

echo ========== $host ===========

ssh $host $@ ;

done

2、xsync.sh

#!/bin/bash

param=$1

dir=`dirname $param`

fullpath=`pwd -P`

user=`whoami`

filename=`basename $param`

cd $dir

for host in `cat /soft/hadoop/etc/hadoop/slaves` ; do

echo =========== $host ============

rsync -lr $filename $user@$host:$fullpath ;

done


向AI問一下細(xì)節(jié)

免責(zé)聲明:本站發(fā)布的內(nèi)容(圖片、視頻和文字)以原創(chuàng)、轉(zhuǎn)載和分享為主,文章觀點不代表本網(wǎng)站立場,如果涉及侵權(quán)請聯(lián)系站長郵箱:is@yisu.com進(jìn)行舉報,并提供相關(guān)證據(jù),一經(jīng)查實,將立刻刪除涉嫌侵權(quán)內(nèi)容。

AI