您好,登錄后才能下訂單哦!
本篇文章為大家展示了Linux系統(tǒng)中怎么搭建Hadoop,內(nèi)容簡明扼要并且容易理解,絕對能使你眼前一亮,通過這篇文章的詳細(xì)介紹希望你能有所收獲。
hadoop是大數(shù)據(jù)集群中一個開發(fā)分布式程序Hadoop實(shí)現(xiàn)了一個分布式文件系統(tǒng)( Distributed File System),其中一個組件是HDFS。HDFS有高容錯性的特點(diǎn),并且設(shè)計用來部署在低廉的(low-cost)硬件上;而且它提供高吞吐量(high throughput)來訪問應(yīng)用程序的數(shù)據(jù),適合那些有著超大數(shù)據(jù)集(large data set)的應(yīng)用程序。
安裝ssh服務(wù)
進(jìn)入shell命令,輸入如下命令,查看是否已經(jīng)安裝好ssh服務(wù),若沒有,則使用如下命令進(jìn)行安裝:
sudo apt-get install ssh openssh-server
安裝過程還是比較輕松加愉快的。
使用ssh進(jìn)行無密碼驗(yàn)證登錄**
1.創(chuàng)建ssh-key,這里我們采用rsa方式,使用如下命令:
ssh-keygen -t rsa -P “”
2.出現(xiàn)一個圖形,出現(xiàn)的圖形就是密碼,不用管它
cat ~/.ssh/id_rsa.pub >> authorized_keys(好像是可以省略的)
3.然后即可無密碼驗(yàn)證登錄了,如下:
ssh localhost
成功截圖如下:
下載Hadoop安裝包**
下載Hadoop安裝也有兩種方式
1.直接上官網(wǎng)進(jìn)行下載,http://mirrors.hust.edu.cn/apache/hadoop/core/stable/hadoop-2.7.1.tar.gz
2.使用shell進(jìn)行下載,命令如下:
wget http://mirrors.hust.edu.cn/apache/hadoop/core/stable/hadoop-2.7.1.tar.gz
貌似第二種的方法要快點(diǎn),經(jīng)過漫長的等待,終于下載完成。
解壓縮Hadoop安裝包**
使用如下命令解壓縮Hadoop安裝包
tar -zxvf hadoop-2.7.1.tar.gz
解壓縮完成后出現(xiàn)hadoop2.7.1的文件夾
配置Hadoop中相應(yīng)的文件**
需要配置的文件如下,hadoop-env.sh,core-site.xml,mapred-site.xml.template,hdfs-site.xml,所有的文件均位于hadoop2.7.1/etc/hadoop下面,具體需要的配置如下:
1.core-site.xml 配置如下:
其中的hadoop.tmp.dir的路徑可以根據(jù)自己的習(xí)慣進(jìn)行設(shè)置。
2.mapred-site.xml.template配置如下:
3.hdfs-site.xml配置如下:
其中dfs.namenode.name.dir和dfs.datanode.data.dir的路徑可以自由設(shè)置,最好在hadoop.tmp.dir的目錄下面。
補(bǔ)充,如果運(yùn)行Hadoop的時候發(fā)現(xiàn)找不到j(luò)dk,可以直接將jdk的路徑放置在hadoop.env.sh里面,具體如下:
export JAVA_HOME=”/home/leesf/program/java/jdk1.8.0_60″
運(yùn)行Hadoop**
在配置完成后,運(yùn)行hadoop。
1.初始化HDFS系統(tǒng)
在hadop2.7.1目錄下使用如下命令:
bin/hdfs namenode -format
截圖如下:
過程需要進(jìn)行ssh驗(yàn)證,之前已經(jīng)登錄了,所以初始化過程之間鍵入y即可。
成功的截圖如下:
表示已經(jīng)初始化完成。
2.開啟NameNode和DataNode守護(hù)進(jìn)程
使用如下命令開啟:
sbin/start-dfs.sh,成功的截圖如下:
3.查看進(jìn)程信息
使用如下命令查看進(jìn)程信息
jps,截圖如下:
表示數(shù)據(jù)DataNode和NameNode都已經(jīng)開啟
4.查看Web UI
在瀏覽器中輸入http://localhost:50070,即可查看相關(guān)信息,截圖如下:
至此,hadoop的環(huán)境就已經(jīng)搭建好了。下面開始使用hadoop來運(yùn)行一個WordCount例子。
運(yùn)行WordCount Demo**
1.在本地新建一個文件,筆者在home/leesf目錄下新建了一個words文檔,里面的內(nèi)容可以隨便填寫。
2.在HDFS中新建一個文件夾,用于上傳本地的words文檔,在hadoop2.7.1目錄下輸入如下命令:
bin/hdfs dfs -mkdir /test,表示在hdfs的根目錄下建立了一個test目錄
使用如下命令可以查看HDFS根目錄下的目錄結(jié)構(gòu)
bin/hdfs dfs -ls /
具體截圖如下:
表示在HDFS的根目錄下已經(jīng)建立了一個test目錄
3.將本地words文檔上傳到test目錄中
使用如下命令進(jìn)行上傳操作:
bin/hdfs dfs -put /home/leesf/words /test/
使用如下命令進(jìn)行查看
bin/hdfs dfs -ls /test/
結(jié)果截圖如下:
表示已經(jīng)將本地的words文檔上傳到了test目錄下了。
4.運(yùn)行wordcount
使用如下命令運(yùn)行wordcount:
bin/hadoop jar share/hadoop/mapreduce/hadoop-mapreduce-examples-2.7.1.jar wordcount /test/words /test/out
截圖如下:
運(yùn)行完成后,在/test目錄下生成名為out的文件,使用如下命令查看/test目錄下的文件
bin/hdfs dfs -ls /test
截圖如下:
表示在test目錄下已經(jīng)有了一個名為Out的文件目錄
輸入如下命令查看out目錄下的文件:
bin/hdfs dfs -ls /test/out,結(jié)果截圖如下:
表示已經(jīng)成功運(yùn)行了,結(jié)果保存在part-r-00000中。
5.查看運(yùn)行結(jié)果
使用如下命令查看運(yùn)行結(jié)果:
bin/hadoop fs -cat /test/out/part-r-00000
結(jié)果截圖如下:
至此,運(yùn)行過程就已經(jīng)完成了。
Hadoop是一個能夠?qū)Υ罅繑?shù)據(jù)進(jìn)行分布式處理的軟件框架。 Hadoop 以一種可靠、高效、可伸縮的方式進(jìn)行數(shù)據(jù)處理
上述內(nèi)容就是Linux系統(tǒng)中怎么搭建Hadoop,你們學(xué)到知識或技能了嗎?如果還想學(xué)到更多技能或者豐富自己的知識儲備,歡迎關(guān)注億速云行業(yè)資訊頻道。
免責(zé)聲明:本站發(fā)布的內(nèi)容(圖片、視頻和文字)以原創(chuàng)、轉(zhuǎn)載和分享為主,文章觀點(diǎn)不代表本網(wǎng)站立場,如果涉及侵權(quán)請聯(lián)系站長郵箱:is@yisu.com進(jìn)行舉報,并提供相關(guān)證據(jù),一經(jīng)查實(shí),將立刻刪除涉嫌侵權(quán)內(nèi)容。