溫馨提示×

您好,登錄后才能下訂單哦!

密碼登錄×
登錄注冊(cè)×
其他方式登錄
點(diǎn)擊 登錄注冊(cè) 即表示同意《億速云用戶服務(wù)條款》

Hadoop 3.0.0-alpha2安裝(二)

發(fā)布時(shí)間:2020-05-19 09:45:46 來源:網(wǎng)絡(luò) 閱讀:3779 作者:zhengweila 欄目:大數(shù)據(jù)

由于博客文字限制,只能分開寫了:
Hadoop 3.0.0-alpha2安裝(一)鏈接:
http://laowafang.blog.51cto.com/251518/1912342

5FAQ

1問題:本地庫與當(dāng)前操作系統(tǒng)的版本不一致:

$ /data/hadoop/bin/hadoopchecknative -a    # 警告信息:

2017-03-27 18:02:12,116 WARN util.NativeCodeLoader:Unable to load native-hadoop library for your platform... using builtin-javaclasses where applicable

Native library checking:

hadoop:  false

zlib:    false

zstd  :  false

snappy:  false

lz4:     false

bzip2:   false

openssl: false

ISA-L:   false

參看信息:

1)查看hadoop nativeGLIBC支持的版本:

# strings/data/hadoop/lib/native/libhadoop.so.1.0.0 |grep GLIBC

GLIBC_2.2.5

GLIBC_2.12

GLIBC_2.7

GLIBC_2.14

GLIBC_2.6

GLIBC_2.4

GLIBC_2.3.4

2)查看本地linuxGLIBC版本:

# strings /lib64/libc.so.6 | grep GLIBC

GLIBC_2.2.5

GLIBC_2.2.6

GLIBC_2.3

GLIBC_2.3.2

GLIBC_2.3.3

GLIBC_2.3.4

GLIBC_2.4

GLIBC_2.5

GLIBC_2.6

GLIBC_2.7

GLIBC_2.8

GLIBC_2.9

GLIBC_2.10

GLIBC_2.11

GLIBC_2.12

GLIBC_PRIVATE

上面報(bào)錯(cuò)可見,在linux上沒有GLIBC 2.14,因此報(bào)錯(cuò),處理方式只能是將hadoop源碼在本地linux上用本地c庫來編譯,這樣在運(yùn)行hadoop時(shí)就會(huì)用本地的c庫。

解決:第一種方法:

# tar -jxvf glibc-2.14.tar.bz2

# cd glibc-2.14

# tar -jxvf../glibc-linuxthreads-2.5.tar.bz2

# cd ..

# export CFLAGS="-g -O2"

# ./glibc-2.14/configure --prefix=/usr \

 --disable-profile --enable-add-ons \

 --with-headers=/usr/include \

 --with-binutils=/usr/bin \

# make -j `grep processor /proc/cpuinfo |wc -l`

# make install

### 注意:安裝編譯過程:

1)要將glibc-linuxthreads解壓到glibc目錄下。

2)不能在glibc當(dāng)前目錄下運(yùn)行configure

3)加上優(yōu)化開關(guān),export CFLAGS="-g -O2",否則會(huì)出現(xiàn)錯(cuò)誤

# /data/hadoop/bin/hadoopchecknative -a    # 核實(shí)成功

2017-03-28 09:43:42,942 INFObzip2.Bzip2Factory: Successfully loaded & initialized native-bzip2 librarysystem-native

2017-03-28 09:43:42,962 INFOzlib.ZlibFactory: Successfully loaded & initialized native-zlib library

Native library checking:

hadoop: true /data/hadoop-3.0.0-alpha2/lib/native/libhadoop.so.1.0.0

zlib:   true /lib64/libz.so.1

zstd  : false

snappy: true /usr/lib64/libsnappy.so.1

lz4:    true revision:10301

bzip2:  true /lib64/libbz2.so.1

openssl: true /usr/lib64/libcrypto.so

ISA-L:   false libhadoop wasbuilt without ISA-L support

2017-03-28 09:43:43,190 INFO util.ExitUtil:Exiting with status 1

[root@master opt]# file/data/hadoop-3.0.0-alpha2/lib/native/libhadoop.so.1.0.0

/data/hadoop-3.0.0-alpha2/lib/native/libhadoop.so.1.0.0:ELF 64-bit LSB shared object, x86-64, version 1 (SYSV), dynamically linked, notstripped

### 說明:以上紅色字體暫沒解決,查閱資料暫時(shí)不影響使用,有知者麻煩告知,謝謝。

$./start-all.sh        # 再次啟動(dòng)信息

WARNING: Attempting to start all ApacheHadoop daemons as hadoop in 10 seconds.

WARNING: This is not a recommendedproduction deployment configuration.

WARNING: Use CTRL-C to abort.

Starting namenodes on [master]

Starting datanodes

Starting secondary namenodes [master]

Starting resourcemanager

Starting nodemanagers

解決:第二種方法重新編譯hadoop本地庫   # 本人沒有測(cè)試過,參考如下:

http://zkread.com/article/1187940.html

http://forevernull.com/category/%E9%97%AE%E9%A2%98%E8%A7%A3%E5%86%B3/

 

6、其他

6.1壓縮收集

目前在Hadoop中用得比較多的有lzogzip,snappy,bzip24種壓縮格式,筆者根據(jù)實(shí)踐經(jīng)驗(yàn)介紹一下這4種壓縮格式的優(yōu)缺點(diǎn)和應(yīng)用場(chǎng)景,以便大家在實(shí)踐中根據(jù)實(shí)際情況選擇不同的壓縮格式。

1、gzip壓縮

優(yōu)點(diǎn):壓縮率比較高,而且壓縮/解壓速度也比較快;hadoop本身支持,在應(yīng)用中處理gzip格式的文件就和直接處理文本一樣;有hadoop native庫;大部分linux系統(tǒng)都自帶gzip命令,使用方便。

缺點(diǎn):不支持split。

 

應(yīng)用場(chǎng)景:當(dāng)每個(gè)文件壓縮之后在130M以內(nèi)的(1個(gè)塊大小內(nèi)),都可以考慮用gzip壓縮格式。譬如說一天或者一個(gè)小時(shí)的日志壓縮成一個(gè)gzip文件,運(yùn)行mapreduce程序的時(shí)候通過多個(gè)gzip文件達(dá)到并發(fā)。hive程序,streaming程序,和java寫的mapreduce程序完全和文本處理一樣,壓縮之后原來的程序不需要做任何修改。

2、lzo壓縮

優(yōu)點(diǎn):壓縮/解壓速度也比較快,合理的壓縮率;支持split,是hadoop中最流行的壓縮格式;支持hadoop native庫;可以在linux系統(tǒng)下安裝lzop命令,使用方便。

缺點(diǎn):壓縮率比gzip要低一些;hadoop本身不支持,需要安裝;在應(yīng)用中對(duì)lzo格式的文件需要做一些特殊處理(為了支持split需要建索引,還需要指定inputformatlzo格式)。

應(yīng)用場(chǎng)景:一個(gè)很大的文本文件,壓縮之后還大于200M以上的可以考慮,而且單個(gè)文件越大,lzo優(yōu)點(diǎn)越越明顯。

3、snappy壓縮

優(yōu)點(diǎn):高速壓縮速度和合理的壓縮率;支持hadoop native庫。

缺點(diǎn):不支持split;壓縮率比gzip要低;hadoop本身不支持,需要安裝;linux系統(tǒng)下沒有對(duì)應(yīng)的命令。

應(yīng)用場(chǎng)景:當(dāng)mapreduce作業(yè)的map輸出的數(shù)據(jù)比較大的時(shí)候,作為mapreduce的中間數(shù)據(jù)的壓縮格式;或者作為一個(gè)mapreduce作業(yè)的輸出和另外一個(gè)mapreduce作業(yè)的輸入。

4、bzip2壓縮

優(yōu)點(diǎn):支持split;具有很高的壓縮率,比gzip壓縮率都高;hadoop本身支持,但不支持native;在linux系統(tǒng)下自帶bzip2命令,使用方便。

缺點(diǎn):壓縮/解壓速度慢;不支持native。

應(yīng)用場(chǎng)景:適合對(duì)速度要求不高,但需要較高的壓縮率的時(shí)候,可以作為mapreduce作業(yè)的輸出格式;或者輸出之后的數(shù)據(jù)比較大,處理之后的數(shù)據(jù)需要壓縮存檔減少磁盤空間并且以后數(shù)據(jù)用得比較少的情況;或者對(duì)單個(gè)很大的文本文件想壓縮減少存儲(chǔ)空間,同時(shí)又需要支持split,而且兼容之前的應(yīng)用程序(即應(yīng)用程序不需要修改)的情況。

6.2清理

在安裝過程中會(huì)出現(xiàn)頻繁重啟測(cè)試配置文件內(nèi)容,建議每次先關(guān)閉,清理日志,清理以下創(chuàng)建的文件:

# mkdir -p/data/{hdfsname1,hdfsname2}/hdfs/name

# mkdir -p/data/{hdfsdata1,hdfsdata2}/hdfs/data

# rm -rf /data/hadoop/tmp


### 發(fā)現(xiàn)還有好多東西要搞,后續(xù)有時(shí)間繼續(xù)完善,然后……不知道什么時(shí)候了^_^

劉政委 2017-04-01


向AI問一下細(xì)節(jié)

免責(zé)聲明:本站發(fā)布的內(nèi)容(圖片、視頻和文字)以原創(chuàng)、轉(zhuǎn)載和分享為主,文章觀點(diǎn)不代表本網(wǎng)站立場(chǎng),如果涉及侵權(quán)請(qǐng)聯(lián)系站長(zhǎng)郵箱:is@yisu.com進(jìn)行舉報(bào),并提供相關(guān)證據(jù),一經(jīng)查實(shí),將立刻刪除涉嫌侵權(quán)內(nèi)容。

AI