溫馨提示×

您好,登錄后才能下訂單哦!

密碼登錄×
登錄注冊(cè)×
其他方式登錄
點(diǎn)擊 登錄注冊(cè) 即表示同意《億速云用戶服務(wù)條款》

JAVA API怎樣進(jìn)行讀寫(xiě)HDFS

發(fā)布時(shí)間:2021-11-20 17:14:18 來(lái)源:億速云 閱讀:164 作者:柒染 欄目:云計(jì)算

本篇文章為大家展示了JAVA API怎樣進(jìn)行讀寫(xiě)HDFS,內(nèi)容簡(jiǎn)明扼要并且容易理解,絕對(duì)能使你眼前一亮,通過(guò)這篇文章的詳細(xì)介紹希望你能有所收獲。

package demo;

import java.io.IOException;
import org.apache.hadoop.conf.Configuration;
import org.apache.hadoop.fs.FSDataInputStream;
import org.apache.hadoop.fs.FSDataOutputStream;
import org.apache.hadoop.fs.FileStatus;
import org.apache.hadoop.fs.FileSystem;
import org.apache.hadoop.fs.Path;

public class PutMerge {
	public static void main(String[] args) throws IOException{
		Configuration conf=new Configuration();
		FileSystem hdfs=FileSystem.get(conf);
		FileSystem local=FileSystem.getLocal(conf);
		//設(shè)定輸入目錄于輸出文件
		Path inputDir=new Path(args[0]);
		Path hdfsFile=new Path(args[1]);
		//得到本地文件列表
		FileStatus[] inputFiles=local.listStatus(inputDir); 
		//生成HDFS輸出流
		FSDataOutputStream out=hdfs.create(hdfsFile);
		for(int i=0;i<inputFiles.length;i++){
			System.out.println(inputFiles[i].getPath().getName());
			//打開(kāi)本地輸入流
			FSDataInputStream in=local.open(inputFiles[i].getPath());
			byte buffer[]=new byte[256];
			int bytesRead=0;
			while((bytesRead=in.read(buffer))>0){
				out.write(buffer,0,bytesRead);
			}
			in.close();
		}
		out.close();
	}
}

上述內(nèi)容就是JAVA API怎樣進(jìn)行讀寫(xiě)HDFS,你們學(xué)到知識(shí)或技能了嗎?如果還想學(xué)到更多技能或者豐富自己的知識(shí)儲(chǔ)備,歡迎關(guān)注億速云行業(yè)資訊頻道。

向AI問(wèn)一下細(xì)節(jié)

免責(zé)聲明:本站發(fā)布的內(nèi)容(圖片、視頻和文字)以原創(chuàng)、轉(zhuǎn)載和分享為主,文章觀點(diǎn)不代表本網(wǎng)站立場(chǎng),如果涉及侵權(quán)請(qǐng)聯(lián)系站長(zhǎng)郵箱:is@yisu.com進(jìn)行舉報(bào),并提供相關(guān)證據(jù),一經(jīng)查實(shí),將立刻刪除涉嫌侵權(quán)內(nèi)容。

AI