溫馨提示×

您好,登錄后才能下訂單哦!

密碼登錄×
登錄注冊(cè)×
其他方式登錄
點(diǎn)擊 登錄注冊(cè) 即表示同意《億速云用戶服務(wù)條款》

JAVA API操作小文件合并至HDFS(筆記)

發(fā)布時(shí)間:2020-06-19 08:47:06 來源:網(wǎng)絡(luò) 閱讀:695 作者:wx5da03a3bd2999 欄目:大數(shù)據(jù)

相關(guān)文件請(qǐng)自行創(chuàng)建?。?!

package com.hadoop.hdfs;

import java.io.IOException;
import java.net.URI;
import java.net.URISyntaxException;
import org.apache.hadoop.conf.Configuration;
import org.apache.hadoop.fs.FSDataInputStream;
import org.apache.hadoop.fs.FSDataOutputStream;
import org.apache.hadoop.fs.FileStatus;
import org.apache.hadoop.fs.FileSystem;
import org.apache.hadoop.fs.FileUtil;
import org.apache.hadoop.fs.Path;
import org.apache.hadoop.fs.PathFilter;
import org.apache.hadoop.io.IOUtils;
/**

  • 合并小文件至 HDFS
  • */
    public class MergeSmallFilesToHDFS {
    private static FileSystem fs = null;
    private static FileSystem local = null;

    public static void main(String[] args) throws IOException,
    URISyntaxException {
    list();
    }

    /**

    • 數(shù)據(jù)集合并,并上傳至HDFS
    • throws IOException
      throws URISyntaxException
      /
      public static void list() throws IOException, URISyntaxException {
      // 讀取hadoop文件系統(tǒng)的配置
      Configuration conf = new Configuration();
      //文件系統(tǒng)訪問接口,注意:hdfs://master:9000修改成自己的HDFS地址
      URI uri = new URI("hdfs://master:9000");
      //創(chuàng)建FileSystem對(duì)象
      fs = FileSystem.get(uri, conf);
      // 獲得本地文件系統(tǒng)
      local = FileSystem.getLocal(conf);
      //過濾目錄下的 svn文件,注意:文件路徑E://Hadoop/73/修改成自己的路徑
      FileStatus[] dirstatus = local.globStatus(new Path("E://Hadoop/73/"),new RegexExcludePathFilter("^.svn$"));
      //獲取73目錄下的所有文件路徑
      Path[] dirs = FileUtil.stat2Paths(dirstatus);
      FSDataOutputStream out = null;
      FSDataInputStream in = null;
      for (Path dir : dirs) {
      //2019-10-31
      String fileName = dir.getName().replace("-", "");//文件名稱
      //只接受日期目錄下的.txt文件
      FileStatus[] localStatus = local.globStatus(new Path(dir+"/"),new RegexAcceptPathFilter("^.txt$"));
      // 獲得日期目錄下的所有文件
      Path[] listedPaths = FileUtil.stat2Paths(localStatus);
      //輸出路徑,注意:hdfs://master:9000/20191031/修改成自己的HDFS目錄地址
      Path block = new Path("hdfs://master:9000/20191031/"+ fileName + ".txt");
      System.out.println("合并后的文件名稱:"+fileName+".txt");
      // 打開輸出流
      out = fs.create(block);
      for (Path p : listedPaths) {
      in = local.open(p);// 打開輸入流
      IOUtils.copyBytes(in, out, 4096, false); // 復(fù)制數(shù)據(jù)
      // 關(guān)閉輸入流
      in.close();
      }
      if (out != null) {
      // 關(guān)閉輸出流
      out.close();
      }
      }

    }

    /**

    • 過濾 regex 格式的文件
    • */
      public static class RegexExcludePathFilter implements PathFilter {
      private final String regex;
      public RegexExcludePathFilter(String regex) {
      this.regex = regex;
      }

      public boolean accept(Path path) {
      boolean flag = path.toString().matches(regex);
      return !flag;
      }

    }

    /**

    • 接受 regex 格式的文件
    • */
      public static class RegexAcceptPathFilter implements PathFilter {
      private final String regex;
      public RegexAcceptPathFilter(String regex) {
      this.regex = regex;
      }

      @Override
      public boolean accept(Path path) {
      boolean flag = path.toString().matches(regex);
      return flag;
      }

    }
    }

向AI問一下細(xì)節(jié)

免責(zé)聲明:本站發(fā)布的內(nèi)容(圖片、視頻和文字)以原創(chuàng)、轉(zhuǎn)載和分享為主,文章觀點(diǎn)不代表本網(wǎng)站立場(chǎng),如果涉及侵權(quán)請(qǐng)聯(lián)系站長(zhǎng)郵箱:is@yisu.com進(jìn)行舉報(bào),并提供相關(guān)證據(jù),一經(jīng)查實(shí),將立刻刪除涉嫌侵權(quán)內(nèi)容。

AI