HDFS Java客户端Daemon

news/2024/11/28 7:46:11/

HDFS Java客户端Daemon

1.简单介绍

1.1.pom依赖

比较老的版本

<dependencyManagement><dependencies><dependency><groupId>org.apache.hadoop</groupId><artifactId>hadoop-common</artifactId><version>2.8.4</version></dependency><dependency><groupId>org.apache.hadoop</groupId><artifactId>hadoop-hdfs</artifactId><version>2.8.4</version></dependency><dependency><groupId>org.apache.hadoop</groupId><artifactId>hadoop-client</artifactId><version>2.8.4</version></dependency><dependency><groupId>org.projectlombok</groupId><artifactId>lombok</artifactId><version>1.16.10</version></dependency><dependency><groupId>log4j</groupId><artifactId>log4j</artifactId><version>1.2.17</version></dependency><dependency><groupId>org.slf4j</groupId><artifactId>slf4j-api</artifactId><version>1.7.7</version></dependency></dependencies>
</dependencyManagement>

1.2.简单介绍

org.apache.hadoop.fs.FileSystem是我们向HDFS发送请求的客户端,里面定义了HDFS常用的一些文件操作接口。

org.apache.hadoop.conf.Configuration,承载创建FileSystem客户端时的配置信息。

创建客户端的方法:

import org.apache.hadoop.fs.FileSystem;
import org.apache.hadoop.conf.Configuration;import java.net.URI;// 最简单的配置,可以用来创建一些读取、下载文件的客户端
// 1.配置信息
Configuration config = new Configuration();
config.set("fs.defaultFS", "hdfs://node1:9000");  // HDFS服务端地址
//2.获取文件系统
FileSystem fs = FileSystem.get(config);//指定用户、文件副本数的配置,可以用来创建一些上传、创建的客户端
// 1.配置信息
Configuration config = new Configuration();
config.set("dfs.replication", "2");
//2.获取文件系统
FileSystem fs = FileSystem.get(new URI("hdfs://node1:9000"), config, "root");

常用接口:

1.上传


//1.上传本地Windows文件的路径
Path src = new Path("D:\\xxx");//2.要上传到HDFS的路径
Path dst = new Path("hdfs://node1:9000/xxx");//3.以拷贝的方式上传,从src -> dst
fs.copyFromLocalFile(src,dst);

2.下载

// 指定一下用户和副本数
FileSystem fs = FileSystem.get(new URI("hdfs://node1:9000"), config, "root"); //1.上传本地Windows文件的路径
Path local = new Path("D:\\xxx");//2.要上传到HDFS的路径
Path remote = new Path("hdfs://node1:9000/xxx");// 参数含义:是否删除远程文件  远程文件   本地文件  使用本地文件系统
fs.copyToLocalFile(false, remote, local, true);

2.搭建daemon

目录结构

src
main
pool
hdfs01
HdfsClient.java
ServerEnum.java
HdfsUtil.java

2.1. ServerEnum.java

记录配置信息

package pool;import org.apache.hadoop.conf.Configuration;public enum ServerEnum {DEFAULT("hdfs://node1:9000") {@Overridepublic Configuration getConfig() {Configuration config = new Configuration();config.set("fs.defaultFS", url);return config;}},REPLICATE2("hdfs://node1:9000") {@Overridepublic Configuration getConfig() {Configuration config = new Configuration();config.set("dfs.replication", "2");return config;}};public final String url;ServerEnum(String url) {this.url = url;}public abstract Configuration getConfig();
}

2.1. HdfsClient.java

生产HDFS客户端

package pool;import org.apache.hadoop.fs.FileSystem;import java.net.URI;public class HdfsClient implements AutoCloseable{private final FileSystem fileSystem;public FileSystem getFileSystem() {return fileSystem;}private HdfsClient(FileSystem fileSystem) {this.fileSystem = fileSystem;}public static HdfsClient from(ServerEnum serverEnum) throws Exception {FileSystem fileSystem = FileSystem.get(serverEnum.getConfig());return new HdfsClient(fileSystem);}public static HdfsClient from(ServerEnum serverEnum, String user) throws Exception {FileSystem fileSystem = FileSystem.get(new URI(serverEnum.url), serverEnum.getConfig(), user);return new HdfsClient(fileSystem);}@Overridepublic void close() throws Exception {if (fileSystem != null) {fileSystem.close();}}
}

2.3. HdfsUtil.java

package hdfs01;import org.apache.hadoop.fs.FSDataInputStream;
import org.apache.hadoop.fs.FSDataOutputStream;
import org.apache.hadoop.fs.FileSystem;
import org.apache.hadoop.fs.Path;
import org.apache.hadoop.io.IOUtils;
import pool.HdfsClient;
import pool.ServerEnum;import java.io.File;
import java.io.FileInputStream;
import java.io.FileOutputStream;
import java.nio.charset.StandardCharsets;public class HdfsUtil {private static void upload(String local, String remote) throws Exception {try (HdfsClient client = HdfsClient.from(ServerEnum.REPLICATE2, "root");FileSystem fs = client.getFileSystem()) {fs.copyFromLocalFile(new Path(local), new Path(remote));}System.out.println("upload success");}private static void download(String remote, String local) throws Exception {try (HdfsClient client = HdfsClient.from(ServerEnum.DEFAULT, "root");FileSystem fs = client.getFileSystem()) {fs.copyToLocalFile(false, new Path(remote), new Path(local), true);}System.out.println("download success");}private static void streamUpload(String local, String remote) throws Exception {try (HdfsClient client = HdfsClient.from(ServerEnum.REPLICATE2, "root");FileSystem fs = client.getFileSystem()) {FileInputStream input = new FileInputStream(new File(local));FSDataOutputStream output = fs.create(new Path(remote));IOUtils.copyBytes(input, output, 4*1024, false);}System.out.println("upload by stream success");}private static void streamDownload(String remote, String local) throws Exception {try (HdfsClient client = HdfsClient.from(ServerEnum.DEFAULT);FileSystem fs = client.getFileSystem()) {FileOutputStream out = new FileOutputStream(local);FSDataInputStream in = fs.open(new Path(remote));IOUtils.copyBytes(in, out, 4*1024, false);System.out.println("downlaod by stream success");}}private static void create(String file, byte[] data) throws Exception {try (HdfsClient client = HdfsClient.from(ServerEnum.REPLICATE2, "root");FileSystem fs = client.getFileSystem()) {FSDataOutputStream outPut = fs.create(new Path(file));outPut.write(data);outPut.close();}}public static void main(String[] args) throws Exception {String local1 = HdfsUtil.class.getResource("/hello.txt").getPath();String local2 = "D:\\code\\pratise\\big-data\\study\\hadoop\\src\\main\\resources\\down.txt";String remote1 = "/hello.txt";String remote2 = "hdfs://node1:9000/hello2.txt";String createFile = "hdfs://node1:9000/new.txt";//        upload(local, remote1;
//
//        download(remote2, "");//        streamUpload(local1, remote1);//            streamDownload(remote2, local2);create(createFile, "这是新建的文件".getBytes(StandardCharsets.UTF_8));}
}

http://www.ppmy.cn/news/1418587.html

相关文章

为什么要部署IP SSL证书?怎么申请?

我们需要知道什么是IP SSL证书。SSL&#xff0c;全称为Secure Sockets Layer&#xff0c;即安全套接层&#xff0c;是为网络通信提供安全及数据完整性的一种安全协议。而IP SSL证书就是基于SSL协议的一种证书&#xff0c;它能够为网站和用户的数据传输提供加密处理&#xff0c;…

1.9 数据结构之 并查集

编程总结 在刷题之前需要反复练习的编程技巧&#xff0c;尤其是手写各类数据结构实现&#xff0c;它们好比就是全真教的上乘武功 本栏目为学习笔记参考&#xff1a;https://leetcode.cn/leetbook/read/disjoint-set/oviefi/ 1.0 概述 并查集&#xff08;Union Find&#xff09…

医院预约系统微信小程序APP前后端

医院预约系统具体功能介绍&#xff1a;展示信息、可以注册和登录&#xff0c; 预约&#xff08;包含各个科室的预约&#xff0c;可以预约每个各个医生&#xff09;&#xff0c;就诊引导包含预约的具体信息&#xff0c;包含就诊时间、就诊科室、就诊医生以及就诊人信息、和支付状…

Springboot实现链路追踪功能

前言 在日常开发中&#xff0c;一个业务的实现往往会调用很多个方法&#xff0c;当我们去看日志的时候&#xff0c;各种接口的日志打印出来&#xff0c;看着就头疼&#xff0c;压根没办法去定位&#xff0c;而链路追踪就能很好的帮助我们去查看接口从头至尾依次调用了哪些方法…

Linux —— FTP服务【从0-1】

目录 一、介绍 1.概述 2.FTP的传输模式 PORT 主动模式 PASV 被动模式 3.FTP服务的作用 二、搭建FTP服务器 FTP服务端配置 1.安装vsftpd文件服务 2.启动服务 3.防火墙配置 4.FTP服务相关文件说明 FTP客户端配置 1.安装FTP客户端工具 lftp 2.访问FTP服务器 Linux系…

Kylin IPv4 setting config

Kylin IPv4 setting-CSDN博客 上次配置完重启又没了&#xff0c;永久需要修改配置文件 /etc/sysconfig/network-scripts ifcfg-ens33

单路高清HDMI编码器JR-3211HD

产品简介&#xff1a; JR-3211HD单路高清HDMI编码器是专业的高清音视频编码产品&#xff0c;该产品具有支持1路高清HDMI音视频采集功能&#xff0c; 1路3.5MM独立外接音频输入&#xff0c;编码输出双码流H.264格式&#xff0c;音频MP3/AAC格式。编码码率可调&#xff0c;画面质…

[入门到放弃]设计模式-笔记

模块化设计 20240448 模块不包含数据&#xff0c;通过实例的指针&#xff0c;实现对实例的操作&#xff1b;唯一包含的数据是用于管理这些模块的侵入式链表模块只负责更具定义的数据结构&#xff0c;执行对应的逻辑&#xff0c;实现不同实例的功能&#xff1b; 参考资料 使用…