HDFS Java客户端Daemon

ops/2024/9/22 21:13:57/

HDFS Java客户端Daemon

1.简单介绍

1.1.pom依赖

比较老的版本

<dependencyManagement><dependencies><dependency><groupId>org.apache.hadoop</groupId><artifactId>hadoop-common</artifactId><version>2.8.4</version></dependency><dependency><groupId>org.apache.hadoop</groupId><artifactId>hadoop-hdfs</artifactId><version>2.8.4</version></dependency><dependency><groupId>org.apache.hadoop</groupId><artifactId>hadoop-client</artifactId><version>2.8.4</version></dependency><dependency><groupId>org.projectlombok</groupId><artifactId>lombok</artifactId><version>1.16.10</version></dependency><dependency><groupId>log4j</groupId><artifactId>log4j</artifactId><version>1.2.17</version></dependency><dependency><groupId>org.slf4j</groupId><artifactId>slf4j-api</artifactId><version>1.7.7</version></dependency></dependencies>
</dependencyManagement>

1.2.简单介绍

org.apache.hadoop.fs.FileSystem是我们向HDFS发送请求的客户端,里面定义了HDFS常用的一些文件操作接口。

org.apache.hadoop.conf.Configuration,承载创建FileSystem客户端时的配置信息。

创建客户端的方法:

java">import org.apache.hadoop.fs.FileSystem;
import org.apache.hadoop.conf.Configuration;import java.net.URI;// 最简单的配置,可以用来创建一些读取、下载文件的客户端
// 1.配置信息
Configuration config = new Configuration();
config.set("fs.defaultFS", "hdfs://node1:9000");  // HDFS服务端地址
//2.获取文件系统
FileSystem fs = FileSystem.get(config);//指定用户、文件副本数的配置,可以用来创建一些上传、创建的客户端
// 1.配置信息
Configuration config = new Configuration();
config.set("dfs.replication", "2");
//2.获取文件系统
FileSystem fs = FileSystem.get(new URI("hdfs://node1:9000"), config, "root");

常用接口:

1.上传

java">
//1.上传本地Windows文件的路径
Path src = new Path("D:\\xxx");//2.要上传到HDFS的路径
Path dst = new Path("hdfs://node1:9000/xxx");//3.以拷贝的方式上传,从src -> dst
fs.copyFromLocalFile(src,dst);

2.下载

java">// 指定一下用户和副本数
FileSystem fs = FileSystem.get(new URI("hdfs://node1:9000"), config, "root"); //1.上传本地Windows文件的路径
Path local = new Path("D:\\xxx");//2.要上传到HDFS的路径
Path remote = new Path("hdfs://node1:9000/xxx");// 参数含义:是否删除远程文件  远程文件   本地文件  使用本地文件系统
fs.copyToLocalFile(false, remote, local, true);

2.搭建daemon

目录结构

hdfs01-0" class=" edge-thickness-normal edge-pattern-solid flowchart-link LS-main LE-hdfs01" style="fill:none;"> java-0" class=" edge-thickness-normal edge-pattern-solid flowchart-link LS-pool LE-HdfsClient.java" style="fill:none;"> java-0" class=" edge-thickness-normal edge-pattern-solid flowchart-link LS-pool LE-ServerEnum.java" style="fill:none;"> hdfs01-HdfsUtil.java-0" class=" edge-thickness-normal edge-pattern-solid flowchart-link LS-hdfs01 LE-HdfsUtil.java" style="fill:none;">
src
main
pool
hdfs01-105" transform="translate(424.5703125, 210.5)">
hdfs01
java-107" transform="translate(70.9140625, 301.5)">
HdfsClient.java
java-109" transform="translate(251.90625, 301.5)">
ServerEnum.java
java-111" transform="translate(424.5703125, 301.5)">
HdfsUtil.java

2.1. java" rel="nofollow">ServerEnum.java

记录配置信息

java">package pool;import org.apache.hadoop.conf.Configuration;public enum ServerEnum {DEFAULT("hdfs://node1:9000") {@Overridepublic Configuration getConfig() {Configuration config = new Configuration();config.set("fs.defaultFS", url);return config;}},REPLICATE2("hdfs://node1:9000") {@Overridepublic Configuration getConfig() {Configuration config = new Configuration();config.set("dfs.replication", "2");return config;}};public final String url;ServerEnum(String url) {this.url = url;}public abstract Configuration getConfig();
}

2.1. java" rel="nofollow">HdfsClient.java

生产HDFS客户端

java">package pool;import org.apache.hadoop.fs.FileSystem;import java.net.URI;public class HdfsClient implements AutoCloseable{private final FileSystem fileSystem;public FileSystem getFileSystem() {return fileSystem;}private HdfsClient(FileSystem fileSystem) {this.fileSystem = fileSystem;}public static HdfsClient from(ServerEnum serverEnum) throws Exception {FileSystem fileSystem = FileSystem.get(serverEnum.getConfig());return new HdfsClient(fileSystem);}public static HdfsClient from(ServerEnum serverEnum, String user) throws Exception {FileSystem fileSystem = FileSystem.get(new URI(serverEnum.url), serverEnum.getConfig(), user);return new HdfsClient(fileSystem);}@Overridepublic void close() throws Exception {if (fileSystem != null) {fileSystem.close();}}
}

2.3. hdfs01/HdfsUtil.java" rel="nofollow">HdfsUtil.java

java">package hdfs01;import org.apache.hadoop.fs.FSDataInputStream;
import org.apache.hadoop.fs.FSDataOutputStream;
import org.apache.hadoop.fs.FileSystem;
import org.apache.hadoop.fs.Path;
import org.apache.hadoop.io.IOUtils;
import pool.HdfsClient;
import pool.ServerEnum;import java.io.File;
import java.io.FileInputStream;
import java.io.FileOutputStream;
import java.nio.charset.StandardCharsets;public class HdfsUtil {private static void upload(String local, String remote) throws Exception {try (HdfsClient client = HdfsClient.from(ServerEnum.REPLICATE2, "root");FileSystem fs = client.getFileSystem()) {fs.copyFromLocalFile(new Path(local), new Path(remote));}System.out.println("upload success");}private static void download(String remote, String local) throws Exception {try (HdfsClient client = HdfsClient.from(ServerEnum.DEFAULT, "root");FileSystem fs = client.getFileSystem()) {fs.copyToLocalFile(false, new Path(remote), new Path(local), true);}System.out.println("download success");}private static void streamUpload(String local, String remote) throws Exception {try (HdfsClient client = HdfsClient.from(ServerEnum.REPLICATE2, "root");FileSystem fs = client.getFileSystem()) {FileInputStream input = new FileInputStream(new File(local));FSDataOutputStream output = fs.create(new Path(remote));IOUtils.copyBytes(input, output, 4*1024, false);}System.out.println("upload by stream success");}private static void streamDownload(String remote, String local) throws Exception {try (HdfsClient client = HdfsClient.from(ServerEnum.DEFAULT);FileSystem fs = client.getFileSystem()) {FileOutputStream out = new FileOutputStream(local);FSDataInputStream in = fs.open(new Path(remote));IOUtils.copyBytes(in, out, 4*1024, false);System.out.println("downlaod by stream success");}}private static void create(String file, byte[] data) throws Exception {try (HdfsClient client = HdfsClient.from(ServerEnum.REPLICATE2, "root");FileSystem fs = client.getFileSystem()) {FSDataOutputStream outPut = fs.create(new Path(file));outPut.write(data);outPut.close();}}public static void main(String[] args) throws Exception {String local1 = HdfsUtil.class.getResource("/hello.txt").getPath();String local2 = "D:\\code\\pratise\\big-data\\study\\hadoop\\src\\main\\resources\\down.txt";String remote1 = "/hello.txt";String remote2 = "hdfs://node1:9000/hello2.txt";String createFile = "hdfs://node1:9000/new.txt";//        upload(local, remote1;
//
//        download(remote2, "");//        streamUpload(local1, remote1);//            streamDownload(remote2, local2);create(createFile, "这是新建的文件".getBytes(StandardCharsets.UTF_8));}
}

http://www.ppmy.cn/ops/3715.html

相关文章

Hudi 表支持多种查询引擎对比

Hudi 表支持多种查询引擎对比 Apache Hudi有两种主要的表类型&#xff0c;分别是Copy on Write&#xff08;COW&#xff09;表和Merge on Read&#xff08;MOR&#xff09;表。 Copy on Write&#xff08;COW&#xff09;表&#xff1a; 特点&#xff1a;COW表在写入新数据时会…

create (MUs)方法

创建移动对象 (create (MUs)) 此部分来自 Plant Simulation 的对象参考指南,介绍用于创建移动对象的 create (MUs) 方法。 功能: 创建指定类型的移动对象 (MU) 实例。语法: <MU-路径>.create(MU-位置:any[, 位置:长度, 复制统计数据:布尔值, 前驱编号:整型]) → 对象…

SpringMVC学习笔记

SpringMVC搞定以后就可以开始整合了 文章目录 一、随便讲点儿1.1 SpringMVC底层原理 [ 执行流程1.2 SpringMVC组件 二、xml配置 开发2.1 web.xml配置前端控制器2.2 springmvc.xml配置其他2.3 开发处理器&#xff1a;就是写和上面不一样的东西2.4 前端视图2.5 配置Tomcat访问前端…

自定义Vue 2双向绑定指令:实现与解析

自定义Vue 2双向绑定指令&#xff1a;实现与解析 Vue.js以其简洁的语法和强大的数据绑定功能深受开发者喜爱。其中&#xff0c;内置的v-model指令实现了输入控件与数据模型之间的双向绑定&#xff0c;简化了表单交互的处理。然而&#xff0c;在某些特定场景下&#xff0c;我们…

Python-VBA函数之旅-getattr函数

目录 一、getattr函数的常见应用场景&#xff1a; 二、getattr函数使用注意事项&#xff1a; 1、getattr函数&#xff1a; 1-1、Python&#xff1a; 1-2、VBA&#xff1a; 2、推荐阅读&#xff1a; 个人主页&#xff1a;https://blog.csdn.net/ygb_1024?spm1010.21…

分类算法——模型选择与调优(三)

交叉验证 交叉验证&#xff1a;将拿到的训练数据&#xff0c;分为训练和验证集。以下图为例&#xff1a;将数据分成4份&#xff0c;其中 一份作为验证集。然后经过4次&#xff08;组&#xff09;的测试&#xff0c;每次都更换不同的验证集。即得到4组模型的 结果&#xff0c;取…

深入探索Apache ZooKeeper:关键技术学习与实践指南

导语 Apache ZooKeeper&#xff0c;作为一款广受认可的分布式协调服务&#xff0c;为大型分布式系统提供了强大的数据一致性、服务注册与发现、分布式锁、配置管理等基础服务。本文将深入剖析ZooKeeper的技术内核&#xff0c;梳理其关键学习点&#xff0c;并结合实践场景给出学…

用友U8 CRM swfupload 任意文件上传漏洞复现(XVE-2024-8597)

0x01 免责声明 请勿利用文章内的相关技术从事非法测试&#xff0c;由于传播、利用此文所提供的信息而造成的任何直接或者间接的后果及损失&#xff0c;均由使用者本人负责&#xff0c;作者不为此承担任何责任。工具来自网络&#xff0c;安全性自测&#xff0c;如有侵权请联系删…