如何使用Java API操作HDFS系统?(hdfs java api的常见环境准备?)
bigegpt 2025-07-02 18:26 2 浏览
1.搭建项目环境
打开Eclipse选择FileàNewàMaven Project创建Maven工程,选择“Create a simple project ”选项,点击【Next】按钮,会进入“New Maven Project”界面,如图1所示。
在图1中,勾选“Create a simple project(skip archetype selection)”表示创建一个简单的项目(跳过对原型模板的选择),然后勾选“User default Workspace location”表示使用本地默认的工作空间之后,点击【Next】按钮,如图2所示。
在图2中,GroupID也就是项目组织唯一的标识符,实际对应Java的包结构,这里输入com.itcast。ArtifactID就是项目的唯一标识符,实际对应项目的名称,就是项目根目录的名称,这里输入HadoopDemo,打包方式这里选择Jar包方式即可,后续创建Web工程选择War包。
此时Maven工程已经被创建好了,会发现在Maven项目中,有一个pom.xml的配置文件,这个配置文件就是对项目进行管理的核心配置文件。
使用Java API操作HDFS需要用到hadoop-common、hadoop-hdfs、hadoop-client三种依赖,同时为了进行单元测试,还要引入junit的测试包,具体代码如文件所示。
文件 pom.xml
<?xml version="1.0" encoding="UTF-8"?>
<project xmlns=`http://maven.apache.org/POM/4.0.0`
xmlns:xsi=`"http://www.w3.org/2001/XMLSchema-instance"`
xsi:schemaLocation=`"http://maven.apache.org/POM/4.0.0`
http://maven.apache.org/xsd/maven-4.0.0.xsd"`>
<modelVersion>4.0.0</modelVersion>
<groupId>com.itcast</groupId>
<artifactId>HadoopDemo</artifactId>
<version>0.0.1-SNAPSHOT</version>
**<dependencies>**
**<dependency>**
**<groupId>org.apache.hadoop</groupId>**
**<artifactId>hadoop-common</artifactId>**
**<version>2.7.4</version>**
**</dependency>**
**<dependency>**
**<groupId>org.apache.hadoop</groupId>**
**<artifactId>hadoop-hdfs</artifactId>**
**<version>2.7.4</version>**
**</dependency>**
**<dependency>**
**<groupId>org.apache.hadoop</groupId>**
**<artifactId>hadoop-client</artifactId>**
**<version>2.7.4</version>**
**</dependency>**
**<dependency>**
**<groupId>junit</groupId>**
**<artifactId>junit</artifactId>**
**<version>RELEASE</version>**
**</dependency>**
**</dependencies>**
</project>```
当添加依赖完毕后,Hadoop相关Jar包就会自动下载,部分Jar包如图3所示。

> 图3 成功导入Jar包
从图3可以看出,所需要的Hadoop的Jar包所在路径就是setting.xml中配置的本地仓库位置。
**2****.初始化客户端对象**
首先在项目src文件夹下创建com.itcast.hdfsdemo包,并在该包下创建HDFS_CRUD.java文件,编写Java测试类,构建Configuration和FileSystem对象,初始化一个客户端实例进行相应的操作,具体代码如文件3-2所示。
文件 HDFS_CRUD.java
```java
package com.itcast.hdfsdemo;
import java.io.*;
import org.apache.hadoop.conf.Configuration;
import org.apache.hadoop.fs.*;
import org.junit.*;
public class HDFS_CRUD {
FileSystem fs = null;
@Before
public void init() throws Exception {
// 构造一个配置参数对象,设置一个参数:我们要访问的hdfs的URI
Configuration conf = new Configuration();
// 这里指定使用的是HDFS文件系统
**conf.set("fs.defaultFS", "hdfs://hadoop01:9000")**;
// 通过如下的方式进行客户端身份的设置
**System.setProperty("HADOOP_USER_NAME", "root")**;
// 通过FileSystem的静态方法获取文件系统客户端对象
fs = FileSystem.get(conf);
}
}
在上述代码中,@Before是一个用于在Junit单元测试框架中控制程序最先执行的注解,这里可以保证init()方法在程序中最先执行。
小提示:
FileSystem.get()方法从conf中的设置的参数 fs.defaultFS的配置值,用来设置文件系统类型。如果代码中没有指定为fs.defaultFS,并且工程classpath下也没有给定相应的配置,则conf中的默认值就来自于hadoop-common-2.7.4.jar包中的core-default.xml,默认值为:“file:/// ”,这样获取的不是DistributedFileSystem实例,而是一个本地文件系统的客户端对象。
3.上传文件到HDFS
初始化客户端对象后,接下来实现上传文件到HDFS的功能。由于采用Java测试类来实现JavaApi对HDFS的操作,因此可以在HDFS_CRUD.java文件中添加一个testAddFileToHdfs()方法来演示本地文件上传到HDFS的示例,具体代码如下:
@Test
public void testAddFileToHdfs() throws IOException {
// 要上传的文件所在本地路径
Path src = new Path("D:/test.txt");
// 要上传到hdfs的目标路径
Path dst = new Path("/testFile");
// 上传文件方法
fs.copyFromLocalFile(src, dst);
// 关闭资源
fs.close();
}
从上述代码可以看出,可以通过FileSystem对象的copyFromLocalFile()方法,将本地数据上传至HDFS中。copyFromLocalFile()方法接收两个参数,第一个参数是要上传的文件所在的本地路径(需要提前创建),第二个参数是要上传到HDFS的目标路径。
4.从HDFS下载文件到本地
在HDFS_CRUD.java文件中添加一个testDownloadFileToLocal()方法,来实现从HDFS中下载文件到本地系统的功能,具体代码如下:
// 从hdfs中复制文件到本地文件系统
@Test
public void testDownloadFileToLocal() throws IllegalArgumentException,
IOException {
// 下载文件
fs.copyToLocalFile(new Path("/testFile"), new Path("D:/"));
fs.close();
}
从上述代码可以看出,可以通过FileSystem对象的copyToLocalFile()方法从HDFS上下载文件到本地。copyToLocalFile()方法接收两个参数,第一个参数是HDFS上的文件路径,第二个参数是下载到本地的目标路径。
注意:
在Windows平台开发HDFS项目时,若不设置Hadoop开发环境,则会报以下的错误:
java.io.IOException: (null) entry in command string: null chmod 0644 D:\testFile
解决方式:
(1)根据教材提示,安装配置windows平台hadoop(注意,配置后必须重启电脑),运行没有问题。
(2)直接使用下载的hadoop linux平台下的压缩包进行解压,然后在解压包bin目录下额外添加windows相关依赖文件(winutils.exe、winutils.pdb、hadoop.dll),然后进行hadoop环境变量配置(注意,配置后必须重启电脑),运行同样没有问题。
(3)使用FileSystem自带的方法即使不配置windows平台hadoop也可以正常运行(这种方法下载后就是没有附带一个类似.testFile.crc的校验文件):
fs.copyToLocalFile(false,new Path("/testFile"), new Path("D:/"),true);
5.目录操作
在HDFS_CRUD.java文件中添加一个
testMkdirAndDeleteAndRename()方法,实现目录的创建、删除、重命名的功能,具体代码如下:
// 创建,删除,重命名文件
@Test
public void testMkdirAndDeleteAndRename() throws Exception {
// 创建目录
fs.mkdirs(new Path("/a/b/c"));
fs.mkdirs(new Path("/a2/b2/c2"));
// 重命名文件或文件夹
fs.rename(new Path("/a"), new Path("/a3"));
// 删除文件夹,如果是非空文件夹,参数2必须给值true
fs.delete(new Path("/a2"), true);
}
从上述代码可以看出,可以通过调用FileSystem的mkdirs()方法创建新的目录;调用delete()方法可以删除文件夹,delete()方法接收两个参数,第一个参数表示要删除的文件夹路径,第二个参数用于设置是否递归删除目录,其值为true或false,true表示递归删除,false表示非递归删除;调用rename()方法可以对文件或文件夹重命名,rename()接收两个参数,第一个参数代表需要修改的目标路径,第二个参数代表新的命名。
6.查看目录中的文件信息
在HDFS_CRUD.java文件中添加一个testListFiles()方法,实现查看目录中所有文件的详细信息的功能,代码如下:
// 查看目录信息,只显示文件
@Test
public void testListFiles() throws FileNotFoundException,
IllegalArgumentException, IOException {
// 获取迭代器对象
RemoteIterator<LocatedFileStatus> listFiles = fs.listFiles(
new Path("/"), true);
while (listFiles.hasNext()) {
LocatedFileStatus fileStatus = listFiles.next();
// 打印当前文件名
System.out.println(fileStatus.getPath().getName());
// 打印当前文件块大小
System.out.println(fileStatus.getBlockSize());
// 打印当前文件权限
System.out.println(fileStatus.getPermission());
// 打印当前文件内容长度
System.out.println(fileStatus.getLen());
// 获取该文件块信息(包含长度,数据块,datanode的信息)
BlockLocation[] blockLocations =
fileStatus.getBlockLocations();
for (BlockLocation bl : blockLocations) {
System.out.println("block-length:" + bl.getLength() +
"--" + "block-offset:" + bl.getOffset());
String[] hosts = bl.getHosts();
for (String host : hosts) {
System.out.println(host);
}
}
System.out.println("-----------分割线-------------");
}
}
在上述代码中,可以调用FileSystem的listFiles()方法获取文件列表,其中第一个参数表示需要获取的目录路径,第二个参数表示是否递归查询,这里传入参数为true,表示需要递归查询。
- 上一篇:DataX写插件开发-集成阿里云RocketMQ
- 已经是最后一篇了
相关推荐
- 如何使用Java API操作HDFS系统?(hdfs java api的常见环境准备?)
-
1.搭建项目环境打开Eclipse选择FileàNewàMavenProject创建Maven工程,选择“Createasimpleproject”选项,点击【Next】按钮,会进入“New...
- DataX写插件开发-集成阿里云RocketMQ
-
在上一期我们对datax进行了技术调研DataX数据异构、数据同步神器,这一次我们集成一个RocketMQ写插件,能够非常方便对将mysql数据同步到MQ中,下面来总结下具体步骤。1.下载datax源...
- 以SpringMVC+Shiro+Mybatis为核心开发的精简后台系统源码分享
-
项目说明源码获取方式:关注转发之后私信回复【源码】即可免费获取到以SpringMVC+Shiro+Mybatis为核心开发的精简后台基础系统。包含用户管理,角色管理,部门管理,权限管理,菜单管理,日志...
- 手把手教小伙伴们使用 Nginx 部署 TienChin 项目!
-
今天我就来手把手教小伙伴们部署TienChin项目,一起把这个项目跑起来,看看到底是个什么样的项目。小伙伴们知道,对于这种前后端分离的项目,我们在实际部署的时候,可以按照前后端分离的方式来部署,也...
- 推荐一款超棒的SpringCloud 脚手架项目
-
之前接个私活,在网上找了好久没有找到合适的框架,不是版本低没人维护了,在不就是组件相互依赖较高。所以我自己搭建一个全新spingCloud框架,里面所有组件可插拔的,集成多个组件供大家选择,喜欢哪个用...
- SpringCloud 微服务迁移到 Kubernetes 容器化完整流程
-
k8s容器部署流程具体步骤:第一步:熟悉SpringCloud微服务项目第二步:源代码编译构建第三步:构建项目镜像并推送到镜像仓库第四步:K8s服务编排第五步:部署服务所需的基础环境第六步:部署微服...
- SpringBoot 实现动态配置及项目打包部署上线
-
一、动态配置文件我们需要了解Spring动态指定配置文件的方式,来提高我们的部署效率。1.1、概述在实际企业开发中,开发环境、测试环境、生产环境通常采用不同的数据库等中间件的连接方式。如果此时我们按照...
- 3.5 源码安装ONOS1.3.0(源码包怎么安装)
-
ONOS是由ON.Lab使用Java及Apache实现发布的首款开源的SDN网络操作系统,主要面向服务提供商和企业骨干网。近日笔者在学习ONOS的过程中写下了这篇文章,希望可以对刚接触ONOS的同学们...
- jenkins+gitlab 实现自动化部署(jenkins配置git自动部署)
-
目录1、安装jdk,要记住安装路径2、安装maven,要记住安装路径3、安装git,要记住安装路径4、安装gitlab5、安装jenkins(centos7)创建安装目录下载通用war包启动和关闭Je...
- CI&CD落地实践6-Jenkins接入maven构建后端springboot项目
-
前言在前面一篇《CI&CD落地实践5-Jenkins分布式环境搭建及多节点运行》中,我们介绍了如何在Windows及Linux系统上部署Jenkins从节点,本章节介绍如何在Jenkins创建mave...
- 从0到1体验Jenkins+Docker+Git+Registry实现CI自动化发布
-
阅读目录:一、前言二、发布流程三、环境准备四、部署思路梳理五、三台机器上操作六、Git机器上操作七、Docker机器上操作八、Jenkins机器上操作九、上传JAVA项目代码到Git仓库十、Jenki...
- 微服务架构实战:使用Jenkins实现自动化构建
-
使用Jenkins实现自动化构建一个大型平台的微服务架构设计通常会产生很多项目工程,因此会有很多服务和应用需要部署,并且需要不断地迭代和更新,这是一个庞大的工程,所以我们需要借助自动化工具,实现各个微...
- Jenkins 自动化部署实例讲解(jenkins自动化部署git 项目)
-
前言你平常在做自己的项目时,是否有过部署项目太麻烦的想法?如果你是单体项目,可能没什么感触,但如果你是微服务项目,相信你应该是有过这种感触的。这种情况下,我一般会劝你了解一下Jenkins这个玩意...
- 多模块的微服务项目容器化与Git追踪发布记录
-
在使用了微服务后,一个项目往往由多个模块组成,而容器化发布的建议是单个容器尽量只运行单个进程。所以我们会把每个模块单独打包成镜像运行。如果每个模块都单独配置Dockerfile会让我们维护起来很麻烦。...
- 手把手教你使用 Jenkins+Docker 实现持续集成
-
作者:乐之终曲来源:https://blog.csdn.net/qq_37143673/对于Jenkins我只能用两个字形容,难用。就不过多吐槽了,本篇是基于docker环境的使用。1.安...
- 一周热门
- 最近发表
-
- 如何使用Java API操作HDFS系统?(hdfs java api的常见环境准备?)
- DataX写插件开发-集成阿里云RocketMQ
- 以SpringMVC+Shiro+Mybatis为核心开发的精简后台系统源码分享
- 手把手教小伙伴们使用 Nginx 部署 TienChin 项目!
- 推荐一款超棒的SpringCloud 脚手架项目
- SpringCloud 微服务迁移到 Kubernetes 容器化完整流程
- SpringBoot 实现动态配置及项目打包部署上线
- 3.5 源码安装ONOS1.3.0(源码包怎么安装)
- jenkins+gitlab 实现自动化部署(jenkins配置git自动部署)
- CI&CD落地实践6-Jenkins接入maven构建后端springboot项目
- 标签列表
-
- mybatiscollection (79)
- mqtt服务器 (88)
- keyerror (78)
- c#map (65)
- resize函数 (64)
- xftp6 (83)
- bt搜索 (75)
- c#var (76)
- mybatis大于等于 (64)
- xcode-select (66)
- mysql授权 (74)
- 下载测试 (70)
- linuxlink (65)
- pythonwget (67)
- androidinclude (65)
- logstashinput (65)
- hadoop端口 (65)
- vue阻止冒泡 (67)
- oracle时间戳转换日期 (64)
- jquery跨域 (68)
- php写入文件 (73)
- kafkatools (66)
- mysql导出数据库 (66)
- jquery鼠标移入移出 (71)
- 取小数点后两位的函数 (73)