前面的文章把hadoop集群已经配置起来了,并且也通过zookeeper做了高可用了。现在就要基于我们部署的hdfs进行一些开发工作。今天我们要介绍的就是如何配置,搭建开发需要的环境。如何通过java代码调用hadoop提供的api进行目录建立和文件上传的工作。
准备
windows系统
hadoop的安装文件
hadoop的配置文件:core-site.xml hdfs-site.xml
eclispe以及对应的hadoop插件:(这个需要各位去网上寻找,我这里不给大家链接了)
配置windows环境变量
如果在windows上面开发hadoop需要配置一些环境变量,例如hadoop的位置,以及访问的用户。
系统变量,HADOOP_HOME 的配置,这个是你hadoop安装文件的地址。也就是我们在linux服务器上面安装的hadoop文件,需要copy一份到windows上。
系统变量,HADOOP_USER 的配置。这里需要指明是root用户来访问hadoop服务器
系统变量,PATH中把HADOOP_HOME的配置加到最后。
这里由于需要直接访问hadoop的几台服务器,之前我们的几台服务器中,node01,node02分别为主备namenode服务器。需要在windows的hosts中配置ip和服务器名字的对应。
在文件中
C:\Windows\System32\drivers\etc\hosts
把下面的配置加上,方便后面的访问。
192.168.146.101 node01
192.168.146.102 node02
192.168.146.103 node03
192.168.146.104 node04
Eclipse 配置hadoop连接
这里我们事先安装了hadoop的插件。这个大家可以在网上搜索一下,我这里不提供传送门了。安装好插件以后会在eclipse的右上方出现一个小象的标志,我们点一下,会出在ide下方出现一个Map/Reduce Location 的窗口,右键点击空白处,选择“New Hadoop Location”
在弹出的窗口中输入namenode节点的IP和端口。
这个节点的IP和端口可以通过,hadoop的web监控网站得知。之前通过ha高可用的方式建立了两个namenode 做主备。现在打开浏览器查看连个namenode的主备情况,寻找那个作为主namenode的节点填入就可以了。
这一步完成以后,可以在左边的菜单中看到“DFS Location”的文件夹,会发现下面有一个小象的图标,右键点击“reconnect”可以看到hadoop上的文件目录情况了。
你也可以尝试右键点击创建文件夹和文件。
eclipese项目配置
配置好了以后就可以看写代码了。但是在写之前,我们需要先引入一下hadoop的jar包,这些jar包里面包括访问hadoop的一些方法和对象,是后面我们需要使用的。并且还需要把之前配置的hadoop集群的配置,导入到项目中,程序才能知道如何访问namenode节点获取数据。
建立user lib,这里需要把hadoop安装文件中对应的jar包先copy到指定的目录中。
这里我建议把hadoop安装文件share/hadoop下面的文件夹中的jar文件都统一copy到一个专门的目录,用作user lib的建立。
这是我自己copy的文件目录,有100多个jar吧,如果有同名的就覆盖。
然后回到eclipse中,引入这些jar包。
新建一个hadoop的项目,随便起个名字,我这里叫test02.然后,选择eclipse菜单“windows-Preferences-Java-Build Path-User Libraries”new 一个user lib,起一个喜欢的名字,这里我用的名字是“hadoop”,然后把刚才copy出来的所有hadoop的jar包都加入进来就好了。以后有其他的项目需要使用hadoop的sdk,就直接使用这个user lib就好了,不用再把这些jar包copy来copy去了。
在项目下面建立一个conf目录用来存放Hadoop的配置文件,由于我们用的是ha的方式,所以再建立一个ha文件夹。把之前在hadoop中配置好的core-site.xml 和hdfs-site.xml 文件都copy到这个ha目录下面。这样我们的java项目就知道hadoop的配置情况了,就可以通过hadoop的sdk连接到对应的namenode上了。最后对ha目录点击右键,“Build Path-Use a Source Folder”把这些配置加入到项目中去。
Java代码操控hadoop的hdfs
我们这里需要做几个操作,新建一个hadoop的文件夹;上传一个文件;读取一个文件。代码相对简单。先新建一个java 类,通过FileSystem对象从配置中读取数据创建和hadoop的链接。直接调用hadoop的mkdir命令创建目录;打开本地的文件创建文件流,通过hadoop的copyutils命令上传;getFileBlockLocations命令读取文件信息。
后面附上源代码,大家可以参考,文章就到这里完了。
有兴趣的朋友点个关注,下次见。
package test02;
import java.io.BufferedInputStream;
import java.io.File;
import java.io.FileInputStream;
import java.io.IOException;
import java.io.InputStream;
import org.apache.hadoop.conf.Configuration;
import org.apache.hadoop.fs.BlockLocation;
import org.apache.hadoop.fs.FSDataInputStream;
import org.apache.hadoop.fs.FSDataOutputStream;
import org.apache.hadoop.fs.FileStatus;
import org.apache.hadoop.fs.FileSystem;
import org.apache.hadoop.fs.Path;
import org.apache.hadoop.io.IOUtils;
import org.junit.After;
import org.junit.Before;
import org.junit.Test;
public class TestHDFS {
Configuration conf;
FileSystem fs;
@Before
public void connect() throws Exception{
conf = new Configuration(true);
fs =FileSystem.get(conf);
}
@After
public void close() throws Exception{
fs.close();
}
@Test
public void mkdir() throws Exception{
Path ifile = new Path("hello");
if (fs.exists(ifile)){
fs.delete(ifile,true);
}
fs.mkdirs(ifile);
}
@Test
public void uploadFile() throws Exception{
Path f = new Path("/hello/123.txt");
FSDataOutputStream output = fs.create(f);
InputStream input = new BufferedInputStream(new FileInputStream(new File("C:\\123.txt")));
IOUtils.copyBytes(input, output, conf,true);
}
@Test
public void readFile() throws Exception{
Path i =new Path("/hello/123.txt");
FileStatus ifile = fs.getFileStatus(i);
BlockLocation[] blks =fs.getFileBlockLocations(ifile, 0, ifile.getLen());
for(BlockLocation b :blks){
System.out.println(b);
}
FSDataInputStream in = fs.open(i);
System.out.println((char)in.readByte());
System.out.println((char)in.readByte());
System.out.println((char)in.readByte());
System.out.println((char)in.readByte());
System.out.println((char)in.readByte());
System.out.println((char)in.readByte());
System.out.println((char)in.readByte());
System.out.println((char)in.readByte());
System.out.println((char)in.readByte());
}
}