百度360必应搜狗淘宝本站头条
当前位置:网站首页 > 热门文章 > 正文

90%程序员都应该知道的hadoop开发,动手搭建Hadoop(6)

bigegpt 2024-09-12 11:18 74 浏览

01 ssh免密安装

02 jdk安装

03 hadoop伪分布式安装

04 hadoop全分布式

05 hadoop高可用

前面的文章把hadoop集群已经配置起来了,并且也通过zookeeper做了高可用了。现在就要基于我们部署的hdfs进行一些开发工作。今天我们要介绍的就是如何配置,搭建开发需要的环境。如何通过java代码调用hadoop提供的api进行目录建立和文件上传的工作。

准备

windows系统

hadoop的安装文件

hadoop的配置文件:core-site.xml hdfs-site.xml

eclispe以及对应的hadoop插件:(这个需要各位去网上寻找,我这里不给大家链接了)

配置windows环境变量

如果在windows上面开发hadoop需要配置一些环境变量,例如hadoop的位置,以及访问的用户。

系统变量,HADOOP_HOME 的配置,这个是你hadoop安装文件的地址。也就是我们在linux服务器上面安装的hadoop文件,需要copy一份到windows上。

系统变量,HADOOP_USER 的配置。这里需要指明是root用户来访问hadoop服务器

系统变量,PATH中把HADOOP_HOME的配置加到最后。

这里由于需要直接访问hadoop的几台服务器,之前我们的几台服务器中,node01,node02分别为主备namenode服务器。需要在windows的hosts中配置ip和服务器名字的对应。

在文件中

C:\Windows\System32\drivers\etc\hosts

把下面的配置加上,方便后面的访问。

192.168.146.101 node01

192.168.146.102 node02

192.168.146.103 node03

192.168.146.104 node04

Eclipse 配置hadoop连接

这里我们事先安装了hadoop的插件。这个大家可以在网上搜索一下,我这里不提供传送门了。安装好插件以后会在eclipse的右上方出现一个小象的标志,我们点一下,会出在ide下方出现一个Map/Reduce Location 的窗口,右键点击空白处,选择“New Hadoop Location”

在弹出的窗口中输入namenode节点的IP和端口。

这个节点的IP和端口可以通过,hadoop的web监控网站得知。之前通过ha高可用的方式建立了两个namenode 做主备。现在打开浏览器查看连个namenode的主备情况,寻找那个作为主namenode的节点填入就可以了。

这一步完成以后,可以在左边的菜单中看到“DFS Location”的文件夹,会发现下面有一个小象的图标,右键点击“reconnect”可以看到hadoop上的文件目录情况了。

你也可以尝试右键点击创建文件夹和文件。

eclipese项目配置

配置好了以后就可以看写代码了。但是在写之前,我们需要先引入一下hadoop的jar包,这些jar包里面包括访问hadoop的一些方法和对象,是后面我们需要使用的。并且还需要把之前配置的hadoop集群的配置,导入到项目中,程序才能知道如何访问namenode节点获取数据。

建立user lib,这里需要把hadoop安装文件中对应的jar包先copy到指定的目录中。

这里我建议把hadoop安装文件share/hadoop下面的文件夹中的jar文件都统一copy到一个专门的目录,用作user lib的建立。

这是我自己copy的文件目录,有100多个jar吧,如果有同名的就覆盖。

然后回到eclipse中,引入这些jar包。

新建一个hadoop的项目,随便起个名字,我这里叫test02.然后,选择eclipse菜单“windows-Preferences-Java-Build Path-User Libraries”new 一个user lib,起一个喜欢的名字,这里我用的名字是“hadoop”,然后把刚才copy出来的所有hadoop的jar包都加入进来就好了。以后有其他的项目需要使用hadoop的sdk,就直接使用这个user lib就好了,不用再把这些jar包copy来copy去了。

在项目下面建立一个conf目录用来存放Hadoop的配置文件,由于我们用的是ha的方式,所以再建立一个ha文件夹。把之前在hadoop中配置好的core-site.xml 和hdfs-site.xml 文件都copy到这个ha目录下面。这样我们的java项目就知道hadoop的配置情况了,就可以通过hadoop的sdk连接到对应的namenode上了。最后对ha目录点击右键,“Build Path-Use a Source Folder”把这些配置加入到项目中去。

Java代码操控hadoop的hdfs

我们这里需要做几个操作,新建一个hadoop的文件夹;上传一个文件;读取一个文件。代码相对简单。先新建一个java 类,通过FileSystem对象从配置中读取数据创建和hadoop的链接。直接调用hadoop的mkdir命令创建目录;打开本地的文件创建文件流,通过hadoop的copyutils命令上传;getFileBlockLocations命令读取文件信息。

后面附上源代码,大家可以参考,文章就到这里完了。

有兴趣的朋友点个关注,下次见。

package test02;

import java.io.BufferedInputStream;

import java.io.File;

import java.io.FileInputStream;

import java.io.IOException;

import java.io.InputStream;

import org.apache.hadoop.conf.Configuration;

import org.apache.hadoop.fs.BlockLocation;

import org.apache.hadoop.fs.FSDataInputStream;

import org.apache.hadoop.fs.FSDataOutputStream;

import org.apache.hadoop.fs.FileStatus;

import org.apache.hadoop.fs.FileSystem;

import org.apache.hadoop.fs.Path;

import org.apache.hadoop.io.IOUtils;

import org.junit.After;

import org.junit.Before;

import org.junit.Test;

public class TestHDFS {

Configuration conf;

FileSystem fs;

@Before

public void connect() throws Exception{

conf = new Configuration(true);

fs =FileSystem.get(conf);

}

@After

public void close() throws Exception{

fs.close();

}

@Test

public void mkdir() throws Exception{

Path ifile = new Path("hello");

if (fs.exists(ifile)){

fs.delete(ifile,true);

}

fs.mkdirs(ifile);

}

@Test

public void uploadFile() throws Exception{

Path f = new Path("/hello/123.txt");

FSDataOutputStream output = fs.create(f);

InputStream input = new BufferedInputStream(new FileInputStream(new File("C:\\123.txt")));

IOUtils.copyBytes(input, output, conf,true);

}

@Test

public void readFile() throws Exception{

Path i =new Path("/hello/123.txt");

FileStatus ifile = fs.getFileStatus(i);

BlockLocation[] blks =fs.getFileBlockLocations(ifile, 0, ifile.getLen());

for(BlockLocation b :blks){

System.out.println(b);

}

FSDataInputStream in = fs.open(i);

System.out.println((char)in.readByte());

System.out.println((char)in.readByte());

System.out.println((char)in.readByte());

System.out.println((char)in.readByte());

System.out.println((char)in.readByte());

System.out.println((char)in.readByte());

System.out.println((char)in.readByte());

System.out.println((char)in.readByte());

System.out.println((char)in.readByte());

}

}

相关推荐

当Frida来“敲”门(frida是什么)

0x1渗透测试瓶颈目前,碰到越来越多的大客户都会将核心资产业务集中在统一的APP上,或者对自己比较重要的APP,如自己的主业务,办公APP进行加壳,流量加密,投入了很多精力在移动端的防护上。而现在挖...

服务端性能测试实战3-性能测试脚本开发

前言在前面的两篇文章中,我们分别介绍了性能测试的理论知识以及性能测试计划制定,本篇文章将重点介绍性能测试脚本开发。脚本开发将分为两个阶段:阶段一:了解各个接口的入参、出参,使用Python代码模拟前端...

Springboot整合Apache Ftpserver拓展功能及业务讲解(三)

今日分享每天分享技术实战干货,技术在于积累和收藏,希望可以帮助到您,同时也希望获得您的支持和关注。架构开源地址:https://gitee.com/msxyspringboot整合Ftpserver参...

Linux和Windows下:Python Crypto模块安装方式区别

一、Linux环境下:fromCrypto.SignatureimportPKCS1_v1_5如果导包报错:ImportError:Nomodulenamed'Crypt...

Python 3 加密简介(python des加密解密)

Python3的标准库中是没多少用来解决加密的,不过却有用于处理哈希的库。在这里我们会对其进行一个简单的介绍,但重点会放在两个第三方的软件包:PyCrypto和cryptography上,我...

怎样从零开始编译一个魔兽世界开源服务端Windows

第二章:编译和安装我是艾西,上期我们讲述到编译一个魔兽世界开源服务端环境准备,那么今天跟大家聊聊怎么编译和安装我们直接进入正题(上一章没有看到的小伙伴可以点我主页查看)编译服务端:在D盘新建一个文件夹...

附1-Conda部署安装及基本使用(conda安装教程)

Windows环境安装安装介质下载下载地址:https://www.anaconda.com/products/individual安装Anaconda安装时,选择自定义安装,选择自定义安装路径:配置...

如何配置全世界最小的 MySQL 服务器

配置全世界最小的MySQL服务器——如何在一块IntelEdison为控制板上安装一个MySQL服务器。介绍在我最近的一篇博文中,物联网,消息以及MySQL,我展示了如果Partic...

如何使用Github Action来自动化编译PolarDB-PG数据库

随着PolarDB在国产数据库领域荣膺桂冠并持续获得广泛认可,越来越多的学生和技术爱好者开始关注并涉足这款由阿里巴巴集团倾力打造且性能卓越的关系型云原生数据库。有很多同学想要上手尝试,却卡在了编译数据...

面向NDK开发者的Android 7.0变更(ndk android.mk)

订阅Google官方微信公众号:谷歌开发者。与谷歌一起创造未来!受Android平台其他改进的影响,为了方便加载本机代码,AndroidM和N中的动态链接器对编写整洁且跨平台兼容的本机...

信创改造--人大金仓(Kingbase)数据库安装、备份恢复的问题纪要

问题一:在安装KingbaseES时,安装用户对于安装路径需有“读”、“写”、“执行”的权限。在Linux系统中,需要以非root用户执行安装程序,且该用户要有标准的home目录,您可...

OpenSSH 安全漏洞,修补操作一手掌握

1.漏洞概述近日,国家信息安全漏洞库(CNNVD)收到关于OpenSSH安全漏洞(CNNVD-202407-017、CVE-2024-6387)情况的报送。攻击者可以利用该漏洞在无需认证的情况下,通...

Linux:lsof命令详解(linux lsof命令详解)

介绍欢迎来到这篇博客。在这篇博客中,我们将学习Unix/Linux系统上的lsof命令行工具。命令行工具是您使用CLI(命令行界面)而不是GUI(图形用户界面)运行的程序或工具。lsoflsof代表&...

幻隐说固态第一期:固态硬盘接口类别

前排声明所有信息来源于网络收集,如有错误请评论区指出更正。废话不多说,目前固态硬盘接口按速度由慢到快分有这几类:SATA、mSATA、SATAExpress、PCI-E、m.2、u.2。下面我们来...

新品轰炸 影驰SSD多款产品登Computex

分享泡泡网SSD固态硬盘频道6月6日台北电脑展作为全球第二、亚洲最大的3C/IT产业链专业展,吸引了众多IT厂商和全球各地媒体的热烈关注,全球存储新势力—影驰,也积极参与其中,为广大玩家朋友带来了...