百度360必应搜狗淘宝本站头条
当前位置:网站首页 > 热门文章 > 正文

如何使用Hadoop捆绑的低级工具进行数据提取?

bigegpt 2024-09-12 11:19 17 浏览

在之前的几个章节,我们已经掌握了如何将数据从其他系统导入Hadoop。一旦企业使用Hadoop执行某些关键功能,无论是数据挖掘还是数据聚合,下一步通常是将该数据外部化到其他系统。例如,通常依靠Hadoop对从实时系统中提取的数据执行离线聚合,然后将派生数据反馈到实时系统中。

本节将介绍一些希望从Hadoop获取数据的常见方案,以及可帮助完成这项工作的工具。我们首先看一下现有的低级工具,其中大多数工具都内置在Hadoop中,然后继续研究如何将数据推送到关系数据库和HBase。

首先,我们将介绍如何使用命令行从Hadoop中复制文件。

5.3.1 Roll your own egress

本节介绍Hadoop中用于从HDFS复制数据的一些内置机制。这些技术可以手动执行,也可以使用Azkaban,Oozie甚至cron等调度系统自动执行。

实践:使用CLI提取文件

想象一下,你在Hadoop中运行一些工作来聚合数据,现在想要把它拿出来,可以使用的一种方法是HDFS命令行界面(CLI),用于将目录和文件提取到本地文件系统。此技术涵盖了一些可以帮助你的基本CLI命令。

问题

希望使用shell将文件从HDFS复制到本地文件系统。

解决方案

HDFS CLI可用于一次性移动,或者相同的命令可以合并到脚本中,以便更频繁地使用移动。

讨论

通过hadoop命令可以将文件从HDFS复制到本地磁盘:

$ hadoop fs -get hdfs-file.txt local-file.txt

Hadoop put命令的行为与Linux中的Linux cp命令不同,如果目标已存在,则被覆盖; 在Hadoop中,副本失败并显示错误:

put: `hdfs-file.txt': File exists

必须添加-f选项以强制覆盖文件:

$ hadoop fs -get -f hdfs-file.txt local-file.txt

与Linux cp命令相似,可以使用相同的命令复制多个文件。在这种情况下,最后一个参数必须是HDFS文件复制到本地文件系统的目录:

$ hadoop fs -get hdfs-file1.txt hdfs-file2.txt /local/dest/

通常,一个是将大量文件从HDFS复制到本地磁盘——例如,MapReduce作业输出目录包含每个任务的文件。如果使用的是可以连接的文件格式,则可以使用-getmerge命令组合多个文件。默认情况下,在连接期间,在每个文件的末尾添加换行符:

$ hdfs fs -getmerge hdfs-dir/part* /local/output.txt

fs命令支持更多操作——查看完整列表,运行命令时没有任何选项。

使用CLI的挑战在于它非常低级,并且无法满足自动化需求。当然,我们可以在shell脚本中使用CLI,但是一旦升级到更复杂的编程语言,为每个HDFS命令分配进程并不理想。在这种情况下,可能希望查看使用REST,Java或C HDFS API。下一个技术着眼于REST API。

实践:使用REST提取文件

使用CLI对于快速运行命令和编写脚本非常方便,但是会产生为每个命令分配单独进程的开销,这可能是希望避免的,特别是如果在编程中与HDFS连接。该技术涵盖了使用Java以外的语言处理HDFS。

问题

如何让没有HDFS本机接口的编程语言与HDFS进行交互。

解决方案

使用Hadoop的WebHDFS接口,该接口为HDFS操作提供全功能的REST API。

讨论

在开始之前,需要在集群上启用WebHDFS

让我们首先使用CLI在HDFS中创建一个文件:

$echo "the cat sat on the mat" | hadoop fs -put - /tmp/hdfs-file.txt

从HDFS读取文件是指定OPEN为operation:

实践:在防火墙下实现HDFS读取

生产Hadoop环境通常被锁定以保护驻留在这些集群中的数据。部分安全过程可能包括将集群置于防火墙之后,如果Hadoop集群的目标位于防火墙之外,这可能会造成麻烦。该技术着眼于使用HttpFS网关通过端口80提供HDFS访问,端口80通常在防火墙上打开。

问题

希望从HDFS中提取数据,但是正处于限制访问HDFS的防火墙下。

解决方案

使用HttpFS网关,这是一个独立服务器,可通过HTTP提供对HDFS的访问。因为它是一个单独的服务而且是HTTP,所以可以配置为在任何可访问Hadoop节点的主机上运行,并且可以打开防火墙规则以允许流量到服务。

讨论

HttpFS非常有用,不仅可以使用REST来访问HDFS,还具有完整的Hadoop文件系统实现,这意味着可以使用CLI和本机HDFS Java客户端与HDFS进行通信。

一旦运行,可以发出与之前使用WebHDFS技术相同的curl命令(唯一的区别是URL主机和端口,需要指向部署HttpFS的位置)。这是关于HttpFS网关的好处之一—语法完全相同。

要转储文件/tmp/hdfs-file.txt的内容,需要执行以下操作:

实践:使用NFS挂载Hadoop

通常,如果Hadoop数据可以作为文件系统的常规安装来访问,那么使用Hadoop数据要容易得多。这允许使用现有脚本,工具和编程语言,并轻松地与HDFS中的数据进行交互。本节介绍如何使用NFS轻松地从HDFS复制数据。

问题

将HDFS视为常规Linux文件系统,并使用标准Linux工具与HDFS进行交互。

解决方案

使用Hadoop的NFS实现来访问HDFS中的数据。

讨论

前文介绍了用于NFS访问HDFS的设置指令。设置完成后,可以执行正常的文件系统操作,例如将文件从HDFS复制到本地文件系统。以下示例显示了这一点,假设HDFS安装在/hdfs下:

$ cp /hdfs/tmp/foo.txt ~/

实践:使用DistCp从Hadoop中复制数据

想象一下,希望从Hadoop中移出大量数据。对于本节中的大多数技术,有一个瓶颈,因为通过单个主机汇集数据,该主机是运行该进程的主机。要尽可能优化数据移动,需要利用MapReduce并行复制数据。这是DistCp发挥作用的地方,这种技术是一种可以将数据提取到NFS挂载的方法。

问题

希望有效地从Hadoop中提取数据并并行化副本。

解决方案

使用DistCp。

讨论

前文详细介绍了DistCp,并包含有关如何在不同Hadoop集群之间复制数据的详细信息,但DistCp不能用于将数据从Hadoop复制到本地文件系统(反之亦然),因为DistCp作为MapReduce作业运行,并且集群将无法访问本地文件系统。根据具体情况,有几种选择:

使用HDFS File Slurper复制本地文件。

将文件复制到NFS,该NFS也可用于集群中的所有DataNode。

如果使用第二个选项,则可以使用DistCp并在每个DataNode上写入本地安装的NFS挂载,其示例如下:

请注意,NFS系统可能无法处理大量并行读取或写入,因此可能希望使用少于默认值20的mapper运行此命令——以下示例使用5个mapper运行:

使用Java提取文件

假设已经在HDFS中生成了许多Lucene索引,并且希望将它们拉出到外部主机。也许你想用Java以某种方式操作文件,此技术显示了如何使用Java HDFS API读取HDFS中的数据。

问题

希望将HDFS中的文件复制到本地文件系统。

解决方案

使用Hadoop的文件系统API从HDFS复制数据。

讨论

HDFS Java API与Java的I/O模型很好地集成,这意味着可以使用常规输入流和I/O输出流。

首先,需要使用命令行在HDFS中创建一个文件:

$ echo "hello world" | hadoop fs -put - hdfs-file.txt

现在使用命令行将该文件复制到本地文件系统:

$ hadoop fs -get hdfs-file.txt local-file.txt

让我们来探索如何在Java中复制此副本。编写代码有两个主要部分—第一部分是获取FileSystem的句柄并创建文件,第二部分是将数据从标准输入复制到OutputStream:

可以通过运行以下命令来查看此代码在实践中的工作原理:

到目前为止,我们已经介绍了与Hadoop捆绑在一起的低级工具,以帮助提取数据。接下来,我们将介绍从HDFS到本地文件系统的近乎连续的数据移动方法。

相关推荐

得物可观测平台架构升级:基于GreptimeDB的全新监控体系实践

一、摘要在前端可观测分析场景中,需要实时观测并处理多地、多环境的运行情况,以保障Web应用和移动端的可用性与性能。传统方案往往依赖代理Agent→消息队列→流计算引擎→OLAP存储...

warm-flow新春版:网关直连和流程图重构

本期主要解决了网关直连和流程图重构,可以自此之后可支持各种复杂的网关混合、多网关直连使用。-新增Ruoyi-Vue-Plus优秀开源集成案例更新日志[feat]导入、导出和保存等新增json格式支持...

扣子空间体验报告

在数字化时代,智能工具的应用正不断拓展到我们工作和生活的各个角落。从任务规划到项目执行,再到任务管理,作者深入探讨了这款工具在不同场景下的表现和潜力。通过具体的应用实例,文章展示了扣子空间如何帮助用户...

spider-flow:开源的可视化方式定义爬虫方案

spider-flow简介spider-flow是一个爬虫平台,以可视化推拽方式定义爬取流程,无需代码即可实现一个爬虫服务。spider-flow特性支持css选择器、正则提取支持JSON/XML格式...

solon-flow 你好世界!

solon-flow是一个基础级的流处理引擎(可用于业务规则、决策处理、计算编排、流程审批等......)。提供有“开放式”驱动定制支持,像jdbc有mysql或pgsql等驱动,可...

新一代开源爬虫平台:SpiderFlow

SpiderFlow:新一代爬虫平台,以图形化方式定义爬虫流程,不写代码即可完成爬虫。-精选真开源,释放新价值。概览Spider-Flow是一个开源的、面向所有用户的Web端爬虫构建平台,它使用Ja...

通过 SQL 训练机器学习模型的引擎

关注薪资待遇的同学应该知道,机器学习相关的岗位工资普遍偏高啊。同时随着各种通用机器学习框架的出现,机器学习的门槛也在逐渐降低,训练一个简单的机器学习模型变得不那么难。但是不得不承认对于一些数据相关的工...

鼠须管输入法rime for Mac

鼠须管输入法forMac是一款十分新颖的跨平台输入法软件,全名是中州韵输入法引擎,鼠须管输入法mac版不仅仅是一个输入法,而是一个输入法算法框架。Rime的基础架构十分精良,一套算法支持了拼音、...

Go语言 1.20 版本正式发布:新版详细介绍

Go1.20简介最新的Go版本1.20在Go1.19发布六个月后发布。它的大部分更改都在工具链、运行时和库的实现中。一如既往,该版本保持了Go1的兼容性承诺。我们期望几乎所...

iOS 10平台SpriteKit新特性之Tile Maps(上)

简介苹果公司在WWDC2016大会上向人们展示了一大批新的好东西。其中之一就是SpriteKitTileEditor。这款工具易于上手,而且看起来速度特别快。在本教程中,你将了解关于TileE...

程序员简历例句—范例Java、Python、C++模板

个人简介通用简介:有良好的代码风格,通过添加注释提高代码可读性,注重代码质量,研读过XXX,XXX等多个开源项目源码从而学习增强代码的健壮性与扩展性。具备良好的代码编程习惯及文档编写能力,参与多个高...

Telerik UI for iOS Q3 2015正式发布

近日,TelerikUIforiOS正式发布了Q32015。新版本新增对XCode7、Swift2.0和iOS9的支持,同时还新增了对数轴、不连续的日期时间轴等;改进TKDataPoin...

ios使用ijkplayer+nginx进行视频直播

上两节,我们讲到使用nginx和ngixn的rtmp模块搭建直播的服务器,接着我们讲解了在Android使用ijkplayer来作为我们的视频直播播放器,整个过程中,需要注意的就是ijlplayer编...

IOS技术分享|iOS快速生成开发文档(一)

前言对于开发人员而言,文档的作用不言而喻。文档不仅可以提高软件开发效率,还能便于以后的软件开发、使用和维护。本文主要讲述Objective-C快速生成开发文档工具appledoc。简介apple...

macOS下配置VS Code C++开发环境

本文介绍在苹果macOS操作系统下,配置VisualStudioCode的C/C++开发环境的过程,本环境使用Clang/LLVM编译器和调试器。一、前置条件本文默认前置条件是,您的开发设备已...