百度360必应搜狗淘宝本站头条
当前位置:网站首页 > 热门文章 > 正文

0764-HDP Spark 2.3.2访问外部Hive 2的配置及验证

bigegpt 2024-09-12 11:19 53 浏览

作者:谢敏灵,Cloudera资深解决方案架构师

?背景

数据质量平台基于定义好的数据稽核和数据质量规则,生成Spark SQL并提交运行到HDP 3.1.5集群的Spark 2.3.2上。Spark 通过以下方式之一获取某Hadoop集群上Hive表的数据:

  • JDBC方式。Spark基于已有的Presto JDBC客户端,通过Presto服务器获取某Hadoop集群Hive表数据。

优点:Presto已打通与某Hadoop集群的连通,无需额外开通端口;

缺点:SQL通过Presto走,性能受制于Presto服务器和JDBC连接数。


  • Hive Metastore方式。Spark获取Hive Metastore的元数据,基于元数据直接访问某Hadoop集群的HDFS,获取Hive表数据。


优点:直接访问数据源,性能不受限制,性能调优集中在Spark端。

缺点:需要开通某Hadoop集群的Hive Metastore和HDFS的对应端口(如:Hive Metastore端口、NameNode端口、DataNode端口)。


本文只讨论Hive Metastore方式的配置和验证,即在对应端口已开通的前提下,如何通过配置实现Spark访问外部Hive 2。

1.1 模拟验证环境


基于以下环境模拟验证HDP Spark 2访问外部Hive 2:

  • HDP 3.1.5集群,组件版本:Spark 2.3.2,YARN 3.1.1,HDFS 3.1.1
  • CDH 6.2.0集群,组件版本:HDFS 3.0.0+cdh6.2.0,Hive 2.1.1+cdh6.2.0


Spark访问外部Hive Metastore


2.1 Spark访问Hive Metastore的相关配置

参考:https://spark.apache.org/docs/latest/sql-data-sources-hive-tables.html


2.1.1 hive-site.xml

Hive配置文件hive-site.xml需要放置到HDP Spark配置目录/etc/spark2/conf下,Spark基于hive-site.xml获取hive metastore uris等信息。

注意:hive-site.xml文件的属主是:spark:spark。


2.1.2 spark-defaults.conf

Spark SQL的Hive支持最重要的部分之一是与Hive Metastore的交互,这使Spark SQL能够访问Hive表的元数据。从Spark 1.4.0开始,Spark SQL的一个二进制构建包可以使用下面描述的配置来查询不同版本的Hive Metastore。


spark.sql.hive.metastore.version

Hive Metastore的版本。HDP Spark的默认配置为:3.0


spark.sql.hive.metastore.jars

用于实例化HiveMetastoreClient的jar包的位置。可用选项:

  • builtin:使用Spark内置的Hive jar包
  • maven:使用从Maven存储库下载的指定版本的Hive jar包
  • JVM类路径:JVM标准格式的类路径。这个类路径必须包含所有Hive及其依赖项,包括正确版本的Hadoop。这些jar只需要出现在driver上,但是如果在yarn cluster模式下运行,那么必须确保它们与应用程序打包在一起。

HDP Spark的默认配置为:/usr/hdp/current/spark2-client/standalone-metastore/*


2.2 Option 1:使用外部Hive Jar包

在/usr/hdp/current/spark2-client下创建目录standalone-metastore-hive2,并将外部Hive 2的hive-exec和hive-metastore包放到该目录下:


更改spark-defaults.conf配置:

  • spark.sql.hive.metastore.version:2.0
  • spark.sql.hive.metastore.jars:

/usr/hdp/current/spark2-client/standalone-metastore-hive2/*


测试验证:

可以访问外部Hive Metastore元数据。


2.3 Option 2:使用Spark内置的Hive Jar包

更改spark-defaults.conf配置:

  • spark.sql.hive.metastore.version:1.2.2
  • spark.sql.hive.metastore.jars:builtin


测试验证:

可以访问外部Hive Metastore元数据。


Spark访问外部Hive表


3.1 Option 1:hdfs-site.xml和core-site.xml

将外部Hive 2的hdfs-site.xml(HDFS配置)和core-site.xml(安全配置)文件放置到HDP Spark配置目录/etc/spark2/conf下。

注意:hdfs-site.xml和core-site.xml文件的属主是:spark:spark。


同时,还需要把CDH的yarn配置目录conf.cloudera.yarn整体复制到HDP Hadoop配置目录/etc/hadoop目录下:


Spark访问外部Hive表测试验证:

可以访问外部Hive表数据。


3.2 Option 2:HDFS跨集群访问

Option 1需要复制CDH的hdfs-site.xml、core-site.xml和conf.cloudera.yarn到HDP的相应目录下,比较麻烦,同时这种方式也不够灵活。


本文提出另一种更简单灵活的方式,该方式基于HDP和CDH的HDFS跨集群访问。

要实现HDFS跨集群访问及集群间互访,首先需要保证每个集群的nameservice ID唯一

(更改nameservice参考:https://docs.cloudera.com/documentation/enterprise/5-6-x/topics/admin_ha_change_nameservice.html)

;其次需要在hdfs-site.xml里增加其它集群的nameserviceID到dfs.nameservices属性中,如:

<property>
 <name>dfs.nameservices</name>
 <value>nameservice1,nameservice2,nameservice3,nameservice4</value>
</property>


同时复制那些引用nameserviceID的其它属性到hdfs-site.xml中,如:

dfs.ha.namenodes.<nameserviceID>
dfs.client.failover.proxy.provider.<nameserviceID>
dfs.namenode.rpc-address.<nameserviceID>.<namenode1>
dfs.namenode.servicerpc-address.<nameserviceID>.<namenode1>
dfs.namenode.http-address.<nameserviceID>.<namenode1>
dfs.namenode.https-address.<nameserviceID>.<namenode1>
dfs.namenode.rpc-address.<nameserviceID>.<namenode2>
dfs.namenode.servicerpc-address.<nameserviceID>.<namenode2>
dfs.namenode.http-address.<nameserviceID>.<namenode2>
dfs.namenode.https-address.<nameserviceID>.<namenode2>


HDFS跨集群访问测试验证:

以上,nameservice1是HDP HDFS的ID,nameservice2是CDH HDFS的ID。


Spark访问外部Hive表测试验证:

可以访问外部Hive表数据。


相比于Option 1,Option 2无需复制任何配置文件,同时Spark可以灵活地访问两个HDFS集群的文件:

相关推荐

当Frida来“敲”门(frida是什么)

0x1渗透测试瓶颈目前,碰到越来越多的大客户都会将核心资产业务集中在统一的APP上,或者对自己比较重要的APP,如自己的主业务,办公APP进行加壳,流量加密,投入了很多精力在移动端的防护上。而现在挖...

服务端性能测试实战3-性能测试脚本开发

前言在前面的两篇文章中,我们分别介绍了性能测试的理论知识以及性能测试计划制定,本篇文章将重点介绍性能测试脚本开发。脚本开发将分为两个阶段:阶段一:了解各个接口的入参、出参,使用Python代码模拟前端...

Springboot整合Apache Ftpserver拓展功能及业务讲解(三)

今日分享每天分享技术实战干货,技术在于积累和收藏,希望可以帮助到您,同时也希望获得您的支持和关注。架构开源地址:https://gitee.com/msxyspringboot整合Ftpserver参...

Linux和Windows下:Python Crypto模块安装方式区别

一、Linux环境下:fromCrypto.SignatureimportPKCS1_v1_5如果导包报错:ImportError:Nomodulenamed'Crypt...

Python 3 加密简介(python des加密解密)

Python3的标准库中是没多少用来解决加密的,不过却有用于处理哈希的库。在这里我们会对其进行一个简单的介绍,但重点会放在两个第三方的软件包:PyCrypto和cryptography上,我...

怎样从零开始编译一个魔兽世界开源服务端Windows

第二章:编译和安装我是艾西,上期我们讲述到编译一个魔兽世界开源服务端环境准备,那么今天跟大家聊聊怎么编译和安装我们直接进入正题(上一章没有看到的小伙伴可以点我主页查看)编译服务端:在D盘新建一个文件夹...

附1-Conda部署安装及基本使用(conda安装教程)

Windows环境安装安装介质下载下载地址:https://www.anaconda.com/products/individual安装Anaconda安装时,选择自定义安装,选择自定义安装路径:配置...

如何配置全世界最小的 MySQL 服务器

配置全世界最小的MySQL服务器——如何在一块IntelEdison为控制板上安装一个MySQL服务器。介绍在我最近的一篇博文中,物联网,消息以及MySQL,我展示了如果Partic...

如何使用Github Action来自动化编译PolarDB-PG数据库

随着PolarDB在国产数据库领域荣膺桂冠并持续获得广泛认可,越来越多的学生和技术爱好者开始关注并涉足这款由阿里巴巴集团倾力打造且性能卓越的关系型云原生数据库。有很多同学想要上手尝试,却卡在了编译数据...

面向NDK开发者的Android 7.0变更(ndk android.mk)

订阅Google官方微信公众号:谷歌开发者。与谷歌一起创造未来!受Android平台其他改进的影响,为了方便加载本机代码,AndroidM和N中的动态链接器对编写整洁且跨平台兼容的本机...

信创改造--人大金仓(Kingbase)数据库安装、备份恢复的问题纪要

问题一:在安装KingbaseES时,安装用户对于安装路径需有“读”、“写”、“执行”的权限。在Linux系统中,需要以非root用户执行安装程序,且该用户要有标准的home目录,您可...

OpenSSH 安全漏洞,修补操作一手掌握

1.漏洞概述近日,国家信息安全漏洞库(CNNVD)收到关于OpenSSH安全漏洞(CNNVD-202407-017、CVE-2024-6387)情况的报送。攻击者可以利用该漏洞在无需认证的情况下,通...

Linux:lsof命令详解(linux lsof命令详解)

介绍欢迎来到这篇博客。在这篇博客中,我们将学习Unix/Linux系统上的lsof命令行工具。命令行工具是您使用CLI(命令行界面)而不是GUI(图形用户界面)运行的程序或工具。lsoflsof代表&...

幻隐说固态第一期:固态硬盘接口类别

前排声明所有信息来源于网络收集,如有错误请评论区指出更正。废话不多说,目前固态硬盘接口按速度由慢到快分有这几类:SATA、mSATA、SATAExpress、PCI-E、m.2、u.2。下面我们来...

新品轰炸 影驰SSD多款产品登Computex

分享泡泡网SSD固态硬盘频道6月6日台北电脑展作为全球第二、亚洲最大的3C/IT产业链专业展,吸引了众多IT厂商和全球各地媒体的热烈关注,全球存储新势力—影驰,也积极参与其中,为广大玩家朋友带来了...