百度360必应搜狗淘宝本站头条
当前位置:网站首页 > 热门文章 > 正文

Hadoop 集群安装以及节点间通讯原理详解

bigegpt 2024-09-12 11:19 22 浏览

如下文章字数大约2500字,阅读时间需要25分钟左右。

hadoop 的相关概念这里不做更多介绍,后面的章节会有相关说明。

hadoop 的核心组件有3个:

A:HDFS(分布式文件系统)

B:YARN(运算资源调度系统)

C:MAPREDUCE(分布式运算编程框架)

本文所讲的hadoop集群主要包括2部分:hdfs集群 以及yarn 集群。而对应的mapreduce是编程时使用到的。

【1】hdfs 集群介绍

hdfs集群中有2种角色:主机叫做name node,从机叫做 data node。

【2】yarns 集群介绍

yarns 集群负责mapreduce程序分配运算硬件资源。

其最好在数据运算一侧,否则需要使用网络传输。所以,yarns就放在hdfs集群中 data node 中。

yarns 的从机角色:node manager

yarns 的主机角色:resource manager

在mapreduce运算的时候,是依靠yarns来运算的,这个主机角色非常重要,需要单独部署一台。而实际上,为了节省机器,一般把 resource manager放到和mapreduce主机角色一台机器上。两者端口不同,所以不会互相影响。

两者对应关系如下图:

上述内容如果只部署hdfs,其实也可以,不过其仅仅具有分布式文件系统存储功能。

而部署了yarns之后,才能跑mapreduce程序。

hadoop安装前期环境准备工作:

【1】jdk 安装。使用java -version 查看是否安装成功。

【2】免密登录。

【3】其他依赖环境安装:maven,ant,findbugs,64位本地库等等一系列依赖库。这里不做详细说明,可百度自己查找,后期还有一个详细介绍。

【4】对hadoop进行安装。

上传hadoop压缩包并解锁:tar -xvf hadoop-2.7.5.tar.gz

【5】配置对应配置文件:

进入hadoop解压目录内:如:/home/hadoop-2.7.5.tar.gz/etc/hadoop

大致内容为:

接下来对配置文件进行配置。

而配置文件的内容可以参考官网中说明:

对应配置文件内容有:hadoop-env.sh、core-site.xml、hafs-site.xml、mapred-site.xml、yarn-site.xml

<5.1> hadoop-env.sh 配置

需要得到jdk的安装目录,可以输入命令: echo $JAVA_HOME

然后将对应jdk路径配置到hadoop-env.sh 中JAVA_HOME属性内即可。

<5.2> core-site.xml 配置

主要配置如下:

fs.defaultFS表示:指定hadoop所使用的文件系统schema,HDFS的老大name node 的地址。

hadoop.tmp.dir表示:指定hadoop运行时产生文件的存储目录。

<5.3> hafs-site.xml 配置

dfs.replication表示:指定HDFS副本数量

需要注意的是:

这个hdfs-site.xml 很多内容都有默认值,是不需要配置的。也可以按需求配置内容。

上述中副本的意义是:客户端把文件交给hdfs之后,如果hdfs只保留一份的话,如果保留文件的机器down掉 了,就拿不到了。为了避免这种情况,可以配置副本。配置2的话,会保留2份,默认是3。

<5.4> mapred-site.xml 配置

这个需要注意的是:

此需要修改名字,默认为:mapred-site.xml.template

重命名:mv mapred-site.xml.template mapred-site.xml

mapreduce 是需要放到一个资源调度平台去跑的。就是放在yarns平台上。

所以这里需要给mapreduce指定运行平台名称:

默认为local,就是本机,就变成了单机版小程序,也能运行,而不是集群环境了

<5.5> yarn-site.xml 配置

yarn.resourcemanager.hostname 表示需要配置yarn的老大节点地址,master的作用是分配资源

yarn.nodemanager.aux-services 表示配置resourcemanager需要给mapreduce提供服务的名称

上述内容配置完成后,将对应内容发送到其他主机。

【6】配置hadoop环境变量

/etc/profile 文件下

添加完执行命令:source /ect/profile

【7】对hdfs做格式化

考虑到hdfs是一个文件系统,所以叫做格式化。

hdfs的格式化不是清空内容,而是生成一个个的数据目录。

进入到bin路径下:

/home/hadoop-2.7.5/bin

执行hdfs格式化命令:

./hadoop namenode -format

执行成功的标识就是在日志中有如下内容:

/home/dataDir/hadoopdata/ 这个是对应配置文件中配置的临时目录路径,其又在下面建立了dfs/name/current内容。

到对应路径下,其已包含了一些内容:

需要注意的是:与name node 节点不同的是,如果启动的data node 节点,对应路径会有不同。

如果data node ,启动之后,则路径为

这个data 文件夹就是存放对应文件的路径。

【8】启动相关内容

<8.1> 启动hdfs

根据hadoop机制。一个datanode启动起来后,整个集群中,如果启动一个namenode后,其会自动加入整个集群中。

<8.1.1> 启动name node

进入sbin目录:

执行命令:

sh hadoop-daemon.sh start namenode

这里需要注意,对应关闭就是:sh hadoop-daemon.sh stop namenode

启动之后可以直接namenode的访问页面:ip:50070

这里之所以可以直接通过web页面访问内容,是应为hadoop中嵌入了对应jetty。

50070就是jetty的端口号。

可以看到现在整个存储空间为0.因为文件系统中对应数据会存储到datanode中,现在整个集群中还没有datanode,所以现在是0;

当前namenode的相关信息为:

<8.1.2>启动其他主机上的datanode:

现启动其他主机上一个data node,命令为:hadoop-daemon.sh start datanode

<8.1.3> 测试hadoop集群中相关内容

基于8.1.2步骤中启动一个data node 后,现在再刷新刚才页面:

现在加入了一个17.17的空间。就是刚才启动的主机的容量

对应live Node (存活节点)也变为了 1。

证明:启动的一个data node后,成功加入了hadoop集群中。

也如上所述,name node 会自动将新建的data node 加入到集群中。

<8.1.4> 启动其他从机节点

在启动其他主机的datanode。命名如上。

现在整个集群中是一台namenode,三台data node。

在刷新name node 的访问页面:

现在总空间变成了 51.51 了。

活跃的节点为:3。

如上图所示:每启动一个data node ,都成功加入到集群中。

对应文件放到这50多G上,其就是放到了3台主机上。

对应集群实现了动态的扩展功能

<8.1.5> 集群自动化启动方法

如上述8.1.4中所述的启动方法,如果集群中有100台,则要启动100次,这样会非常麻烦。

其实hadoop已经给我们做好了自动化启动脚本。

在sbin文件下:

对应:stat-all.sh(启动所有)/stop-all.sh

start-dfs.sh(只启动hdfs)/stop-dfs.sh

start-yarns.sh(只启动yarn.sh)/stop-yarn.sh

不过,有了对应启动脚本,还需要有一个文件告诉脚本对应启动的机器的位置在哪里!!

在hadoop解压目录下的文件中: etc/hadoop/slavs 配置对应内容。

初始化slavs文件中只有一个内容:localhost

现在讲从机的data node 地址配置上去:

配置完成后,使用sh start-dfs.sh 启动

如果没有配置免密登录,则需要输入密码:

可以看到:

其是先启动本地的name node,然后再启动其他机器的data node。

最后,其又启动了一个secondary namenode 地址是 0.0.0.0.这个是脚本自己写的。

然后,可以验证对应主机以及其他主机是否启动完成了:

使用免密登录启动的日志:

可以看到,hdfs和yarns都启动起来了。最后resourcemanager是yarn的配置文件。

关于 secondary namenode 的含义后面文章介绍。

关于secondary namenode 的地址也是可以配置的,

就是在hdfs-site.xml 中配置。属性是dfs.secondary.http.address

综上就是Hadoop 集群安装的整个过程。

下篇预告:继续讲一些hadoop相关的内容

已上内容,纯属一家之言,因本人能力一般,见识有限,如有问题,请不吝指正,感谢。

相关技术内容会持续更新,大家可随时交流,欢迎关注本头条号。

相关推荐

当Frida来“敲”门(frida是什么)

0x1渗透测试瓶颈目前,碰到越来越多的大客户都会将核心资产业务集中在统一的APP上,或者对自己比较重要的APP,如自己的主业务,办公APP进行加壳,流量加密,投入了很多精力在移动端的防护上。而现在挖...

服务端性能测试实战3-性能测试脚本开发

前言在前面的两篇文章中,我们分别介绍了性能测试的理论知识以及性能测试计划制定,本篇文章将重点介绍性能测试脚本开发。脚本开发将分为两个阶段:阶段一:了解各个接口的入参、出参,使用Python代码模拟前端...

Springboot整合Apache Ftpserver拓展功能及业务讲解(三)

今日分享每天分享技术实战干货,技术在于积累和收藏,希望可以帮助到您,同时也希望获得您的支持和关注。架构开源地址:https://gitee.com/msxyspringboot整合Ftpserver参...

Linux和Windows下:Python Crypto模块安装方式区别

一、Linux环境下:fromCrypto.SignatureimportPKCS1_v1_5如果导包报错:ImportError:Nomodulenamed'Crypt...

Python 3 加密简介(python des加密解密)

Python3的标准库中是没多少用来解决加密的,不过却有用于处理哈希的库。在这里我们会对其进行一个简单的介绍,但重点会放在两个第三方的软件包:PyCrypto和cryptography上,我...

怎样从零开始编译一个魔兽世界开源服务端Windows

第二章:编译和安装我是艾西,上期我们讲述到编译一个魔兽世界开源服务端环境准备,那么今天跟大家聊聊怎么编译和安装我们直接进入正题(上一章没有看到的小伙伴可以点我主页查看)编译服务端:在D盘新建一个文件夹...

附1-Conda部署安装及基本使用(conda安装教程)

Windows环境安装安装介质下载下载地址:https://www.anaconda.com/products/individual安装Anaconda安装时,选择自定义安装,选择自定义安装路径:配置...

如何配置全世界最小的 MySQL 服务器

配置全世界最小的MySQL服务器——如何在一块IntelEdison为控制板上安装一个MySQL服务器。介绍在我最近的一篇博文中,物联网,消息以及MySQL,我展示了如果Partic...

如何使用Github Action来自动化编译PolarDB-PG数据库

随着PolarDB在国产数据库领域荣膺桂冠并持续获得广泛认可,越来越多的学生和技术爱好者开始关注并涉足这款由阿里巴巴集团倾力打造且性能卓越的关系型云原生数据库。有很多同学想要上手尝试,却卡在了编译数据...

面向NDK开发者的Android 7.0变更(ndk android.mk)

订阅Google官方微信公众号:谷歌开发者。与谷歌一起创造未来!受Android平台其他改进的影响,为了方便加载本机代码,AndroidM和N中的动态链接器对编写整洁且跨平台兼容的本机...

信创改造--人大金仓(Kingbase)数据库安装、备份恢复的问题纪要

问题一:在安装KingbaseES时,安装用户对于安装路径需有“读”、“写”、“执行”的权限。在Linux系统中,需要以非root用户执行安装程序,且该用户要有标准的home目录,您可...

OpenSSH 安全漏洞,修补操作一手掌握

1.漏洞概述近日,国家信息安全漏洞库(CNNVD)收到关于OpenSSH安全漏洞(CNNVD-202407-017、CVE-2024-6387)情况的报送。攻击者可以利用该漏洞在无需认证的情况下,通...

Linux:lsof命令详解(linux lsof命令详解)

介绍欢迎来到这篇博客。在这篇博客中,我们将学习Unix/Linux系统上的lsof命令行工具。命令行工具是您使用CLI(命令行界面)而不是GUI(图形用户界面)运行的程序或工具。lsoflsof代表&...

幻隐说固态第一期:固态硬盘接口类别

前排声明所有信息来源于网络收集,如有错误请评论区指出更正。废话不多说,目前固态硬盘接口按速度由慢到快分有这几类:SATA、mSATA、SATAExpress、PCI-E、m.2、u.2。下面我们来...

新品轰炸 影驰SSD多款产品登Computex

分享泡泡网SSD固态硬盘频道6月6日台北电脑展作为全球第二、亚洲最大的3C/IT产业链专业展,吸引了众多IT厂商和全球各地媒体的热烈关注,全球存储新势力—影驰,也积极参与其中,为广大玩家朋友带来了...