百度360必应搜狗淘宝本站头条
当前位置:网站首页 > 热门文章 > 正文

HDFS 搭建「hadoop核心」

bigegpt 2024-09-12 11:18 36 浏览

1. 环境

1.0 准备

配置详情如下:

主机名 IP 安装组件 ceph-1 192.168.16.4 master(NameNode, SecondaryNameNode) & slave(DataNode) ceph-2 192.168.16.5 slave(DataNode) ceph-3 192.168.16.6 slave(DataNode) 注意:

由于之前这三台部署了ceph,所以主机名就叫这个了。。。我们ignore他们的名字就好。

1.1 主机名配置

修改每台主机的主机名,执行命令

[root@xxxx ~]# hostnamectl set-hostname [hostname]

这里hostname就是ceph-1, ceph-2, ceph-3

注:执行后其实已经生效,此终端左侧xxxx还没有显示主机名,新开一个终端即可看到

1.2 java

下载jdk包

之后,vim /etc/profile

JAVA_HOME=/home/java/jdk1.8.0_131
JRE_HOME=$JAVA_HOME/jre
PATH=$PATH:$JAVA_HOME/bin
CLASSPATH=.:$JAVA_HOME/lib/dt.jar:$JAVA_HOME/lib/tools.jar
export JAVA_HOME
export JRE_HOME
export PATH
export CLASSPATH

source /etc/profile 使其生效

没完,建立软连接

ln -s /home/java/jdk1.8.0_131/bin/java /usr/bin/java

1.3 无密登录

在节点ceph-1执行

[root@ceph-1 ~]# ssh-keygen -t rsa

一路回车即可

之后,执行

[root@ceph-1 ~]# ssh-copy-id root@ceph-2
[root@ceph-1 ~]# ssh-copy-id root@ceph-3

2. HDFS配置

#下载
wget http://mirrors.hust.edu.cn/apache/hadoop/common/hadoop-2.9.1/hadoop-2.9.1.tar.gz
#解压
tar zxvf hadoop-2.9.1.tar.gz -C /opt/

配置环境变量,修改配置文件vim /etc/profile,添加

export HADOOP_HOME=/opt/hadoop-2.9.1
export PATH=$PATH:$HADOOP_HOME/bin

source /etc/profile 使其生效

2.1 修改hdfs配置文件(在master上)

2.1.1 core-site.xml

<configuration>
 <property>
 <name>hadoop.tmp.dir</name>
 <value>/opt/hadoop-2.9.1/tmp</value>
 <description>Abase for other temporary directories.</description>
 </property>
 <property>
 <name>fs.defaultFS</name>
 <value>hdfs://ceph-1:9000</value>
 </property>
</configuration>

参数说明:

  • fs.default.name指定NameNode的IP地址和端口号
  • hadoop.tmp.dir指定hadoop数据存储的临时文件夹

2.1.2 hdfs-site.xml

 <property>
 <name>dfs.replication</name>
 <value>3</value>
 </property>
 <property>
 <name>dfs.name.dir</name>
 <value>/opt/hadoop-2.9.1/hdfs/name</value>
 </property>
 <property>
 <name>dfs.data.dir</name>
 <value>/opt/hadoop-2.9.1/hdfs/data</value>
 </property>
 <property>
 <name>dfs.namenode.secondary.http-address</name>
 <value>ceph-1:9001</value>
 <description>secondarynamenode的web地址</description>
 </property>
 <property>
 <name>dfs.webhdfs.enabled</name>
 <value>true</value>
 <description>提供web访问hdfs的权限</description>
 </property>

参数说明:

  • dfs.replication指定HDFS的备份数为3
  • dfs.name.dir指定namenode节点的文件存储目录
  • dfs.data.dir指定datanode节点的文件存储目录

2.1.3 mapred-site.xml

<configuration>
 <property>
 <name>mapreduce.framework.name</name>
 <value>yarn</value>
 </property>
 <property>
 <name>mapreduce.jobtracker.address</name>
 <value>master:9010</value>
 </property>
</configuration>

说明:

  • 貌似配置这个jobtracker没什么实际作用

2.1.4 yarn-site.xml

<configuration>
<!-- Site specific YARN configuration properties -->
 <property>
 <name>yarn.nodemanager.aux-services</name>
 <value>mapreduce_shuffle</value>
 </property>
 <property>
 <name>yarn.resourcemanager.hostname</name>
 <value>ceph-1</value>
 </property>
</configuration>

注意:

  • slave节点要配置yarn.resourcemanager.hostname属性,否则NodeManager启动不起来,会报找不到service的bug

2.1.5 slaves

#将slave的hostname写入
ceph-1
ceph-2
ceph-3

2.2 修改hdfs配置文件(在slave上)

只需要将刚才修改好的配置文件复制到slave节点即可

scp -r /opt/hadoop-2.9.1/ ceph-2:/opt/
scp -r /opt/hadoop-2.9.1/ ceph-3:/opt/

slave节点不需要slaves文件,但留着也无碍

3. HDFS启动

#格式化namenode
hadoop namenode -format
#启动hdfs
sbin/start-dfs.sh
#启动yarn
start-yarn.sh 

通过jps可查看进程

在master节点运行

[root@ceph-1 hadoop-2.9.1]# jps
2640956 Jps
2613197 NodeManager
2612859 SecondaryNameNode
2612442 NameNode
2613098 ResourceManager
2612632 DataNode

在slave节点运行

[root@ceph-2 logs]# jps
2566087 Jps
2534869 DataNode
2562436 NodeManager

说明:

  • NodeManager是运行在单个节点上的代理,它管理Hadoop集群中单个计算节点,功能包括与ResourceManager保持通信,管理Container的生命周期、监控每个Container的资源使用(内存、CPU等)情况、追踪节点健康状况、管理日志和不同应用程序用到的附属服务等
  • ResourceManager: 用于对外提供yarn服务,资源分配等,还负责托管用户提交的mapreduce作业,负载均衡等
#停止hdfs
sbin/stop-all.sh

查看集群状态

[root@ceph-1 hadoop-2.9.1]# hdfs dfsadmin -report
Configured Capacity: 42140381184 (39.25 GB)
Present Capacity: 31786508288 (29.60 GB)
DFS Remaining: 31786479616 (29.60 GB)
DFS Used: 28672 (28 KB)
DFS Used%: 0.00%
Under replicated blocks: 0
Blocks with corrupt replicas: 0
Missing blocks: 0
Missing blocks (with replication factor 1): 0
Pending deletion blocks: 0
-------------------------------------------------
Live datanodes (1):
Name: 127.0.0.1:50010 (ceph-1)
Hostname: ceph-1
Decommission Status : Normal
Configured Capacity: 42140381184 (39.25 GB)
DFS Used: 28672 (28 KB)
Non DFS Used: 8404475904 (7.83 GB)
DFS Remaining: 31786479616 (29.60 GB)
DFS Used%: 0.00%
DFS Remaining%: 75.43%
Configured Cache Capacity: 0 (0 B)
Cache Used: 0 (0 B)
Cache Remaining: 0 (0 B)
Cache Used%: 100.00%
Cache Remaining%: 0.00%
Xceivers: 1
Last contact: Thu Jun 28 17:58:01 CST 2018
Last Block Report: Thu Jun 28 16:48:03 CST 2018

通过浏览器查看集群状态

http://ceph-1:50070 #dfs.namenode.http-address

注意坑点

  1. Error: JAVA_HOME is not set and could not be found
  2. 修改hadoop-env.sh
export JAVA_HOME={JAVA_HOME}
将上面的改成下面
export JAVA_HOME=/opt/jdk1.8.0_171
  1. slave的datanode连接不上namenode
  2. 修改master的/etc/hosts
#将下面这行去掉
127.0.0.1 localhost

收藏前点个关注把,小编会不定时给大家更新干货的呢

相关推荐

得物可观测平台架构升级:基于GreptimeDB的全新监控体系实践

一、摘要在前端可观测分析场景中,需要实时观测并处理多地、多环境的运行情况,以保障Web应用和移动端的可用性与性能。传统方案往往依赖代理Agent→消息队列→流计算引擎→OLAP存储...

warm-flow新春版:网关直连和流程图重构

本期主要解决了网关直连和流程图重构,可以自此之后可支持各种复杂的网关混合、多网关直连使用。-新增Ruoyi-Vue-Plus优秀开源集成案例更新日志[feat]导入、导出和保存等新增json格式支持...

扣子空间体验报告

在数字化时代,智能工具的应用正不断拓展到我们工作和生活的各个角落。从任务规划到项目执行,再到任务管理,作者深入探讨了这款工具在不同场景下的表现和潜力。通过具体的应用实例,文章展示了扣子空间如何帮助用户...

spider-flow:开源的可视化方式定义爬虫方案

spider-flow简介spider-flow是一个爬虫平台,以可视化推拽方式定义爬取流程,无需代码即可实现一个爬虫服务。spider-flow特性支持css选择器、正则提取支持JSON/XML格式...

solon-flow 你好世界!

solon-flow是一个基础级的流处理引擎(可用于业务规则、决策处理、计算编排、流程审批等......)。提供有“开放式”驱动定制支持,像jdbc有mysql或pgsql等驱动,可...

新一代开源爬虫平台:SpiderFlow

SpiderFlow:新一代爬虫平台,以图形化方式定义爬虫流程,不写代码即可完成爬虫。-精选真开源,释放新价值。概览Spider-Flow是一个开源的、面向所有用户的Web端爬虫构建平台,它使用Ja...

通过 SQL 训练机器学习模型的引擎

关注薪资待遇的同学应该知道,机器学习相关的岗位工资普遍偏高啊。同时随着各种通用机器学习框架的出现,机器学习的门槛也在逐渐降低,训练一个简单的机器学习模型变得不那么难。但是不得不承认对于一些数据相关的工...

鼠须管输入法rime for Mac

鼠须管输入法forMac是一款十分新颖的跨平台输入法软件,全名是中州韵输入法引擎,鼠须管输入法mac版不仅仅是一个输入法,而是一个输入法算法框架。Rime的基础架构十分精良,一套算法支持了拼音、...

Go语言 1.20 版本正式发布:新版详细介绍

Go1.20简介最新的Go版本1.20在Go1.19发布六个月后发布。它的大部分更改都在工具链、运行时和库的实现中。一如既往,该版本保持了Go1的兼容性承诺。我们期望几乎所...

iOS 10平台SpriteKit新特性之Tile Maps(上)

简介苹果公司在WWDC2016大会上向人们展示了一大批新的好东西。其中之一就是SpriteKitTileEditor。这款工具易于上手,而且看起来速度特别快。在本教程中,你将了解关于TileE...

程序员简历例句—范例Java、Python、C++模板

个人简介通用简介:有良好的代码风格,通过添加注释提高代码可读性,注重代码质量,研读过XXX,XXX等多个开源项目源码从而学习增强代码的健壮性与扩展性。具备良好的代码编程习惯及文档编写能力,参与多个高...

Telerik UI for iOS Q3 2015正式发布

近日,TelerikUIforiOS正式发布了Q32015。新版本新增对XCode7、Swift2.0和iOS9的支持,同时还新增了对数轴、不连续的日期时间轴等;改进TKDataPoin...

ios使用ijkplayer+nginx进行视频直播

上两节,我们讲到使用nginx和ngixn的rtmp模块搭建直播的服务器,接着我们讲解了在Android使用ijkplayer来作为我们的视频直播播放器,整个过程中,需要注意的就是ijlplayer编...

IOS技术分享|iOS快速生成开发文档(一)

前言对于开发人员而言,文档的作用不言而喻。文档不仅可以提高软件开发效率,还能便于以后的软件开发、使用和维护。本文主要讲述Objective-C快速生成开发文档工具appledoc。简介apple...

macOS下配置VS Code C++开发环境

本文介绍在苹果macOS操作系统下,配置VisualStudioCode的C/C++开发环境的过程,本环境使用Clang/LLVM编译器和调试器。一、前置条件本文默认前置条件是,您的开发设备已...