百度360必应搜狗淘宝本站头条
当前位置:网站首页 > 热门文章 > 正文

HDFS 搭建「hadoop核心」

bigegpt 2024-09-12 11:18 41 浏览

1. 环境

1.0 准备

配置详情如下:

主机名 IP 安装组件 ceph-1 192.168.16.4 master(NameNode, SecondaryNameNode) & slave(DataNode) ceph-2 192.168.16.5 slave(DataNode) ceph-3 192.168.16.6 slave(DataNode) 注意:

由于之前这三台部署了ceph,所以主机名就叫这个了。。。我们ignore他们的名字就好。

1.1 主机名配置

修改每台主机的主机名,执行命令

[root@xxxx ~]# hostnamectl set-hostname [hostname]

这里hostname就是ceph-1, ceph-2, ceph-3

注:执行后其实已经生效,此终端左侧xxxx还没有显示主机名,新开一个终端即可看到

1.2 java

下载jdk包

之后,vim /etc/profile

JAVA_HOME=/home/java/jdk1.8.0_131
JRE_HOME=$JAVA_HOME/jre
PATH=$PATH:$JAVA_HOME/bin
CLASSPATH=.:$JAVA_HOME/lib/dt.jar:$JAVA_HOME/lib/tools.jar
export JAVA_HOME
export JRE_HOME
export PATH
export CLASSPATH

source /etc/profile 使其生效

没完,建立软连接

ln -s /home/java/jdk1.8.0_131/bin/java /usr/bin/java

1.3 无密登录

在节点ceph-1执行

[root@ceph-1 ~]# ssh-keygen -t rsa

一路回车即可

之后,执行

[root@ceph-1 ~]# ssh-copy-id root@ceph-2
[root@ceph-1 ~]# ssh-copy-id root@ceph-3

2. HDFS配置

#下载
wget http://mirrors.hust.edu.cn/apache/hadoop/common/hadoop-2.9.1/hadoop-2.9.1.tar.gz
#解压
tar zxvf hadoop-2.9.1.tar.gz -C /opt/

配置环境变量,修改配置文件vim /etc/profile,添加

export HADOOP_HOME=/opt/hadoop-2.9.1
export PATH=$PATH:$HADOOP_HOME/bin

source /etc/profile 使其生效

2.1 修改hdfs配置文件(在master上)

2.1.1 core-site.xml

<configuration>
 <property>
 <name>hadoop.tmp.dir</name>
 <value>/opt/hadoop-2.9.1/tmp</value>
 <description>Abase for other temporary directories.</description>
 </property>
 <property>
 <name>fs.defaultFS</name>
 <value>hdfs://ceph-1:9000</value>
 </property>
</configuration>

参数说明:

  • fs.default.name指定NameNode的IP地址和端口号
  • hadoop.tmp.dir指定hadoop数据存储的临时文件夹

2.1.2 hdfs-site.xml

 <property>
 <name>dfs.replication</name>
 <value>3</value>
 </property>
 <property>
 <name>dfs.name.dir</name>
 <value>/opt/hadoop-2.9.1/hdfs/name</value>
 </property>
 <property>
 <name>dfs.data.dir</name>
 <value>/opt/hadoop-2.9.1/hdfs/data</value>
 </property>
 <property>
 <name>dfs.namenode.secondary.http-address</name>
 <value>ceph-1:9001</value>
 <description>secondarynamenode的web地址</description>
 </property>
 <property>
 <name>dfs.webhdfs.enabled</name>
 <value>true</value>
 <description>提供web访问hdfs的权限</description>
 </property>

参数说明:

  • dfs.replication指定HDFS的备份数为3
  • dfs.name.dir指定namenode节点的文件存储目录
  • dfs.data.dir指定datanode节点的文件存储目录

2.1.3 mapred-site.xml

<configuration>
 <property>
 <name>mapreduce.framework.name</name>
 <value>yarn</value>
 </property>
 <property>
 <name>mapreduce.jobtracker.address</name>
 <value>master:9010</value>
 </property>
</configuration>

说明:

  • 貌似配置这个jobtracker没什么实际作用

2.1.4 yarn-site.xml

<configuration>
<!-- Site specific YARN configuration properties -->
 <property>
 <name>yarn.nodemanager.aux-services</name>
 <value>mapreduce_shuffle</value>
 </property>
 <property>
 <name>yarn.resourcemanager.hostname</name>
 <value>ceph-1</value>
 </property>
</configuration>

注意:

  • slave节点要配置yarn.resourcemanager.hostname属性,否则NodeManager启动不起来,会报找不到service的bug

2.1.5 slaves

#将slave的hostname写入
ceph-1
ceph-2
ceph-3

2.2 修改hdfs配置文件(在slave上)

只需要将刚才修改好的配置文件复制到slave节点即可

scp -r /opt/hadoop-2.9.1/ ceph-2:/opt/
scp -r /opt/hadoop-2.9.1/ ceph-3:/opt/

slave节点不需要slaves文件,但留着也无碍

3. HDFS启动

#格式化namenode
hadoop namenode -format
#启动hdfs
sbin/start-dfs.sh
#启动yarn
start-yarn.sh 

通过jps可查看进程

在master节点运行

[root@ceph-1 hadoop-2.9.1]# jps
2640956 Jps
2613197 NodeManager
2612859 SecondaryNameNode
2612442 NameNode
2613098 ResourceManager
2612632 DataNode

在slave节点运行

[root@ceph-2 logs]# jps
2566087 Jps
2534869 DataNode
2562436 NodeManager

说明:

  • NodeManager是运行在单个节点上的代理,它管理Hadoop集群中单个计算节点,功能包括与ResourceManager保持通信,管理Container的生命周期、监控每个Container的资源使用(内存、CPU等)情况、追踪节点健康状况、管理日志和不同应用程序用到的附属服务等
  • ResourceManager: 用于对外提供yarn服务,资源分配等,还负责托管用户提交的mapreduce作业,负载均衡等
#停止hdfs
sbin/stop-all.sh

查看集群状态

[root@ceph-1 hadoop-2.9.1]# hdfs dfsadmin -report
Configured Capacity: 42140381184 (39.25 GB)
Present Capacity: 31786508288 (29.60 GB)
DFS Remaining: 31786479616 (29.60 GB)
DFS Used: 28672 (28 KB)
DFS Used%: 0.00%
Under replicated blocks: 0
Blocks with corrupt replicas: 0
Missing blocks: 0
Missing blocks (with replication factor 1): 0
Pending deletion blocks: 0
-------------------------------------------------
Live datanodes (1):
Name: 127.0.0.1:50010 (ceph-1)
Hostname: ceph-1
Decommission Status : Normal
Configured Capacity: 42140381184 (39.25 GB)
DFS Used: 28672 (28 KB)
Non DFS Used: 8404475904 (7.83 GB)
DFS Remaining: 31786479616 (29.60 GB)
DFS Used%: 0.00%
DFS Remaining%: 75.43%
Configured Cache Capacity: 0 (0 B)
Cache Used: 0 (0 B)
Cache Remaining: 0 (0 B)
Cache Used%: 100.00%
Cache Remaining%: 0.00%
Xceivers: 1
Last contact: Thu Jun 28 17:58:01 CST 2018
Last Block Report: Thu Jun 28 16:48:03 CST 2018

通过浏览器查看集群状态

http://ceph-1:50070 #dfs.namenode.http-address

注意坑点

  1. Error: JAVA_HOME is not set and could not be found
  2. 修改hadoop-env.sh
export JAVA_HOME={JAVA_HOME}
将上面的改成下面
export JAVA_HOME=/opt/jdk1.8.0_171
  1. slave的datanode连接不上namenode
  2. 修改master的/etc/hosts
#将下面这行去掉
127.0.0.1 localhost

收藏前点个关注把,小编会不定时给大家更新干货的呢

相关推荐

当Frida来“敲”门(frida是什么)

0x1渗透测试瓶颈目前,碰到越来越多的大客户都会将核心资产业务集中在统一的APP上,或者对自己比较重要的APP,如自己的主业务,办公APP进行加壳,流量加密,投入了很多精力在移动端的防护上。而现在挖...

服务端性能测试实战3-性能测试脚本开发

前言在前面的两篇文章中,我们分别介绍了性能测试的理论知识以及性能测试计划制定,本篇文章将重点介绍性能测试脚本开发。脚本开发将分为两个阶段:阶段一:了解各个接口的入参、出参,使用Python代码模拟前端...

Springboot整合Apache Ftpserver拓展功能及业务讲解(三)

今日分享每天分享技术实战干货,技术在于积累和收藏,希望可以帮助到您,同时也希望获得您的支持和关注。架构开源地址:https://gitee.com/msxyspringboot整合Ftpserver参...

Linux和Windows下:Python Crypto模块安装方式区别

一、Linux环境下:fromCrypto.SignatureimportPKCS1_v1_5如果导包报错:ImportError:Nomodulenamed'Crypt...

Python 3 加密简介(python des加密解密)

Python3的标准库中是没多少用来解决加密的,不过却有用于处理哈希的库。在这里我们会对其进行一个简单的介绍,但重点会放在两个第三方的软件包:PyCrypto和cryptography上,我...

怎样从零开始编译一个魔兽世界开源服务端Windows

第二章:编译和安装我是艾西,上期我们讲述到编译一个魔兽世界开源服务端环境准备,那么今天跟大家聊聊怎么编译和安装我们直接进入正题(上一章没有看到的小伙伴可以点我主页查看)编译服务端:在D盘新建一个文件夹...

附1-Conda部署安装及基本使用(conda安装教程)

Windows环境安装安装介质下载下载地址:https://www.anaconda.com/products/individual安装Anaconda安装时,选择自定义安装,选择自定义安装路径:配置...

如何配置全世界最小的 MySQL 服务器

配置全世界最小的MySQL服务器——如何在一块IntelEdison为控制板上安装一个MySQL服务器。介绍在我最近的一篇博文中,物联网,消息以及MySQL,我展示了如果Partic...

如何使用Github Action来自动化编译PolarDB-PG数据库

随着PolarDB在国产数据库领域荣膺桂冠并持续获得广泛认可,越来越多的学生和技术爱好者开始关注并涉足这款由阿里巴巴集团倾力打造且性能卓越的关系型云原生数据库。有很多同学想要上手尝试,却卡在了编译数据...

面向NDK开发者的Android 7.0变更(ndk android.mk)

订阅Google官方微信公众号:谷歌开发者。与谷歌一起创造未来!受Android平台其他改进的影响,为了方便加载本机代码,AndroidM和N中的动态链接器对编写整洁且跨平台兼容的本机...

信创改造--人大金仓(Kingbase)数据库安装、备份恢复的问题纪要

问题一:在安装KingbaseES时,安装用户对于安装路径需有“读”、“写”、“执行”的权限。在Linux系统中,需要以非root用户执行安装程序,且该用户要有标准的home目录,您可...

OpenSSH 安全漏洞,修补操作一手掌握

1.漏洞概述近日,国家信息安全漏洞库(CNNVD)收到关于OpenSSH安全漏洞(CNNVD-202407-017、CVE-2024-6387)情况的报送。攻击者可以利用该漏洞在无需认证的情况下,通...

Linux:lsof命令详解(linux lsof命令详解)

介绍欢迎来到这篇博客。在这篇博客中,我们将学习Unix/Linux系统上的lsof命令行工具。命令行工具是您使用CLI(命令行界面)而不是GUI(图形用户界面)运行的程序或工具。lsoflsof代表&...

幻隐说固态第一期:固态硬盘接口类别

前排声明所有信息来源于网络收集,如有错误请评论区指出更正。废话不多说,目前固态硬盘接口按速度由慢到快分有这几类:SATA、mSATA、SATAExpress、PCI-E、m.2、u.2。下面我们来...

新品轰炸 影驰SSD多款产品登Computex

分享泡泡网SSD固态硬盘频道6月6日台北电脑展作为全球第二、亚洲最大的3C/IT产业链专业展,吸引了众多IT厂商和全球各地媒体的热烈关注,全球存储新势力—影驰,也积极参与其中,为广大玩家朋友带来了...