百度360必应搜狗淘宝本站头条
当前位置:网站首页 > 热门文章 > 正文

Centos7环境Hadoop3集群搭建

bigegpt 2025-02-27 14:21 8 浏览

由于项目需要存储历史业务数据,经过评估数据量会达到100亿以上,在原有mongodb集群和ES集群基础上,需要搭建Hbase集群进行调研,所以首先总结一下Hadoop集群的搭建过程。

一、三个节点的集群规划:


二、安装java1.8

请官网下载jdk1.8安装包,参考链接:

https://www.oracle.com/java/technologies/javase/javase-jdk8-downloads.html

tar -zxvf jdk-8u191-linux-x64.tar.gz
mv jdk1.8.0_191 jdk1.8

配置/etc/profile,追加如下内容:

export JAVA_HOME=/opt/jdk1.8
export JRE_HOME=$JAVA_HOME/jre
PATH=$JAVA_HOME/bin:$JRE_HOME/bin:$PATH
CLASSPATH=.:$JAVA_HOME/lib/rt.jar

配置生效

source /etc/profile

三、配置hosts文件

三台机器分别执行下列命令

vim /etc/hosts
#添加如下内容
10.10.26.21 node21
10.10.26.245 node245
10.10.26.255 node255

四、设置3台机器之间无密码访问

三台机器分别执行下列命令

#生成公钥
#一直回车,设置为默认值即可
ssh-keygen -t rsa  

生成公钥后,分发到3台机器上
ssh-copy-id node21
ssh-copy-id node245
ssh-copy-id node255

五、下载Hadoop安装包并进行配置

1、下载包地址:

mkdir -p /opt/hadoop
cd /opt/hadoop/
wget https://mirrors.tuna.tsinghua.edu.cn/apache/hadoop/common/hadoop-3.2.1/hadoop-3.2.1.tar.gz

tar -zxvf hadoop-3.2.1.tar.gz

2、修改Hadoop环境变量

vim /opt/hadoop/hadoop-3.2.1/etc/hadoop/hadoop-env.sh
##追加内容
export JAVA_HOME=/opt/jdk1.8
 
export HDFS_NAMENODE_USER=root
export HDFS_DATANODE_USER=root
export HDFS_SECONDARYNAMENODE_USER=root
export YARN_RESOURCEMANAGER_USER=root
export YARN_NODEMANAGER_USER=root
 
export HADOOP_PID_DIR=/var/hadoopdata/pids
export HADOOP_LOG_DIR=/var/hadoopdata/logs

3、修改core-site.xml

vim /opt/hadoop/hadoop-3.2.1/etc/hadoop/core-site.xml

 

        fs.defaultFS
        hdfs://node21:8020


        hadoop.tmp.dir
        /var/hadoopdata/tmp

 

3、修改HDFS的配置文件

vim /opt/hadoop/hadoop-3.2.1/etc/hadoop/hdfs-site.xml

   
             dfs.namenode.secondary.http-address
             node255:50090
   
   
             dfs.replication
             2
   
   
             dfs.namenode.name.dir
             file:/var/data/hadoop/hdfs/name
   
   
             dfs.datanode.data.dir
             file:/var/data/hadoop/hdfs/data
   
 

  dfs.namenode.http-address
  node21:8084

 

注意这里的8084 即是HDFS web 页面的监听端口

4、配置worker文件

vim /opt/hadoop/hadoop-3.2.1/etc/hadoop/workers
##追加内容
node21
node245
node255

5、配置yarn-site.xml

vim /opt/hadoop/hadoop-3.2.1/etc/hadoop/yarn-site.xml

    
       yarn.nodemanager.aux-services
       mapreduce_shuffle
   
   
      yarn.nodemanager.localizer.address
      0.0.0.0:8140
   
   
       yarn.resourcemanager.hostname
       node21
   
   
       yarn.log-aggregation-enable
       true
   
   
       yarn.log-aggregation.retain-seconds
       604800
   
   
       yarn.log.server.url
       http://node255:19888/jobhistory/logs
   
 
  
    yarn.resourcemanager.webapp.address
    node21:3206
  
 
 

注意这里3296就是hadoop yarn的web访问端口。

6、配置mapred-site.xml文件

vim /opt/hadoop/hadoop-3.2.1/etc/hadoop/mapred-site.xml

   
       mapreduce.framework.name
       yarn
   
 
   
       yarn.app.mapreduce.am.env
       HADOOP_MAPRED_HOME=/opt/hadoop/hadoop-3.2.1
   
   
       mapreduce.map.env
       HADOOP_MAPRED_HOME=/opt/hadoop/hadoop-3.2.1
   
   
       mapreduce.reduce.env
       HADOOP_MAPRED_HOME=/opt/hadoop/hadoop-3.2.1
   
 
   
       mapreduce.jobhistory.address
       node255:10020
   
   
       mapreduce.jobhistory.webapp.address
       node255:19888
   


7、把以上配置完的Hadoop文件夹copy到另两个节点 在node21上执行:

scp -r hadoop-3.2.1 root@node245:/opt/

scp -r hadoop-3.2.1 root@node255:/opt/

9、格式化HDFS的namenode节点 因为node21节点是namenode服务所在服务器,所以在node21上执行:

[root@node21 hadoop]# hdfs namenode -format

六、启动Hadoop集群

在三台机器上分别执行

vim /etc/profile

添加以下内容

#Hadoop config
export HADOOP_HOME=/opt/hadoop/hadoop-3.2.1
export PATH=$PATH:$HADOOP_HOME/bin
export PATH=$PATH:$HADOOP_HOME/sbin

启动命令

[root@node21 hadoop]# start-all.sh

七、查看节点进程情况,验证是否启动成功

3个节点进程如下: node21节点包括yarn的NodeManager和ResourceManager两个进程,hdfs的NameNode和DataNode两个进程。

[root@node21 logs]# jps -l
18470 org.apache.hadoop.hdfs.server.datanode.DataNode
19144 org.apache.hadoop.yarn.server.nodemanager.NodeManager
18940 org.apache.hadoop.yarn.server.resourcemanager.ResourceManager
18269 org.apache.hadoop.hdfs.server.namenode.NameNode
19629 sun.tools.jps.Jps

node245节点包括yarn的NodeManager进程,hdfs的DataNode进程。

[root@node245 opt]# jps -l
10689 org.apache.hadoop.hdfs.server.datanode.DataNode
10947 sun.tools.jps.Jps
10810 org.apache.hadoop.yarn.server.nodemanager.NodeManager

node255节点包括yarn的NodeManager进程,hdfs的DataNode和SecondaryNameNode两个进程。

[root@node255 hadoop-3.2.1]# jps -l
20151 sun.tools.jps.Jps
19768 org.apache.hadoop.hdfs.server.datanode.DataNode
19976 org.apache.hadoop.yarn.server.nodemanager.NodeManager
19886 org.apache.hadoop.hdfs.server.namenode.SecondaryNameNode
[root@node255 hadoop-3.2.1]# 

说明Hadoop已经正常启动了。

访问位置:

1、HDFS访问位置:http://10.10.26.21:8084/

可查看数据节点的信息:我的3个节点的硬盘每个都是160G。



HDFS空间:473G



2、Yarn页面访问位置:
http://10.10.26.21:3206/cluster


以上完成了Hadoop安装,主要是HDFS和YARN相关的多个服务进程。

下一篇将继续基于Hadoop集群,来继续完成Hbase集群的搭建工作。

相关推荐

Linux 系统启动完整流程

一、启动系统流程简介如上图,简述系统启动的大概流程:1:硬件引导UEFi或BIOS初始化,运行POST开机自检2:grub2引导阶段系统固件会从MBR中读取启动加载器,然后将控制权交给启动加载器GRU...

超专业解析!10分钟带你搞懂Linux中直接I/O原理

我们先看一张图:这张图大体上描述了Linux系统上,应用程序对磁盘上的文件进行读写时,从上到下经历了哪些事情。这篇文章就以这张图为基础,介绍Linux在I/O上做了哪些事情。文件系统什么是...

linux入门系列12--磁盘管理之分区、格式化与挂载

前面系列文章讲解了VI编辑器、常用命令、防火墙及网络服务管理,本篇将讲解磁盘管理相关知识。本文将会介绍大量的Linux命令,其中有一部分在“linux入门系列5--新手必会的linux命令”一文中已经...

Linux环境下如何设置多个交叉编译工具链?

常见的Linux操作系统都可以通过包管理器安装交叉编译工具链,比如Ubuntu环境下使用如下命令安装gcc交叉编译器:sudoapt-getinstallgcc-arm-linux-gnueab...

可算是有文章,把Linux零拷贝技术讲透彻了

阅读本文大概需要6.0分钟。作者:卡巴拉的树链接:https://dwz.cn/BaQWWtmh本文探讨Linux中主要的几种零拷贝技术以及零拷贝技术适用的场景。为了迅速建立起零拷贝的概念...

linux软链接的创建、删除和更新

大家都知道,有的时候,我们为了省下空间,都会使用链接的方式来进行引用操作。同样的,在系统级别也有。在Windows系列中,我们称其为快捷方式,在Linux中我们称其为链接(基本上都差不多了,其中可能...

Linux 中最容易被黑客动手脚的关键目录

在Linux系统中,黑客攻击后常会针对关键目录和文件进行修改以实现持久化、提权或隐藏恶意活动。本文介绍下黑客最常修改的目录及其手法。一、/etc目录关键文件有:/etc/passwd和/et...

linux之间传文件命令之Rsync傻瓜式教程

1.前言linux之间传文件命令用什么命令?本文介绍一种最常用,也是功能强大的文件同步和传输工具Rsync,本文提供详细傻瓜式教程。在本教程中,我们将通过实际使用案例和最常见的rsync选项的详细说...

Linux下删除目录符号链接的方法

技术背景在Linux系统中,符号链接(symlink)是一种特殊的文件,它指向另一个文件或目录。有时候,我们可能需要删除符号链接,但保留其指向的目标目录。然而,在删除符号链接时可能会遇到一些问题,例如...

阿里云国际站注册教程:aa云服务器怎么远程链接?

在全球化的今天,互联网带给我们无以计数的便利,而云服务器则是其中的重要基础设施之一。这篇文章将围绕阿里云国际站注册、aa云服务器如何远程链接,以及服务器安全防护如Ddos防火墙、网站应用防护waf防火...

Linux 5.16 网络子系统大范围升级 多个新适配器驱动加入

Linux在数据中心中占主导地位,因此每个内核升级周期的网络子系统变化仍然相当活跃。Linux5.16也不例外,周一最新与网络相关的更新加入了大量的驱动和新规范的支持。一个较新硬件的驱动是Realt...

搭建局域网文件共享服务(Samba),手机电脑都能看喜欢的影视剧

作为一名影视爱好者,为了方便地观看自己喜欢的影视作品,在家里搞一个专门用来存放电影的服务器是有必要的。蚁哥选则用一台Ubuntu系统的电脑做为服务器,共享影音文件,其他同一个局域网内的电脑或手机可以...

分享一个实用脚本—centos7系统巡检

概述这周闲得慌,就根据需求写了差不多20个脚本(部分是之前分享过的做了一些改进),今天主要分享一个给平时运维人员用的centos7系统巡检的脚本,或者排查问题检查系统情况也可以用..实用脚本#!/bi...

Linux 中创建符号链接的方法

技术背景在Linux系统里,符号链接(SymbolicLink),也被叫做软链接(SoftLink),是一种特殊的文件,它指向另一个文件或者目录。符号链接为文件和目录的管理带来了极大的便利,比...

一文掌握 Linux 符号链接

符号链接(SymbolicLink),通常被称为“软链接”,是Linux文件系统中一种强大而灵活的工具。它允许用户创建指向文件或目录的“快捷方式”,不仅简化了文件管理,还在系统配置、软件开发和日...