百度360必应搜狗淘宝本站头条
当前位置:网站首页 > 热门文章 > 正文

Hadoop2.7.3环境搭建(HBase基础准备)

bigegpt 2024-09-12 11:18 13 浏览

先安装工具:yum install -y net-tools

上传工具包

解压文件

tar -zxvf hadoop-2.7.3.tar.gz -C /opt/bigdata/

修改hadoop/etc/hadoop/hadoop-env.sh文件

修改hadoop/etc/hadoop/mapred-env.sh文件

修改hadoop/etc/hadoop/yarn-env.sh文件

指定Java安装路径

export JAVA_HOME=/opt/bigdata/jdk1.8

继续修改四个配置文件

core-site.xml、hdfs-site.xml、yarn-site.xml、mapred-site.xml

hadoop中的四个核心模块对应四个默认配置文件,指定默认的文件系统为HDFS,文件系统的访问入口,namenode所在的机器9000端口是早期Hadoop 1.x使用的,现在Hadoop 2.x使用的是8020,端口号用于节点直接内部通信,使用RPC通信机制。

修改etc/hadoop/core-site.xml文件

/tmp表示临时存储目录,系统每次重启会按照脚本预先设置好的删除里面的文件,重新自定义系统生成的文件路径,/tmp会被清空,无法保证数据文件安全性。

<property>

<name>hadoop.tmp.dir</name>

<value>/opt/bigdata/hadoop-2.7.3/data/tmp</value>

</property>

<property>

<name>fs.default.name</name>

<value>hdfs://masterhbase:8082</value>

</property>

<property>

<name>hadoop.proxyuser.hadoop.hosts</name>

<value>*</value>

</property>

<property>

<name>hadoop.proxyuser.hadoop.groups</name>

<value>*</value>

</property>


修改etc/hadoop/hdfs-site.xml文件

指定HDFS文件存储的副本数个数,默认是3个,这个数字要小于datanode的节点数

<property>

<name>dfs.replication</name>

<value>3</value>

</property>

<property>

<name>dfs.namenode.name.dir</name>

<value>/opt/bigdata/hadoop-2.7.3/dfs/name</value>

</property>

<property>

<name>dfs.datanode.data.dir</name>

<value>/opt/bigdata/hadoop-2.7.3/dfs/data</value>

</property>

<property>

<name>dfs.web.ugi</name>

<value>hdfs,hadoop</value>

</property>

<property>

<name>dfs.permissions</name>

<value>false</value>

</property>

修改etc/hadoop/yarn-site.xml文件

<property>

<name>yarn.resourcemanager.hostname</name>

<value>masterhbase</value>

</property>

<property>

<name>yarn.resourcemanager.webapp.address</name>

<value>masterhbase:8088</value>

</property>

<property>

<name>yarn.resourcemanager.scheduler.address</name>

<value>masterhbase:8081</value>

</property>

<property>

<name>yarn.resourcemanager.resource-tracker.address</name>

<value>masterhbase:8087</value>

</property>

<property>

<name>yarn.nodemanager.aux-services</name>

<value>mapreduce_shuffle</value>

</property>

<property>

<name>yarn.nodemanager.aux-services.mapreduce.shuffle.class</name>

<value>org.apache.hadoop.mapred.ShuffleHandler</value>

</property>

<property>

<name>yarn.web-proxy.address</name>

<value>masterhbase:54315</value>

</property>

修改etc/hadoop/mapred-site.xml文件(注意重命名)

mv mapred-site.xml.template mapred-site.xml

<property>

<name>mapreduce.framework.name</name>

<value>yarn</value>

</property>

<property>

<name>mapred.job.tracker</name>

<value>masterhbase:9001</value>

</property>

<property>

<name>mapreduce.jobhistory.address</name>

<value>masterhbase:10020</value>

</property>

修改etc/hadoop/slaves文件,指定从节点的机器位置,添加主机名即可

三台机器配置NTP服务

把masterhbase作为整个集群的时间同步服务器

集群中所有其他服务器都来这台服务器masterhbase同步时间

检查每台服务器所在的时区

检查当前系统时区date –R

如果时区不是+0800,执行下列语句

(1)rm -rf /etc/localtime

(2)ln -s /usr/share/zoneinfo/Asia/Shanghai /etc/localtime

安装ntp服务

查看ntp软件包是否已安装

rpm -qa | grep ntp

如果没有那就需要安装ntp

yum install -y ntp

修改ntp的配置文件(masterhbase)

vim /etc/ntp.conf

去掉下面这行下面的#,并把网段修改成自己的网段

restrict 192.168.7.0 mask 255.255.255.0 nomodify notrap

*注释掉一下几行

#server 0.centos.pool.ntp.org iburst

#server 1.centos.pool.ntp.org iburst

#server 2.centos.pool.ntp.org iburst

#server 3.centos.pool.ntp.org iburst

把下面前面两行的#号去掉,如果没有,需要手动去添加

server 127.127.1.0 #local clock

fudge 127.127.1.0 stratum 10

启动ntp服务(默认是开启),检查下配置

service ntpd start

chkconfig ntpd on

同步服务器的时间(masterhbase)操作这一步时关闭ntp服务

同步服务器的时间

ntpdate cn.pool.ntp.org

第2、3台向第一台同步时间,启动masterhbase的ntp服务

如果另外两台的ntp的进程开启,那么需要关闭

service ntpd stop

chkconfig ntpd off

ntpdate masterhbase

制定周期性时间同步计划任务

每10分钟同步一次服务器时间

crontab -e

*/10 * * * * /usr/sbin/ntpdate masterhbase

修改下目录权限

chmod -R 777 /opt/bigdata/

将masterhbase中hadoop拷贝到另外两台机器

scp -r /opt/bigdata/hadoop-2.7.3 root@masterslave1:/opt/bigdata

scp -r /opt/bigdata/hadoop-2.7.3 root@masterslave2:/opt/bigdata

格式化命令(masterhbase)

bin/hdfs namenode –format

成功了

启动hadoop

sbin/start-all.sh

jps检查下进程,hadoop搭建完成

相关推荐

当Frida来“敲”门(frida是什么)

0x1渗透测试瓶颈目前,碰到越来越多的大客户都会将核心资产业务集中在统一的APP上,或者对自己比较重要的APP,如自己的主业务,办公APP进行加壳,流量加密,投入了很多精力在移动端的防护上。而现在挖...

服务端性能测试实战3-性能测试脚本开发

前言在前面的两篇文章中,我们分别介绍了性能测试的理论知识以及性能测试计划制定,本篇文章将重点介绍性能测试脚本开发。脚本开发将分为两个阶段:阶段一:了解各个接口的入参、出参,使用Python代码模拟前端...

Springboot整合Apache Ftpserver拓展功能及业务讲解(三)

今日分享每天分享技术实战干货,技术在于积累和收藏,希望可以帮助到您,同时也希望获得您的支持和关注。架构开源地址:https://gitee.com/msxyspringboot整合Ftpserver参...

Linux和Windows下:Python Crypto模块安装方式区别

一、Linux环境下:fromCrypto.SignatureimportPKCS1_v1_5如果导包报错:ImportError:Nomodulenamed'Crypt...

Python 3 加密简介(python des加密解密)

Python3的标准库中是没多少用来解决加密的,不过却有用于处理哈希的库。在这里我们会对其进行一个简单的介绍,但重点会放在两个第三方的软件包:PyCrypto和cryptography上,我...

怎样从零开始编译一个魔兽世界开源服务端Windows

第二章:编译和安装我是艾西,上期我们讲述到编译一个魔兽世界开源服务端环境准备,那么今天跟大家聊聊怎么编译和安装我们直接进入正题(上一章没有看到的小伙伴可以点我主页查看)编译服务端:在D盘新建一个文件夹...

附1-Conda部署安装及基本使用(conda安装教程)

Windows环境安装安装介质下载下载地址:https://www.anaconda.com/products/individual安装Anaconda安装时,选择自定义安装,选择自定义安装路径:配置...

如何配置全世界最小的 MySQL 服务器

配置全世界最小的MySQL服务器——如何在一块IntelEdison为控制板上安装一个MySQL服务器。介绍在我最近的一篇博文中,物联网,消息以及MySQL,我展示了如果Partic...

如何使用Github Action来自动化编译PolarDB-PG数据库

随着PolarDB在国产数据库领域荣膺桂冠并持续获得广泛认可,越来越多的学生和技术爱好者开始关注并涉足这款由阿里巴巴集团倾力打造且性能卓越的关系型云原生数据库。有很多同学想要上手尝试,却卡在了编译数据...

面向NDK开发者的Android 7.0变更(ndk android.mk)

订阅Google官方微信公众号:谷歌开发者。与谷歌一起创造未来!受Android平台其他改进的影响,为了方便加载本机代码,AndroidM和N中的动态链接器对编写整洁且跨平台兼容的本机...

信创改造--人大金仓(Kingbase)数据库安装、备份恢复的问题纪要

问题一:在安装KingbaseES时,安装用户对于安装路径需有“读”、“写”、“执行”的权限。在Linux系统中,需要以非root用户执行安装程序,且该用户要有标准的home目录,您可...

OpenSSH 安全漏洞,修补操作一手掌握

1.漏洞概述近日,国家信息安全漏洞库(CNNVD)收到关于OpenSSH安全漏洞(CNNVD-202407-017、CVE-2024-6387)情况的报送。攻击者可以利用该漏洞在无需认证的情况下,通...

Linux:lsof命令详解(linux lsof命令详解)

介绍欢迎来到这篇博客。在这篇博客中,我们将学习Unix/Linux系统上的lsof命令行工具。命令行工具是您使用CLI(命令行界面)而不是GUI(图形用户界面)运行的程序或工具。lsoflsof代表&...

幻隐说固态第一期:固态硬盘接口类别

前排声明所有信息来源于网络收集,如有错误请评论区指出更正。废话不多说,目前固态硬盘接口按速度由慢到快分有这几类:SATA、mSATA、SATAExpress、PCI-E、m.2、u.2。下面我们来...

新品轰炸 影驰SSD多款产品登Computex

分享泡泡网SSD固态硬盘频道6月6日台北电脑展作为全球第二、亚洲最大的3C/IT产业链专业展,吸引了众多IT厂商和全球各地媒体的热烈关注,全球存储新势力—影驰,也积极参与其中,为广大玩家朋友带来了...