百度360必应搜狗淘宝本站头条
当前位置:网站首页 > 热门文章 > 正文

hadoop2.7.2 完全集群部署

bigegpt 2024-09-12 11:18 65 浏览

hdfs 参数配置

dfs.nameservices: 指定hdfs的nameservice为ns1,需要和core-site.xml中的保持一致
dfs.ha.namenodes.ns1:ns1下面有两个NameNode,分别是nn1,nn2
dfs.namenode.rpc-address.ns1.nn1: nn1的RPC通信地址
dfs.namenode.http-address.ns1.nn1: nn1的http通信地址
dfs.namenode.shared.edits.dir:指定NameNode的元数据在JournalNode上的存放位置
dfs.journalnode.edits.dir : 指定JournalNode在本地磁盘存放数据的位置
dfs.ha.automatic-failover.enabled: true是开启NameNode失败自动切换
dfs.client.failover.proxy.provider.ns1:配置失败自动切换实现方式
dfs.ha.fencing.ssh.private-key-files:使用sshfence隔离机制时需要ssh免登陆
fs.defaultFS:指定hdfs的nameservice为ns1
hadoop.tmp.dir:指定hadoop临时目录
ha.zookeeper.quorum:指定zookeeper地址


环境:

系统:centos 6.6 x86_64

机器:

192.168.0.93 lsvr93

192.168.0.94 lsvr94

192.168.0.103 lsvr103

操作账号:root


1.下载地址:

http://apache.fayea.com/hadoop/common/hadoop-2.7.2/hadoop-2.7.2.tar.gz

2.安装JDK环境

a.安装jdk

rpm -ivh jdk-8u71-linux-x64.rpm

b.配置环境变量

vi /etc/profile (当前登录用户,可选 /etc/profile 对所有用户生效)

#set java environment

JAVA_HOME=/usr/java/jdk1.8.0_71

JRE_HOME=/usr/java/jdk1.8.0_71/jre

JAVA_BIN=/usr/java/jdk1.8.0_71/bin

CLASSPATH=.:$JAVA_HOME/lib/dt.jar:$JAVA_HOME/lib/tools.jar

PATH=$JAVA_BIN:$PATH

export PATH JAVA_HOME CLASSPATH

c.检测Java环境

java -version

java version "jdk1.8.0_71"

Java(TM) SE Runtime Environment (build 1.7.0_55-b13)

Java HotSpot(TM) 64-Bit Server VM (build 24.55-b03, mixed mode)


3.ssh 无密码登陆

a.生成SSH KEY

在93节点上执行:

ssh-keygen -t dsa -P '' -f ~/.ssh/id_dsa

cat ~/.ssh/id_dsa.pub >> ~/.ssh/authorized_keys

chmod 0600 ~/.ssh/authorized_keys

scp authorized_keys root@192.168.0.94:/root/.ssh

scp authorized_keys root@192.168.0.103:/root/.ssh


b.测试登陆

ssh lsvr93

ssh lsvr94

ssh lsvr103

4.安装 hadoop 2.7.2

三个节点上都需要执行相同操作(93,94,103)

a.解压文件

cd /usr/local/src

tar zxvf hadoop-2.7.2.tar.gz

mv hadoop-2.7.2 /opt


b.创建目录

mkdir -p /opt/hadoop/tmp

mkdir -p /opt/hadoop/hdfs/datanode

mkdir -p /opt/hadoop/hdfs/namenode

mkdir -p /opt/hadoop/tmp /opt/hadoop/hdfs/datanode /opt/hadoop/hdfs/namenode

c.设置环境变量

vi /etc/profile

#hadoop

export HADOOP_HOME=/opt/hadoop-2.7.2

export HADOOP_CONF_DIR=$HADOOP_HOME/etc/hadoop

export PATH=$HADOOP_HOME/bin:$PATH


d.设置/etc/hosts文件

192.168.0.93 lsvr93

192.168.0.94 lsvr94

192.168.0.103 lsvr103

d.修改hadoop-env.sh配置文件

vi /opt/hadoop-2.7.2/etc/hadoop/hadoop-env.sh

export JAVA_HOME=/usr/java/jdk1.7.0_55

e.修改 yarn-env.sh 配置文件

vi /opt/hadoop-2.7.2/etc/hadoop/yarn-env.sh

export JAVA_HOME=/usr/java/jdk1.7.0_55


f.修改 core-site.xml 配置文件

vi /opt/hadoop-2.7.2/etc/hadoop/core-site.xml

<configuration>
    <property>
        <name>fs.defaultFS</name>
        <value>hdfs://lsvr93:9000</value>
    </property>
    <property>
        <name>io.file.buffer.size</name>
        <value>131702</value>
    </property>
    <property>
        <name>hadoop.tmp.dir</name>
        <value>file:/opt/hadoop/tmp</value>
        <description>Abase for other temporary directories.</description>
    </property>
</configuration>

fs.defaultFS: namenode 节点的配置,ip 端口

io.file.buffer.size:hadoop 文件读写缓存大小

hadoop.tmp.dir:临时文件目录


g.修改 hdfs-site.xml 配置文件

vi /opt/hadoop-2.7.2/etc/hadoop/hdfs-site.xml

<configuration>
    <property>
        <name>dfs.namenode.name.dir</name>
        <value>file:/opt/hadoop/hdfs/namenode</value>
    </property>
    <property>
        <name>dfs.datanode.data.dir</name>
        <value>file:/opt/hadoop/hdfs/datanode</value>
    </property>
    <property>
        <name>dfs.replication</name>
        <value>3</value>
    </property>
    <property>
        <name>dfs.namenode.secondary.http-address</name>
        <value>lsvr93:9001</value>
    </property>
    <property>
        <name>dfs.webhdfs.enabled</name>
        <value>true</value>
    </property>
</configuration>

dfs.namenode.name.dir: namenode 本地存储和处理日志的目录

dfs.datanode.data.dir: datanode 本地存储块目录

dfs.replication:默认复制副本数量

dfs.namenode.secondary.http-address:第二namenode节点的IP地址,端口

dfs.webhdfs.enabled:Enable WebHDFS (REST API) in Namenodes and Datanodes.

h.修改 mapred-site.xml 配置文件

vi /opt/hadoop-2.7.2/etc/hadoop/mapred-site.xml

<configuration>
    <property>
        <name>mapreduce.framework.name</name>
        <value>yarn</value>
    </property>
</configuration>

mapreduce.framework.name: hadoop yarn 框架

i.修改 yarn-site.xml 配置文件

vi /opt/hadoop-2.7.2/etc/hadoop/yarn-site.xml

<configuration>
<!-- Site specific YARN configuration properties -->
    <property>
        <name>yarn.nodemanager.aux-services</name>
        <value>mapreduce_shuffle</value>
    </property>
    <property>
        <name>yarn.nodemanager.auxservices.mapreduce.shuffle.class</name>
        <value>org.apache.hadoop.mapred.ShuffleHandler</value>
    </property>
    <property>
        <name>yarn.resourcemanager.address</name>
        <value>lsvr93:8032</value>
    </property>
  <property>
        <name>yarn.resourcemanager.scheduler.address</name>
        <value>lsvr93:8030</value>
    </property>
    <property>
        <name>yarn.resourcemanager.resource-tracker.address</name>
        <value>lsvr93:8031</value>
    </property>
    <property>
        <name>yarn.resourcemanager.admin.address</name>
        <value>lsvr93:8033</value>
    </property>
    <property>
        <name>yarn.resourcemanager.webapp.address</name>
        <value>lsvr93:8088</value> 
    </property>
</configuration>

yarn.nodemanager.aux-services:mapreduce 处理方式

yarn.nodemanager.auxservices.mapreduce.shuffle.class:

yarn.resourcemanager.address:resourcemanager IP地址 端口,提供给clients 提交作业

yarn.resourcemanager.scheduler.address:ApplicationMasters 获取资源访问接口

yarn.resourcemanager.resource-tracker.address:NodeManager 节点IP地址,端口

yarn.resourcemanager.admin.address: 管理命令IP地址,端口

yarn.resourcemanager.webapp.address:web ui 访问ip地址,端口


j.修改 slaves 配置文件

vi /opt/hadoop-2.7.2/etc/hadoop/slaves

lsvr94

lsvr103

k.修改 masters 配置文件

lsvr93

l. 格式化namenode 文件

bin/hadoop namenode -format

以上需在各节点上执行相同操作!!!


m. 启动hadoop 程序

在93节点上执行:

sbin/start-dfs.sh

sbin/start-yarn.sh

n.机器验证:

在93节点上的进程:(主节点)

在94节点上:

在103节点上:

o.查询集群 HDFS 信息

http://192.168.0.93:50070


p.查询集群 yarn 信息

http://192.168.0.93:8088

r.关闭集群

sbin/stop-all.sh

s.运行测试程序

cd /opt/hadoop-2.7.2

bin/hadoop jar share/hadoop/mapreduce/hadoop-mapreduce-examples-2.7.2.jar pi 20 10

计算PI 精度

相关推荐

当Frida来“敲”门(frida是什么)

0x1渗透测试瓶颈目前,碰到越来越多的大客户都会将核心资产业务集中在统一的APP上,或者对自己比较重要的APP,如自己的主业务,办公APP进行加壳,流量加密,投入了很多精力在移动端的防护上。而现在挖...

服务端性能测试实战3-性能测试脚本开发

前言在前面的两篇文章中,我们分别介绍了性能测试的理论知识以及性能测试计划制定,本篇文章将重点介绍性能测试脚本开发。脚本开发将分为两个阶段:阶段一:了解各个接口的入参、出参,使用Python代码模拟前端...

Springboot整合Apache Ftpserver拓展功能及业务讲解(三)

今日分享每天分享技术实战干货,技术在于积累和收藏,希望可以帮助到您,同时也希望获得您的支持和关注。架构开源地址:https://gitee.com/msxyspringboot整合Ftpserver参...

Linux和Windows下:Python Crypto模块安装方式区别

一、Linux环境下:fromCrypto.SignatureimportPKCS1_v1_5如果导包报错:ImportError:Nomodulenamed'Crypt...

Python 3 加密简介(python des加密解密)

Python3的标准库中是没多少用来解决加密的,不过却有用于处理哈希的库。在这里我们会对其进行一个简单的介绍,但重点会放在两个第三方的软件包:PyCrypto和cryptography上,我...

怎样从零开始编译一个魔兽世界开源服务端Windows

第二章:编译和安装我是艾西,上期我们讲述到编译一个魔兽世界开源服务端环境准备,那么今天跟大家聊聊怎么编译和安装我们直接进入正题(上一章没有看到的小伙伴可以点我主页查看)编译服务端:在D盘新建一个文件夹...

附1-Conda部署安装及基本使用(conda安装教程)

Windows环境安装安装介质下载下载地址:https://www.anaconda.com/products/individual安装Anaconda安装时,选择自定义安装,选择自定义安装路径:配置...

如何配置全世界最小的 MySQL 服务器

配置全世界最小的MySQL服务器——如何在一块IntelEdison为控制板上安装一个MySQL服务器。介绍在我最近的一篇博文中,物联网,消息以及MySQL,我展示了如果Partic...

如何使用Github Action来自动化编译PolarDB-PG数据库

随着PolarDB在国产数据库领域荣膺桂冠并持续获得广泛认可,越来越多的学生和技术爱好者开始关注并涉足这款由阿里巴巴集团倾力打造且性能卓越的关系型云原生数据库。有很多同学想要上手尝试,却卡在了编译数据...

面向NDK开发者的Android 7.0变更(ndk android.mk)

订阅Google官方微信公众号:谷歌开发者。与谷歌一起创造未来!受Android平台其他改进的影响,为了方便加载本机代码,AndroidM和N中的动态链接器对编写整洁且跨平台兼容的本机...

信创改造--人大金仓(Kingbase)数据库安装、备份恢复的问题纪要

问题一:在安装KingbaseES时,安装用户对于安装路径需有“读”、“写”、“执行”的权限。在Linux系统中,需要以非root用户执行安装程序,且该用户要有标准的home目录,您可...

OpenSSH 安全漏洞,修补操作一手掌握

1.漏洞概述近日,国家信息安全漏洞库(CNNVD)收到关于OpenSSH安全漏洞(CNNVD-202407-017、CVE-2024-6387)情况的报送。攻击者可以利用该漏洞在无需认证的情况下,通...

Linux:lsof命令详解(linux lsof命令详解)

介绍欢迎来到这篇博客。在这篇博客中,我们将学习Unix/Linux系统上的lsof命令行工具。命令行工具是您使用CLI(命令行界面)而不是GUI(图形用户界面)运行的程序或工具。lsoflsof代表&...

幻隐说固态第一期:固态硬盘接口类别

前排声明所有信息来源于网络收集,如有错误请评论区指出更正。废话不多说,目前固态硬盘接口按速度由慢到快分有这几类:SATA、mSATA、SATAExpress、PCI-E、m.2、u.2。下面我们来...

新品轰炸 影驰SSD多款产品登Computex

分享泡泡网SSD固态硬盘频道6月6日台北电脑展作为全球第二、亚洲最大的3C/IT产业链专业展,吸引了众多IT厂商和全球各地媒体的热烈关注,全球存储新势力—影驰,也积极参与其中,为广大玩家朋友带来了...