百度360必应搜狗淘宝本站头条
当前位置:网站首页 > 热门文章 > 正文

大数据:大数据之快速搭建hadoop2.6集群指南

bigegpt 2025-02-27 14:21 7 浏览

本文详细介绍了在RedHat6.2以上版本的Linux服务器之上快速搭建hadoop2.6版本的集群方法。以下操作步骤是笔者在安装hadoop集群的安装笔记,如有对hadoop感兴趣的博友可按照本文操作进行无障碍搭建。可以确认以下所有操作步骤的准确性和可行性,如在搭建过程中遇到任何问题欢迎随时交流。

OK话不多说啦,具体操作详见如下操作步骤~~

在部署hadoop2.6之前的前置任务:

1、禁止selinux

setenforce 0

修改vi /etc/selinux/config的参数如下:

SELINUX=disabled

2、关闭防火墙

iptables -F

service iptables save

service iptables stop

chkconfig --level 2345 iptables off

一:配置域名解析

分别在三台机器上的/etc/hosts文件最后添加如下信息:

128.230.5.113 hbase01

128.230.5.114 hbase02

128.230.5.115 hbase03

二、添加hadoop的管理账号

[root@hbase01 ~]# groupadd -g 1000 hadoop

[root@hbase01 ~]# useradd -u 1000 -g 1000 hadoop

三、设置互信机制

[root@hbase01 ~]# su - hadoop

[hadoop@hbase01 ~]$ ssh-keygen -t rsa

scp id_rsa.pub hadoop@ip2:~/.ssh/authorized_keys

scp id_rsa.pub hadoop@ip2:~/.ssh/authorized_keys

如果互信无法成功请修改如下文件的权限即可

chmod 700 .ssh

chmod 0600 authorized_keys

四、配置环境变量

#vim
/home/hadoop/.bash_profile --设置环境变量

export JAVA_HOME=/usr/java/jdk1.8.0_40

export JAR_HOME=/usr/java/jdk1.8.0_40/jre

export CLASSPATH=$JAVA_HOME/lib/tools.jar:$JAVA_HOME/lib/dt.jar:$JAR_HOME/lib

export PATH=$JAVA_HOME/bin:$PATH:$HADOOP_HOME/bin:$HADOOP_HOME/sbin

export HADOOP_HOME=/usr/local/hadoop-2.6.0

export HBASE_HOME=/usr/local/hbase-0.98.9-hadoop2

export PATH=$JAVA_HOME/bin:$PATH:$HADOOP_HOME/bin:$HADOOP_HOME/sbin:/usr/local/hbase-0.98.9-hadoop2/bin

export HADOOP_HOME=/usr/local/hadoop-2.6.0

export HBASE_HOME=/usr/local/hbase-0.98.9-hadoop2

export PATH=$JAVA_HOME/bin:$PATH:$HADOOP_HOME/bin:$HADOOP_HOME/sbin:/usr/local/hbase-0.98.9-hadoop2/bin

export PATH

五、测试hadoop环境变量生效

hadoop version

六、配置hadoop集群

1、配置core-site.xml文件

fs.default.name

hdfs://hbase01:9000

hadoop.tmp.dir

/usr/local/hadoopdata/tmp

io.file.buffer.size

4096

hadoop.native.lib

true

2、配置vim hadoop-env.sh文件

export JAVA_HOME=/usr/java/jdk1.8.0_40

3、配置vim hdfs-site.xml

dfs.nameservices

hadoop-cluster1

dfs.namenode.secondary.http-address

hbase01:50090

dfs.namenode.name.dir

file:///usr/local/hadoopdata/dfs/name

dfs.datanode.data.dir

file:///usr/local/hadoopdata/dfs/data

dfs.replication\

2

dfs.webhdfs.enabled

true

4、配置vim mapred-site.xml

mapreduce.framework.name

yarn

mapreduce.jobtracker.http.address

hbase01:50030

mapreduce.jobhistory.address

hbase01:10020

mapreduce.jobhistory.webapp.address

hbase01:19888

5、格式化namenode的namespace和dataspace

hadoop namenode -format

6、创建相关目录

mkdir -p /usr/local/hadoopdata/dfs/data

mkdir -p /usr/local/hadoopdata/dfs/name

mkdir -p /usr/local/hadoopdata/dfs/tmp

chown -R hadoop:hadoop /usr/local/hadoopdata

7、启动hadoop集群

#su -hadoop

#start-all.sh

若在namenode显示如下信息:

[hadoop@hbase01 dfs]$ jps

16393 NameNode

16906 Jps

16622 ResourceManager

在datanode显示如下信息:

29697 DataNode

29911 Jps

29805 NodeManager

请直接跳到最后访问hadoop集群的web控制台即可管理和监视hadoop集群的运行

8、输入jps发现hadoop集群没有成功被启动只有jps进程

9、分析诊断日志

tail -f hadoop-hadoop-namenode-hbase01.log

发现端口被占用,通过ps发现另一hadoop进程已经被root账号启用kill掉相关hadoop进程,重新启动hadoop集群

#stop-all.sh

#start-all.sh

再次执行jps发现此次比上次多了一个java进程,离成功更接近了一步。我们再次通过分析日志发现对hadoop的分布式文件系统没有写权限

14848 Jps

14595 ResourceManager

/usr/local/hadoopdata/dfs/name

10、解决方法:停止hadoop集群

stop-all.sh

11、解决方法:创建相关目录并赋权

mkdir -p /usr/local/hadoopdata/dfs/data

mkdir -p /usr/local/hadoopdata/dfs/name

chown -R hadoop:hadoop /usr/local/hadoopdata

12、访问hadoop的web页面,验证hadoop集群是否成功搭建完成

via:网络大数据

相关推荐

Linux 系统启动完整流程

一、启动系统流程简介如上图,简述系统启动的大概流程:1:硬件引导UEFi或BIOS初始化,运行POST开机自检2:grub2引导阶段系统固件会从MBR中读取启动加载器,然后将控制权交给启动加载器GRU...

超专业解析!10分钟带你搞懂Linux中直接I/O原理

我们先看一张图:这张图大体上描述了Linux系统上,应用程序对磁盘上的文件进行读写时,从上到下经历了哪些事情。这篇文章就以这张图为基础,介绍Linux在I/O上做了哪些事情。文件系统什么是...

linux入门系列12--磁盘管理之分区、格式化与挂载

前面系列文章讲解了VI编辑器、常用命令、防火墙及网络服务管理,本篇将讲解磁盘管理相关知识。本文将会介绍大量的Linux命令,其中有一部分在“linux入门系列5--新手必会的linux命令”一文中已经...

Linux环境下如何设置多个交叉编译工具链?

常见的Linux操作系统都可以通过包管理器安装交叉编译工具链,比如Ubuntu环境下使用如下命令安装gcc交叉编译器:sudoapt-getinstallgcc-arm-linux-gnueab...

可算是有文章,把Linux零拷贝技术讲透彻了

阅读本文大概需要6.0分钟。作者:卡巴拉的树链接:https://dwz.cn/BaQWWtmh本文探讨Linux中主要的几种零拷贝技术以及零拷贝技术适用的场景。为了迅速建立起零拷贝的概念...

linux软链接的创建、删除和更新

大家都知道,有的时候,我们为了省下空间,都会使用链接的方式来进行引用操作。同样的,在系统级别也有。在Windows系列中,我们称其为快捷方式,在Linux中我们称其为链接(基本上都差不多了,其中可能...

Linux 中最容易被黑客动手脚的关键目录

在Linux系统中,黑客攻击后常会针对关键目录和文件进行修改以实现持久化、提权或隐藏恶意活动。本文介绍下黑客最常修改的目录及其手法。一、/etc目录关键文件有:/etc/passwd和/et...

linux之间传文件命令之Rsync傻瓜式教程

1.前言linux之间传文件命令用什么命令?本文介绍一种最常用,也是功能强大的文件同步和传输工具Rsync,本文提供详细傻瓜式教程。在本教程中,我们将通过实际使用案例和最常见的rsync选项的详细说...

Linux下删除目录符号链接的方法

技术背景在Linux系统中,符号链接(symlink)是一种特殊的文件,它指向另一个文件或目录。有时候,我们可能需要删除符号链接,但保留其指向的目标目录。然而,在删除符号链接时可能会遇到一些问题,例如...

阿里云国际站注册教程:aa云服务器怎么远程链接?

在全球化的今天,互联网带给我们无以计数的便利,而云服务器则是其中的重要基础设施之一。这篇文章将围绕阿里云国际站注册、aa云服务器如何远程链接,以及服务器安全防护如Ddos防火墙、网站应用防护waf防火...

Linux 5.16 网络子系统大范围升级 多个新适配器驱动加入

Linux在数据中心中占主导地位,因此每个内核升级周期的网络子系统变化仍然相当活跃。Linux5.16也不例外,周一最新与网络相关的更新加入了大量的驱动和新规范的支持。一个较新硬件的驱动是Realt...

搭建局域网文件共享服务(Samba),手机电脑都能看喜欢的影视剧

作为一名影视爱好者,为了方便地观看自己喜欢的影视作品,在家里搞一个专门用来存放电影的服务器是有必要的。蚁哥选则用一台Ubuntu系统的电脑做为服务器,共享影音文件,其他同一个局域网内的电脑或手机可以...

分享一个实用脚本—centos7系统巡检

概述这周闲得慌,就根据需求写了差不多20个脚本(部分是之前分享过的做了一些改进),今天主要分享一个给平时运维人员用的centos7系统巡检的脚本,或者排查问题检查系统情况也可以用..实用脚本#!/bi...

Linux 中创建符号链接的方法

技术背景在Linux系统里,符号链接(SymbolicLink),也被叫做软链接(SoftLink),是一种特殊的文件,它指向另一个文件或者目录。符号链接为文件和目录的管理带来了极大的便利,比...

一文掌握 Linux 符号链接

符号链接(SymbolicLink),通常被称为“软链接”,是Linux文件系统中一种强大而灵活的工具。它允许用户创建指向文件或目录的“快捷方式”,不仅简化了文件管理,还在系统配置、软件开发和日...