百度360必应搜狗淘宝本站头条
当前位置:网站首页 > 热门文章 > 正文

hadoop3.2.4安装 sqoop1.4.7

bigegpt 2025-02-27 14:21 7 浏览

sqoop功能是非常完善的,兼容性也很好。但是hadoop3版本没有官方的集成jar包版本,所以我通过阅读sqoop的官方文档,解决了如何在配置hadoop3版本的sqoop。核心就两点,从集成包里获取必须的jar包,其余必须的jar包从hadoop和hive中引用即可。

sqoop官方地址:
https://sqoop.apache.org/docs/1.4.7/SqoopUserGuide.html?spm=
a2c63.p38356.0.0.7ffe76db8MdNDv#_syntax

1.下载sqoop1.4.7两个版本

http://archive.apache.org/dist/sqoop/1.4.7

下载这两个文:


sqoop-1.4.7.bin__hadoop-2.6.0.tar.gz # 只用到里面的jar包

sqoop-1.4.7.tar.gz # 上传到服务器


我这里finalshell为例,服务器环境centos7+hadoop3.2.4+hive3.1.2

将sqoop-1.4.7.tar.gz上传到/home/hadoop/sqoop/目录,并解压

[hadoop@localhost sqoop]$ tar -zxvf sqoop-1.4.7.tar.gz 

2.提取sqoop-1.4.7.bin__hadoop-2.6.0.tar压缩包里的部分jar包

提取sqoop-1.4.7.jar放到sqoop-1.4.7根目录,正常纯净版sqoop是没有这个jar包的

提取lib目录下的这三个必须的jar包放到sqoop-1.4.7/lib/目录下,正常纯净版sqoop的lib目录下是没有文件的。我的是存在了前两个

其余的jar包我们不用导入,其余的从本地环境里的hadoop和hive中引用即可。

3.添加sqoop配置信息,引用hadoop,hive的lib库

打开sqoop-1.4.7/conf 目录下的sqoop-env.sh文件追加如下信息

其中HADOOP_COMMON_HOME HADOOP_MAPRED_HOME 环境变量要写你自己的hadoop目录地址

hive的HIVE_HOME HIVE_CONF_DIR同样要写你自己的hive目录地址

最后一条是引用你hive里的lib库

[hadoop@localhost conf]$ mv sqoop-env-template.sh sqoop-env.sh
[hadoop@localhost conf]$ vim sqoop-env.sh 

export HADOOP_COMMON_HOME=/home/hadoop/hadoop-3.2.4
export HADOOP_MAPRED_HOME=/home/hadoop/hadoop-3.2.4
export HIVE_HOME=/home/hadoop/apache-hive-3.1.2-bin
export HIVE_CONF_DIR=/home/hadoop/apache-hive-3.1.2-bin/conf
export HADOOP_CLASSPATH=$HADOOP_CLASSPATH:$HIVE_HOME/lib/*

4.配置环境变量


[hadoop@localhost conf]$ vim ~/.bashrc 
#sqoop
export HBASE_HOME=/home/hadoop/sqoop/sqoop-1.4.7
export PATH=$PATH:$HBASE_HOME/bin
[hadoop@localhost conf]$ source /etc/profile
[hadoop@localhost conf]$ sqoop version
bash: sqoop: 未找到命令...
[hadoop@localhost conf]$ source ~/.bashrc 

导入数据相关命令

sqoop的 import-all-tables使用要求

要使import-all-tables工具有用,必须满足以下条件:

1.每个表必须具有主键或使用--autoreset-to-one-mapper选项。

2.导入每张表的所有列。

3.使用默认拆分列,不能使用WHERE。

全库导入
sqoop import-all-tables "-Dorg.apache.sqoop.splitter.allow_text_splitter=true" \
--connect jdbc:mysql://10.22.171.188:3306/AIDM40W \
--username root \
--password 890iop*()IOP \
--hive-import \
--hive-overwrite \
--hive-database dz \
--fields-terminated-by '\t' \
--exclude-tables  'CASE_FUN_TABLE,a1,all_type_label_tables' \
--as-parquetfile 

sqoop import-all-tables --connect "jdbc:mysql://10.22.171.188:3306/AIDM40W" \
--username root \
--password 123456 \
--hive-import \
--hive-overwrite \
--hive-database dz \
--exclude-tables  'user_part_501,user_part_601,user_part_701,user_part_801,CASE_FUN_TABLE,a1,all_type_label_tables,tb_user,test,log,s1,test_t,db_object_constraint_test_01,user_101,user_301,user_302,user_303,user_304,user_part_102,user_part_101,user_part_201,user_part_301,user_part_401,user_part_index_101,user_part_index_102,user_part_index_103,user_part_index_104,user_part_index_201,user_part_index_202,user_part_index_301,user_part_index_302,user_part_index_401,user_part_index_402,user_a3,user_201,user_202,user_203,user_204,user_401,user_402,user_403,user_501,user_502,user_a1,user_a2' \
--create-hive-table

#带主键
aa
all_type_label_tables
db_object_constraint_test_01
tb_user
test
user_201
user_202
user_203
user_204
user_401
user_402
user_403
user_501
user_502
user_a1
user_a2

#--exclude-tables  'drop_table' \        (此参数可以 exclude掉不需要import的表(多个表逗号分隔))
#--create-hive-table \  (不能和as-parquetfile共用)
#--direct \                (只支持文本格式,不能和as-parquetfile共用)
#--as-textfile \

sqoop import  --connect "jdbc:mysql://10.22.171.188:3306/AIDM40W" \
--username root \
--password 123456 \
--table all_type_label_tables \
--delete-target-dir \
--fields-terminated-by '\t' \
--m 1 \
--hive-import \
--hive-overwrite \
--hive-database dz \
--create-hive-table \
--hive-table all_type_label_tables

全量备份(hive表不存在,导入时自动创建hive表)
sqoop import --connect jdbc:mysql://10.22.171.188:3306/AIDM40W \
--username root --password 123456 --table users \
--hive-import \
--hive-database dz \
--create-hive-table \
--fields-terminated-by '\t' \
--null-string '\\N' \
--null-non-string '\\N' \
--split-by id \
-m 1

相关推荐

Linux 系统启动完整流程

一、启动系统流程简介如上图,简述系统启动的大概流程:1:硬件引导UEFi或BIOS初始化,运行POST开机自检2:grub2引导阶段系统固件会从MBR中读取启动加载器,然后将控制权交给启动加载器GRU...

超专业解析!10分钟带你搞懂Linux中直接I/O原理

我们先看一张图:这张图大体上描述了Linux系统上,应用程序对磁盘上的文件进行读写时,从上到下经历了哪些事情。这篇文章就以这张图为基础,介绍Linux在I/O上做了哪些事情。文件系统什么是...

linux入门系列12--磁盘管理之分区、格式化与挂载

前面系列文章讲解了VI编辑器、常用命令、防火墙及网络服务管理,本篇将讲解磁盘管理相关知识。本文将会介绍大量的Linux命令,其中有一部分在“linux入门系列5--新手必会的linux命令”一文中已经...

Linux环境下如何设置多个交叉编译工具链?

常见的Linux操作系统都可以通过包管理器安装交叉编译工具链,比如Ubuntu环境下使用如下命令安装gcc交叉编译器:sudoapt-getinstallgcc-arm-linux-gnueab...

可算是有文章,把Linux零拷贝技术讲透彻了

阅读本文大概需要6.0分钟。作者:卡巴拉的树链接:https://dwz.cn/BaQWWtmh本文探讨Linux中主要的几种零拷贝技术以及零拷贝技术适用的场景。为了迅速建立起零拷贝的概念...

linux软链接的创建、删除和更新

大家都知道,有的时候,我们为了省下空间,都会使用链接的方式来进行引用操作。同样的,在系统级别也有。在Windows系列中,我们称其为快捷方式,在Linux中我们称其为链接(基本上都差不多了,其中可能...

Linux 中最容易被黑客动手脚的关键目录

在Linux系统中,黑客攻击后常会针对关键目录和文件进行修改以实现持久化、提权或隐藏恶意活动。本文介绍下黑客最常修改的目录及其手法。一、/etc目录关键文件有:/etc/passwd和/et...

linux之间传文件命令之Rsync傻瓜式教程

1.前言linux之间传文件命令用什么命令?本文介绍一种最常用,也是功能强大的文件同步和传输工具Rsync,本文提供详细傻瓜式教程。在本教程中,我们将通过实际使用案例和最常见的rsync选项的详细说...

Linux下删除目录符号链接的方法

技术背景在Linux系统中,符号链接(symlink)是一种特殊的文件,它指向另一个文件或目录。有时候,我们可能需要删除符号链接,但保留其指向的目标目录。然而,在删除符号链接时可能会遇到一些问题,例如...

阿里云国际站注册教程:aa云服务器怎么远程链接?

在全球化的今天,互联网带给我们无以计数的便利,而云服务器则是其中的重要基础设施之一。这篇文章将围绕阿里云国际站注册、aa云服务器如何远程链接,以及服务器安全防护如Ddos防火墙、网站应用防护waf防火...

Linux 5.16 网络子系统大范围升级 多个新适配器驱动加入

Linux在数据中心中占主导地位,因此每个内核升级周期的网络子系统变化仍然相当活跃。Linux5.16也不例外,周一最新与网络相关的更新加入了大量的驱动和新规范的支持。一个较新硬件的驱动是Realt...

搭建局域网文件共享服务(Samba),手机电脑都能看喜欢的影视剧

作为一名影视爱好者,为了方便地观看自己喜欢的影视作品,在家里搞一个专门用来存放电影的服务器是有必要的。蚁哥选则用一台Ubuntu系统的电脑做为服务器,共享影音文件,其他同一个局域网内的电脑或手机可以...

分享一个实用脚本—centos7系统巡检

概述这周闲得慌,就根据需求写了差不多20个脚本(部分是之前分享过的做了一些改进),今天主要分享一个给平时运维人员用的centos7系统巡检的脚本,或者排查问题检查系统情况也可以用..实用脚本#!/bi...

Linux 中创建符号链接的方法

技术背景在Linux系统里,符号链接(SymbolicLink),也被叫做软链接(SoftLink),是一种特殊的文件,它指向另一个文件或者目录。符号链接为文件和目录的管理带来了极大的便利,比...

一文掌握 Linux 符号链接

符号链接(SymbolicLink),通常被称为“软链接”,是Linux文件系统中一种强大而灵活的工具。它允许用户创建指向文件或目录的“快捷方式”,不仅简化了文件管理,还在系统配置、软件开发和日...