MySQL 归档数据的方法你知道了吗 mysql回档
bigegpt 2024-10-03 14:50 20 浏览
归档,在 MySQL 中,是一个相对高频的操作。
它通常涉及以下两个动作:
- 迁移。将数据从业务实例迁移到归档实例。
- 删除。从业务实例中删除已迁移的数据。
在处理类似需求时,都是开发童鞋提单给 DBA,由 DBA 来处理。
于是,很多开发童鞋就好奇,DBA 都是怎么执行归档操作的?归档条件没有索引会缩表吗?安全吗,会不会数据删了,却又没归档成功?
针对这些疑问,下面介绍 MySQL 中的数据归档神器 - pt-archiver。
本文主要包括以下几部分:
- 什么是 pt-archiver
- 安装
- 简单入门
- 实现原理
- 批量归档
- 不同归档参数之间的速度对比
- 常见用法
- 如何避免主从延迟
- 常用参数
什么是 pt-archiver
pt-archiver 是 Percona Toolkit 中的一个工具。
Percona Toolkit 是 Percona 公司提供的一个 MySQL 工具包。工具包里提供了很多实用的东西 MySQL 管理工具。
比如,我们常用的表结构变更工具 pt-online-schema-change ,主从数据一致性校验工具 pt-table-checksum 。
毫不夸张地说,熟练使用 Percona Toolkit 是 MySQL DBA 必备的技能之一。
安装
Percona Toolkit 下载地址:https://www.percona.com/downloads/percona-toolkit/LATEST/
官方针对多个系统提供了现成的软件包。
我常用的是 Linux - Generic 二进制包。
下面以 Linux - Generic 版本为例,看看它的安装方法。
# cd /usr/local/
# wget https://downloads.percona.com/downloads/percona-toolkit/3.3.1/binary/tarball/percona-toolkit-3.3.1_x86_64.tar.gz --no-check-certificate
# tar xvf percona-toolkit-3.3.1_x86_64.tar.gz
# cd percona-toolkit-3.3.1
# yum install perl-ExtUtils-MakeMaker perl-DBD-MySQL perl-Digest-MD5
# perl Makefile.PL
# make
# make install
简单入门
首先,我们看一个简单的归档 Demo。
测试数据
mysql> show create table employees.departments\G
*************************** 1. row ***************************
Table: departments
Create Table: CREATE TABLE `departments` (
`dept_no` char(4) NOT NULL,
`dept_name` varchar(40) NOT NULL,
PRIMARY KEY (`dept_no`),
UNIQUE KEY `dept_name` (`dept_name`)
) ENGINE=InnoDB DEFAULT CHARSET=utf8mb4 COLLATE=utf8mb4_0900_ai_ci
1 row in set (0.00 sec)
mysql> select * from employees.departments;
+---------+--------------------+
| dept_no | dept_name |
+---------+--------------------+
| d009 | Customer Service |
| d005 | Development |
| d002 | Finance |
| d003 | Human Resources |
| d001 | Marketing |
| d004 | Production |
| d006 | Quality Management |
| d008 | Research |
| d007 | Sales |
+---------+--------------------+
9 rows in set (0.00 sec)
下面,我们将 employees.departments 表的数据从 192.168.244.10 归档到 192.168.244.128。
具体命令如下:
pt-archiver --source h=192.168.244.10,P=3306,u=pt_user,p=pt_pass,D=employees,t=departments --dest h=192.168.244.128,P=3306,u=pt_user,p=pt_pass,D=employees,t=departments --where "1=1"
命令行中指定了三个参数。
- --source:源库(业务实例)的 DSN。
- DSN 在 Percona Toolkit 中比较常见,可理解为目标实例相关信息的缩写。
- 支持的缩写及含义如下:
- 缩写 含义 === ============================================= A 默认的字符集 D 库名 F 只从给定文件中读取配置信息,类似于MySQL中的--defaults-file P 端口 S 用于连接的socket文件 h 主机名 p 密码 t 报名 u 用户名
- --dest:目标库(归档实例)的 DSN。
- --where:归档条件。"1=1"代表归档全表。
实现原理
下面结合 General log 的输出看看 pt-archiver 的实现原理。
源库日志
2022-03-06T10:58:20.612857+08:00 10 Query SELECT /*!40001 SQL_NO_CACHE */ `dept_no`,`dept_name` FROM `employees`.`departments` FORCE INDEX(`PRIMARY`) WHERE (1=1) ORDER BY `dept_no` LIMIT 1
2022-03-06T10:58:20.613451+08:00 10 Query DELETE FROM `employees`.`departments` WHERE (`dept_no` = 'd001')
2022-03-06T10:58:20.620327+08:00 10 Query commit
2022-03-06T10:58:20.628409+08:00 10 Query SELECT /*!40001 SQL_NO_CACHE */ `dept_no`,`dept_name` FROM `employees`.`departments` FORCE INDEX(`PRIMARY`) WHERE (1=1) AND ((`dept_no` >= 'd001')) ORDER BY `dept_no` LIMIT 1
2022-03-06T10:58:20.629279+08:00 10 Query DELETE FROM `employees`.`departments` WHERE (`dept_no` = 'd002')
2022-03-06T10:58:20.636154+08:00 10 Query commit
...
目标库日志
2022-03-06T10:58:20.613144+08:00 18 Query INSERT INTO `employees`.`departments`(`dept_no`,`dept_name`) VALUES ('d001','Marketing')
2022-03-06T10:58:20.613813+08:00 18 Query commit
2022-03-06T10:58:20.628843+08:00 18 Query INSERT INTO `employees`.`departments`(`dept_no`,`dept_name`) VALUES ('d002','Finance')
2022-03-06T10:58:20.629784+08:00 18 Query commit
...
结合源库和目标库的日志,可以看到,
- pt-archiver 首先会从源库查询一条记录,然后再将该记录插入到目标库中。
- 目标库插入成功,才会从源库中删除这条记录。
- 这样就能确保数据在删除之前,一定是归档成功的。
- 仔细观察这几个操作的执行时间,其先后顺序如下。
- (1)源库查询记录。
- (2)目标库插入记录。
- (3)源库删除记录。
- (4)目标库 COMMIT。
- (5)源库 COMMIT。
- 这种实现借鉴了分布式事务中的两阶段提交算法。
- --where 参数中的 "1=1" 会传递到 SELECT 操作中。
- "1=1" 代表归档全表,也可指定其它条件,如我们常用的时间。
- 每次查询都是使用主键索引,这样即使归档条件中没有索引,也不会产生全表扫描。
- 每次删除都是基于主键,这样可避免归档条件没有索引导致全表被锁的风险。
批量归档
如果使用 Demo 对参数进行归档,在数据量比较大的情况下,效率会非常低,毕竟 COMMIT 是一个昂贵的操作。
所以在线上,我们通常都会进行批量操作。
具体命令如下:
pt-archiver --source h=192.168.244.10,P=3306,u=pt_user,p=pt_pass,D=employees,t=departments --dest h=192.168.244.128,P=3306,u=pt_user,p=pt_pass,D=employees,t=departments --where "1=1" --bulk-delete --limit 1000 --commit-each --bulk-insert
相对于之前的归档命令,这条命令额外指定了四个参数,其中,
- --bulk-delete:批量删除。
- --limit:每批归档的记录数。
- --commit-each:对于每一批记录,只会 COMMIT 一次。
- --bulk-insert:归档数据以 LOAD DATA INFILE 的方式导入到归档库中。
看看上述命令对应的 General log 。
源库
2022-03-06T12:13:56.117984+08:00 53 Query SELECT /*!40001 SQL_NO_CACHE */ `dept_no`,`dept_name` FROM `employees`.`departments` FORCE INDEX(`PRIMARY`) WHERE (1=1) ORDER BY `dept_no` LIMIT 1000
...
2022-03-06T12:13:56.125129+08:00 53 Query DELETE FROM `employees`.`departments` WHERE (((`dept_no` >= 'd001'))) AND (((`dept_no` <= 'd009'))) AND (1=1) LIMIT 1000
2022-03-06T12:13:56.130055+08:00 53 Query commit
目标库
2022-03-06T12:13:56.124596+08:00 51 Query LOAD DATA LOCAL INFILE '/tmp/hitKctpQTipt-archiver' INTO TABLE `employees`.`departments`(`dept_no`,`dept_name`)
2022-03-06T12:13:56.125616+08:00 51 Query commit:
注意:
- 如果要执行 LOAD DATA LOCAL INFILE 操作,需将目标库的 local_infile 参数设置为 ON。
- 如果不指定 --bulk-insert 且没指定 --commit-each,则目标库的插入还是会像 Demo 中显示的那样,逐行提交。
- 如果不指定 --commit-each,即使表中的 9 条记录是通过一条 DELETE 命令删除的,但因为涉及了 9 条记录,pt-archiver 会执行 COMMIT 操作 9 次。目标库同样如此。
- 在使用 --bulk-insert 归档时要注意,如果导入的过程中出现问题,譬如主键冲突,pt-archiver 是不会提示任何错误的。
不同归档参数之间的速度对比
下表是归档 20w 数据,不同参数之间的执行时间对比。
归档参数 | 执行时间(s) |
不指定任何批量相关参数 | 850.040 |
--bulk-delete --limit 1000 | 422.352 |
--bulk-delete --limit 1000 --commit-each | 46.646 |
--bulk-delete --limit 5000 --commit-each | 46.111 |
--bulk-delete --limit 1000 --commit-each --bulk-insert | 7.650 |
--bulk-delete --limit 5000 --commit-each --bulk-insert | 6.540 |
--bulk-delete --limit 1000 --bulk-insert | 47.273 |
通过表格中的数据,我们可以得出以下几点:
- 第一种方式是最慢的。
- 这种情况下,无论是源库还是归档库,都是逐行操作并提交的。
- 只指定 --bulk-delete --limit 1000 依然很慢。
- 这种情况下,源库是批量删除,但 COMMIT 次数并没有减少。
- 归档库依然是逐行插入并提交的。
- --bulk-delete --limit 1000 --commit-each
- 相当于第二种归档方式,源库和目标库都是批量提交的。
- --limit 1000 和 --limit 5000 归档性能相差不大。
- --bulk-delete --limit 1000 --bulk-insert 与 --bulk-delete --limit 1000 --commit-each --bulk-insert 相比,没有设置 --commit-each。
- 虽然都是批量操作,但前者会执行 COMMIT 操作 1000 次。
- 由此来看,空事务并不是没有代价的。
其它常见用法
(1)删除数据
删除数据是 pt-archiver 另外一个常见的使用场景。
具体命令如下:
pt-archiver --source h=192.168.244.10,P=3306,u=pt_user,p=pt_pass,D=employees,t=departments --where "1=1" --bulk-delete --limit 1000 --commit-each --purge --primary-key-only
命令行中的 --purge 代表只删除,不归档。
指定了 --primary-key-only ,这样,在执行 SELECT 操作时,就只会查询主键,不会查询所有列。
接下来,我们看看删除命令相关的 General log 。
为了直观地展示 pt-archiver 删除数据的实现逻辑,实际测试时将 --limit 设置为了 3。
# 开启事务
set autocommit=0;
# 查看表结构,获取主键
SHOW CREATE TABLE `employees`.`departments`;
# 开始删除第一批数据
# 通过 FORCE INDEX(`PRIMARY`) 强制使用主键
# 指定了 --primary-key-only,所以只会查询主键
# 这里其实无需获取所有满足条件的主键值,只取一个最小值和最大值即可。
SELECT /*!40001 SQL_NO_CACHE */ `dept_no` FROM `employees`.`departments` FORCE INDEX(`PRIMARY`) WHERE (1=1) ORDER BY `dept_no` LIMIT 3;
# 基于主键进行删除,删除的时候同时带上了 --where 指定的删除条件,以避免误删
DELETE FROM `employees`.`departments` WHERE (((`dept_no` >= 'd001'))) AND (((`dept_no` <= 'd003'))) AND (1=1) LIMIT 3;
# 提交
commit;
# 删除第二批数据
SELECT /*!40001 SQL_NO_CACHE */ `dept_no` FROM `employees`.`departments` FORCE INDEX(`PRIMARY`) WHERE (1=1) AND ((`dept_no` >= 'd003')) ORDER BY `dept_no` LIMIT 3;
DELETE FROM `employees`.`departments` WHERE (((`dept_no` >= 'd004'))) AND (((`dept_no` <= 'd006'))) AND (1=1); LIMIT 3
commit;
# 删除第三批数据
SELECT /*!40001 SQL_NO_CACHE */ `dept_no` FROM `employees`.`departments` FORCE INDEX(`PRIMARY`) WHERE (1=1) AND ((`dept_no` >= 'd006')) ORDER BY `dept_no` LIMIT 3;
DELETE FROM `employees`.`departments` WHERE (((`dept_no` >= 'd007'))) AND (((`dept_no` <= 'd009'))) AND (1=1) LIMIT 3;
commit;
# 删除最后一批数据
SELECT /*!40001 SQL_NO_CACHE */ `dept_no` FROM `employees`.`departments` FORCE INDEX(`PRIMARY`) WHERE (1=1) AND ((`dept_no` >= 'd009')) ORDER BY `dept_no` LIMIT 3;
commit;
在业务代码中,如果我们有类似的删除需求,不妨借鉴下 pt-archiver 的实现方式。
(2)将数据归档到文件中
数据除了能归档到数据库,也可归档到文件中。
具体命令如下:
pt-archiver --source h=192.168.244.10,P=3306,u=pt_user,p=pt_pass,D=employees,t=departments --where "1=1" --bulk-delete --limit 1000 --file '/tmp/%Y-%m-%d-%D.%t'
指定的是 --file ,而不是 --dest。
文件名使用了日期格式化符号,支持的符号及含义如下:
%d Day of the month, numeric (01..31)
%H Hour (00..23)
%i Minutes, numeric (00..59)
%m Month, numeric (01..12)
%s Seconds (00..59)
%Y Year, numeric, four digits
%D Database name
%t Table name
生成的文件是 CSV 格式,后续可通过 LOAD DATA INFILE 命令加载到数据库中。
如何避免主从延迟
无论是数据归档还是删除,对于源库,都需要执行 DELETE 操作。
很多人担心,如果删除的记录数太多,会造成主从延迟。
事实上,pt-archiver 本身就具备了基于主从延迟来自动调节归档(删除)操作的能力。
如果从库的延迟超过 1s(由 --max-lag 指定)或复制状态不正常,则会暂停归档(删除)操作,直到从库恢复。
默认情况下,pt-archiver 不会检查从库的延迟情况。
如果要检查,需通过 --check-slave-lag 显式设置从库的地址,譬如,
pt-archiver --source h=192.168.244.10,P=3306,u=pt_user,p=pt_pass,D=employees,t=departments --where "1=1" --bulk-delete --limit 1000 --commit-each --primary-key-only --purge --check-slave-lag h=192.168.244.20,P=3306,u=pt_user,p=pt_pass
这里只会检查 192.168.244.20 的延迟情况。
如果有多个从库需要检查,需将 --check-slave-lag 指定多次,每次对应一个从库。
常用参数
--analyze
在执行完归档操作后,执行 ANALYZE TABLE 操作。
后面可接任意字符串,如果字符串中含有 s ,则会在源库执行 ANALYZE 操作。
如果字符串中含有 d ,则会在目标库执行 ANALYZE 操作。
如果同时带有 d 和 s ,则源库和目标库都会执行 ANALYZE 操作。如,
--analyze ds
--optimize
在执行完归档操作后,执行 OPTIMIZE TABLE 操作。
用法同 --analyze 类似。
--charset
指定连接(Connection)字符集。
在 MySQL 8.0 之前,默认是 latin1。
在 MySQL 8.0 中,默认是 utf8mb4 。
注意,这里的默认值与 MySQL 服务端字符集 character_set_server 无关。
若显式设置了该值,pt-archiver 在建立连接后,会首先执行 SET NAMES 'charset_name' 操作。
--[no]check-charset
检查源库(目标库)连接(Connection)字符集和表的字符集是否一致。
如果不一致,会提示以下错误:
Character set mismatch: --source DSN uses latin1, table uses gbk. You can disable this check by specifying --no-check-charset.
这个时候,切记不要按照提示指定 --no-check-charset 忽略检查,否则很容易导致乱码。
针对上述报错,可将 --charset 指定为表的字符集。
注意,该选项并不是比较源库和目标库的字符集是否一致。
--[no]check-columns
检查源表和目标表列名是否一致。
注意,只会检查列名,不会检查列的顺序、列的数据类型是否一致。
--columns
归档指定列。
在有自增列的情况下,如果源表和目标表的自增列存在交集,可不归档自增列,这个时候,就需要使用 --columns 显式指定归档列。
--dry-run
只打印待执行的 SQL,不实际执行。
常用于实际操作之前,校验待执行的 SQL 是否符合自己的预期。
--ignore
使用 INSERT IGNORE 归档数据。
--no-delete
不删除源库的数据。
--replace
使用 REPLACE 操作归档数据。
--[no]safe-auto-increment
在归档有自增主键的表时,默认不会删除自增主键最大的那一行。
这样做,主要是为了规避 MySQL 8.0 之前自增主键不能持久化的问题。
在对全表进行归档时,这一点需要注意。
如果需要删除,需指定 --no-safe-auto-increment 。
--source
给出源端实例的信息。
除了常用的选项,其还支持如下选项:
- a:指定连接的默认数据库。
- b:设置 SQL_LOG_BIN=0 。
- 如果是在源库指定,则 DELETE 操作不会写入到 Binlog 中。
- 如果是在目标库指定,则 INSERT 操作不会写入到 Binlog 中。
- i:设置归档操作使用的索引,默认是主键。
--progress
显示进度信息,单位行数。
如 --progress 10000,则每归档(删除)10000 行,就打印一次进度信息。
TIME ELAPSED COUNT
2022-03-06T18:24:19 0 0
2022-03-06T18:24:20 0 10000
2022-03-06T18:24:21 1 20000
第一列是当前时间,第二列是已经消耗的时间,第三列是已归档(删除)的行数。
总结
前面,我们对比了归档操作中不同参数的执行时间。
其中,--bulk-delete --limit 1000 --commit-each --bulk-insert 是最快的。不指定任何批量操作参数是最慢的。
但在使用 --bulk-insert 时要注意 ,如果导入的过程中出现问题,pt-archiver 是不会提示任何错误的。
常见的错误有主键冲突,数据和目标列的数据类型不一致。
如果不使用 --bulk-insert,而是通过默认的 INSERT 操作来归档,大部分错误是可以识别出来的。
譬如,主键冲突,会提示以下错误。
DBD::mysql::st execute failed: Duplicate entry 'd001' for key 'PRIMARY' [for Statement "INSERT INTO `employees`.`departments`(`dept_no`,`dept_name`) VALUES (?,?)" with ParamValues: 0='d001', 1='Marketing'] at /usr/local/bin/pt-archiver line 6772.
导入的数据和目标列的数据类型不一致,会提示以下错误。
DBD::mysql::st execute failed: Incorrect integer value: 'Marketing' for column 'dept_name' at row 1 [for Statement "INSERT INTO `employees`.`departments`(`dept_no`,`dept_name`) VALUES (?,?)" with ParamValues: 0='d001', 1='Marketing'] at /usr/local/bin/pt-archiver line 6772.
当然,数据和类型不一致,能被识别出来的前提是归档实例的 SQL_MODE 为严格模式。
如果待归档的实例中有 MySQL 5.6 ,我们其实很难将归档实例的 SQL_MODE 开启为严格模式。
因为 MySQL 5.6 的 SQL_MODE 默认为非严格模式,所以难免会产生很多无效数据,譬如时间字段中的 0000-00-00 00:00:00 。
这种无效数据,如果插入到开启了严格模式的归档实例中,会直接报错。
从数据安全的角度出发,最推荐的归档方式是:
- 先归档,但不删除源库的数据。
- 比对源库和归档库的数据是否一致。
- 如果比对结果一致,再删除源库的归档数据。
其中,第一步和第三步可通过 pt-archiver 搞定,第二步可通过 pt-table-sync 搞定。
相对于边归档边删除的这种方式,虽然麻烦不少,但相对来说,更安全。
如果本文对你有帮助,别忘记给我个3连问 ,点赞,转发,评论,,咱们下期见。
收藏 等于白嫖,点赞才是真情。
亲爱的小伙伴们,有需要JAVA面试文档资料请点赞+转发,关注我后,私信我就可以领取资料哦
原文 https://www.cnblogs.com/ivictor/p/16001965.html
相关推荐
- 得物可观测平台架构升级:基于GreptimeDB的全新监控体系实践
-
一、摘要在前端可观测分析场景中,需要实时观测并处理多地、多环境的运行情况,以保障Web应用和移动端的可用性与性能。传统方案往往依赖代理Agent→消息队列→流计算引擎→OLAP存储...
- warm-flow新春版:网关直连和流程图重构
-
本期主要解决了网关直连和流程图重构,可以自此之后可支持各种复杂的网关混合、多网关直连使用。-新增Ruoyi-Vue-Plus优秀开源集成案例更新日志[feat]导入、导出和保存等新增json格式支持...
- 扣子空间体验报告
-
在数字化时代,智能工具的应用正不断拓展到我们工作和生活的各个角落。从任务规划到项目执行,再到任务管理,作者深入探讨了这款工具在不同场景下的表现和潜力。通过具体的应用实例,文章展示了扣子空间如何帮助用户...
- spider-flow:开源的可视化方式定义爬虫方案
-
spider-flow简介spider-flow是一个爬虫平台,以可视化推拽方式定义爬取流程,无需代码即可实现一个爬虫服务。spider-flow特性支持css选择器、正则提取支持JSON/XML格式...
- solon-flow 你好世界!
-
solon-flow是一个基础级的流处理引擎(可用于业务规则、决策处理、计算编排、流程审批等......)。提供有“开放式”驱动定制支持,像jdbc有mysql或pgsql等驱动,可...
- 新一代开源爬虫平台:SpiderFlow
-
SpiderFlow:新一代爬虫平台,以图形化方式定义爬虫流程,不写代码即可完成爬虫。-精选真开源,释放新价值。概览Spider-Flow是一个开源的、面向所有用户的Web端爬虫构建平台,它使用Ja...
- 通过 SQL 训练机器学习模型的引擎
-
关注薪资待遇的同学应该知道,机器学习相关的岗位工资普遍偏高啊。同时随着各种通用机器学习框架的出现,机器学习的门槛也在逐渐降低,训练一个简单的机器学习模型变得不那么难。但是不得不承认对于一些数据相关的工...
- 鼠须管输入法rime for Mac
-
鼠须管输入法forMac是一款十分新颖的跨平台输入法软件,全名是中州韵输入法引擎,鼠须管输入法mac版不仅仅是一个输入法,而是一个输入法算法框架。Rime的基础架构十分精良,一套算法支持了拼音、...
- Go语言 1.20 版本正式发布:新版详细介绍
-
Go1.20简介最新的Go版本1.20在Go1.19发布六个月后发布。它的大部分更改都在工具链、运行时和库的实现中。一如既往,该版本保持了Go1的兼容性承诺。我们期望几乎所...
- iOS 10平台SpriteKit新特性之Tile Maps(上)
-
简介苹果公司在WWDC2016大会上向人们展示了一大批新的好东西。其中之一就是SpriteKitTileEditor。这款工具易于上手,而且看起来速度特别快。在本教程中,你将了解关于TileE...
- 程序员简历例句—范例Java、Python、C++模板
-
个人简介通用简介:有良好的代码风格,通过添加注释提高代码可读性,注重代码质量,研读过XXX,XXX等多个开源项目源码从而学习增强代码的健壮性与扩展性。具备良好的代码编程习惯及文档编写能力,参与多个高...
- Telerik UI for iOS Q3 2015正式发布
-
近日,TelerikUIforiOS正式发布了Q32015。新版本新增对XCode7、Swift2.0和iOS9的支持,同时还新增了对数轴、不连续的日期时间轴等;改进TKDataPoin...
- ios使用ijkplayer+nginx进行视频直播
-
上两节,我们讲到使用nginx和ngixn的rtmp模块搭建直播的服务器,接着我们讲解了在Android使用ijkplayer来作为我们的视频直播播放器,整个过程中,需要注意的就是ijlplayer编...
- IOS技术分享|iOS快速生成开发文档(一)
-
前言对于开发人员而言,文档的作用不言而喻。文档不仅可以提高软件开发效率,还能便于以后的软件开发、使用和维护。本文主要讲述Objective-C快速生成开发文档工具appledoc。简介apple...
- macOS下配置VS Code C++开发环境
-
本文介绍在苹果macOS操作系统下,配置VisualStudioCode的C/C++开发环境的过程,本环境使用Clang/LLVM编译器和调试器。一、前置条件本文默认前置条件是,您的开发设备已...
- 一周热门
- 最近发表
- 标签列表
-
- mybatiscollection (79)
- mqtt服务器 (88)
- keyerror (78)
- c#map (65)
- resize函数 (64)
- xftp6 (83)
- bt搜索 (75)
- c#var (76)
- mybatis大于等于 (64)
- xcode-select (66)
- httperror403.14-forbidden (63)
- logstashinput (65)
- hadoop端口 (65)
- dockernetworkconnect (63)
- esxi7 (63)
- vue阻止冒泡 (67)
- c#for循环 (63)
- oracle时间戳转换日期 (64)
- jquery跨域 (68)
- php写入文件 (73)
- java大写转小写 (63)
- kafkatools (66)
- mysql导出数据库 (66)
- jquery鼠标移入移出 (71)
- 取小数点后两位的函数 (73)