Kafka存储结构与Topic 消息查找 kafka-topic
bigegpt 2024-10-19 02:49 8 浏览
Kafka是一种高吞吐量的分布式发布订阅消息系统,架构包含producer(生产者)、broker、consumer(消费者),是目前最流行的消息队列之一,广泛应用在微服务拆分中。
producer负责生产消息,然后投递到Kafka broker (即Kafka server)中,consumer 负责消费消息,从broker上定时拉取消息。比如一个电商支付、发货流程的消息流程如下
producer和consumer是没有直接关系的,中间以broker作为纽带关联起来,双方的消息规范人为协定,比如 topic、消息体内容、序列化方式等等,producer、consumer 的这些基本参数在上篇《spring kafka 写生产者消费者及参数详解》已经详细介绍。
在我们实际工作中可能会出现种种问题,比如生产者发送消息没有真正成功、消费者没有消费到消息或者重复消费了,那么该如何去 broker 上查看消息,排查问题?稍微大一些的公司都有架构组或者中台组做好的 Kafka 管理后台查看topic、消费组、消息阻塞情况,但也似乎很少提供查询具体到某条消息的。本文就是以最接近真相的方式去查看kafka原始数据。以下内容主要包括:
1. kafka 服务注册信息
2. 查看 topic
3. 查看 group
4. 查看 kafka 消息内容
01. kafka 服务注册信息
kafka 的producer、broker信息、consumer 基本关系图如下
kafka 服务信息是注册在 zookeeper 上的,包括选主也是在 zookeeper 上做的。
1.1. 查看 kafka 进程
运行 ps -ef |grep kafka 后可以看到 kafka 路径和 kafka.properties
kafka.properties 是服务的配置信息,我们关心zookeeper.connect 和 log.dirs。
1. zookeeper.connect 是kafka使用的zookeeper的host
2. log.dirs 是保存 kafka log 文件的路径
1.2. zookeeper 保存了哪些信息
登陆上面的zookeeper,kafka信息在Zookeeper 里的存储结构是这样的,主要保存了broker信息、topic信息。
- broker 和 topic
有三个broker id分别为 35、36、37,35信息如下
- controller
controller 保存了 kafka leader 信息
02. 查看topic
2.1 脚本
在执行ps -ef |grep kafka 后可以看到 ..KAFKA-2.2.0-1.2.2.0.p0.68/lib/kafka/bin/,这里面存放了 Kafka 提供的脚本,我将使用这些脚本查看topic、group、消息内容。
2.2 list topic
topic 是注册在 Zookeeper 上的,你可以去 Zookeeper 上查看,也可以使用 kafka bin脚本查看。使用 kafka bin 脚本查看方式,如下:
sh kafka-topics.sh --zookeeper Zookeeper_host:port --list
可以列举出所有的topic
2.3 查看特定的topic
sh kafka-topics.sh --zookeeper Zookeeper_host:port --topic topic_name --describe
03. 查看group
3.1 list group
kafka 是通过 group 来分组消费的,注册kafka也要指定一个 groupId,通过 --list 可以查看自己的 groupId 是否注册到了 kafka,以及 查看 groupId列表。
有时候会出现在代码中向 kafka 注册了 consumer group,但一直消费不到消息,这时可以看一下你的group是否注册成功了。
sh kafka-consumer-groups.sh --bootstrap-server kafka_server:port --list
3.2 查看 group - topic 的消费进度
如果consumer迟迟消费不到消息或者消费延迟,可以看一下你的group下某个topic是否有消费阻塞。
sh kafka-consumer-groups.sh --bootstrap-server server:port --group groupId --describebr
PARTITION:分区
CURRENT-OFFSET:当前消费到的 offset
LOG-END-OFFSET:最新消息的offset
LAG:滞后多少个offset,即阻塞多少个
04. 查看 Kafka 消息内容
kafka.properties有一项配置是 log.dirs,这就是保存消息的地方,Kafka 以文件形式存储持久化消息数据。这里保存了业务的topic消息元数据,路径名是topic名-分区id,比如 channel-topic-0,还有一些__consumer_offsets-xx 的东西,__consumer_offsets 也是一个topic,只不过是 Kafka 内部使用的。
Kafka以Log文件形式存储消息,为防止log过大,通过日志分段(Segment)方式将Log切分成段,比如下面的00000000000000034164 和 00000000000000034191,一个Segment包含一个.log日志文件、.index偏移量索引文件、.timeindex时间戳索引文件,以及其他文件。
每个Segment文件名字由20位数字组成,该数字就是当前文件保存的第一条消息的offset,叫做基准偏移量。
1. .log 是消息的元数据
2. .index 保存消息d的 offset
3. .timeindex 时间戳 offset 索引
执行如下命令可以查看对应文件内容
sh kafka-run-class.sh kafka.tools.DumpLogSegments --files 文件名 --print-data-log
Kafka 存储文件的内容格式是在不断的演进的,所以不同版本可能存储格式不同。本文中文件格式基于Kafka 2.2.0。
4.1 .log
.log 文件保存的是 producer 发送到当前分区的每一条消息内容,也可以使用 grep 来过滤消息。如果消费者发现没有消费到或者重复消费了某条消息,可以使用上面的命令 + grep 关键字 查看消息。
一个Log文件的消息分成很多小段,每段有 baseOffset 和 lastOffset,baseOffset 是本段消息的起始 offset,lastOffset 本段的截止 offset。count 是本段消息数。offset 就是消息的索引。
4.2 .index
.index 文件保存的 log offset 和 Index offset 分别对应 .log 每段消息的起始offset和截止offset 。并不是记录了全部的offset,采用稀疏索引方式存储并检索消息(类似于二分查找)。
系统检索一条消息的过程是:
1. 根据offset定位Segment
2. 根据.index 定位offset所在索引段
3. 去.log查找消息
4.3 .timeindex
带时间戳的索引文件,时间戳跟生产消息时传入的timeStamp有关,具体查找消息过程,还不是很清楚。
公众号:看起来很美(kanqilaihenmei_)
相关推荐
- 当Frida来“敲”门(frida是什么)
-
0x1渗透测试瓶颈目前,碰到越来越多的大客户都会将核心资产业务集中在统一的APP上,或者对自己比较重要的APP,如自己的主业务,办公APP进行加壳,流量加密,投入了很多精力在移动端的防护上。而现在挖...
- 服务端性能测试实战3-性能测试脚本开发
-
前言在前面的两篇文章中,我们分别介绍了性能测试的理论知识以及性能测试计划制定,本篇文章将重点介绍性能测试脚本开发。脚本开发将分为两个阶段:阶段一:了解各个接口的入参、出参,使用Python代码模拟前端...
- Springboot整合Apache Ftpserver拓展功能及业务讲解(三)
-
今日分享每天分享技术实战干货,技术在于积累和收藏,希望可以帮助到您,同时也希望获得您的支持和关注。架构开源地址:https://gitee.com/msxyspringboot整合Ftpserver参...
- Linux和Windows下:Python Crypto模块安装方式区别
-
一、Linux环境下:fromCrypto.SignatureimportPKCS1_v1_5如果导包报错:ImportError:Nomodulenamed'Crypt...
- Python 3 加密简介(python des加密解密)
-
Python3的标准库中是没多少用来解决加密的,不过却有用于处理哈希的库。在这里我们会对其进行一个简单的介绍,但重点会放在两个第三方的软件包:PyCrypto和cryptography上,我...
- 怎样从零开始编译一个魔兽世界开源服务端Windows
-
第二章:编译和安装我是艾西,上期我们讲述到编译一个魔兽世界开源服务端环境准备,那么今天跟大家聊聊怎么编译和安装我们直接进入正题(上一章没有看到的小伙伴可以点我主页查看)编译服务端:在D盘新建一个文件夹...
- 附1-Conda部署安装及基本使用(conda安装教程)
-
Windows环境安装安装介质下载下载地址:https://www.anaconda.com/products/individual安装Anaconda安装时,选择自定义安装,选择自定义安装路径:配置...
- 如何配置全世界最小的 MySQL 服务器
-
配置全世界最小的MySQL服务器——如何在一块IntelEdison为控制板上安装一个MySQL服务器。介绍在我最近的一篇博文中,物联网,消息以及MySQL,我展示了如果Partic...
- 如何使用Github Action来自动化编译PolarDB-PG数据库
-
随着PolarDB在国产数据库领域荣膺桂冠并持续获得广泛认可,越来越多的学生和技术爱好者开始关注并涉足这款由阿里巴巴集团倾力打造且性能卓越的关系型云原生数据库。有很多同学想要上手尝试,却卡在了编译数据...
- 面向NDK开发者的Android 7.0变更(ndk android.mk)
-
订阅Google官方微信公众号:谷歌开发者。与谷歌一起创造未来!受Android平台其他改进的影响,为了方便加载本机代码,AndroidM和N中的动态链接器对编写整洁且跨平台兼容的本机...
- 信创改造--人大金仓(Kingbase)数据库安装、备份恢复的问题纪要
-
问题一:在安装KingbaseES时,安装用户对于安装路径需有“读”、“写”、“执行”的权限。在Linux系统中,需要以非root用户执行安装程序,且该用户要有标准的home目录,您可...
- OpenSSH 安全漏洞,修补操作一手掌握
-
1.漏洞概述近日,国家信息安全漏洞库(CNNVD)收到关于OpenSSH安全漏洞(CNNVD-202407-017、CVE-2024-6387)情况的报送。攻击者可以利用该漏洞在无需认证的情况下,通...
- Linux:lsof命令详解(linux lsof命令详解)
-
介绍欢迎来到这篇博客。在这篇博客中,我们将学习Unix/Linux系统上的lsof命令行工具。命令行工具是您使用CLI(命令行界面)而不是GUI(图形用户界面)运行的程序或工具。lsoflsof代表&...
- 幻隐说固态第一期:固态硬盘接口类别
-
前排声明所有信息来源于网络收集,如有错误请评论区指出更正。废话不多说,目前固态硬盘接口按速度由慢到快分有这几类:SATA、mSATA、SATAExpress、PCI-E、m.2、u.2。下面我们来...
- 新品轰炸 影驰SSD多款产品登Computex
-
分享泡泡网SSD固态硬盘频道6月6日台北电脑展作为全球第二、亚洲最大的3C/IT产业链专业展,吸引了众多IT厂商和全球各地媒体的热烈关注,全球存储新势力—影驰,也积极参与其中,为广大玩家朋友带来了...
- 一周热门
- 最近发表
-
- 当Frida来“敲”门(frida是什么)
- 服务端性能测试实战3-性能测试脚本开发
- Springboot整合Apache Ftpserver拓展功能及业务讲解(三)
- Linux和Windows下:Python Crypto模块安装方式区别
- Python 3 加密简介(python des加密解密)
- 怎样从零开始编译一个魔兽世界开源服务端Windows
- 附1-Conda部署安装及基本使用(conda安装教程)
- 如何配置全世界最小的 MySQL 服务器
- 如何使用Github Action来自动化编译PolarDB-PG数据库
- 面向NDK开发者的Android 7.0变更(ndk android.mk)
- 标签列表
-
- mybatiscollection (79)
- mqtt服务器 (88)
- keyerror (78)
- c#map (65)
- resize函数 (64)
- xftp6 (83)
- bt搜索 (75)
- c#var (76)
- mybatis大于等于 (64)
- xcode-select (66)
- mysql授权 (74)
- 下载测试 (70)
- linuxlink (65)
- pythonwget (67)
- androidinclude (65)
- libcrypto.so (74)
- logstashinput (65)
- hadoop端口 (65)
- vue阻止冒泡 (67)
- jquery跨域 (68)
- php写入文件 (73)
- kafkatools (66)
- mysql导出数据库 (66)
- jquery鼠标移入移出 (71)
- 取小数点后两位的函数 (73)