Kafka存储结构与Topic 消息查找 kafka-topic
bigegpt 2024-10-19 02:49 3 浏览
Kafka是一种高吞吐量的分布式发布订阅消息系统,架构包含producer(生产者)、broker、consumer(消费者),是目前最流行的消息队列之一,广泛应用在微服务拆分中。
producer负责生产消息,然后投递到Kafka broker (即Kafka server)中,consumer 负责消费消息,从broker上定时拉取消息。比如一个电商支付、发货流程的消息流程如下
producer和consumer是没有直接关系的,中间以broker作为纽带关联起来,双方的消息规范人为协定,比如 topic、消息体内容、序列化方式等等,producer、consumer 的这些基本参数在上篇《spring kafka 写生产者消费者及参数详解》已经详细介绍。
在我们实际工作中可能会出现种种问题,比如生产者发送消息没有真正成功、消费者没有消费到消息或者重复消费了,那么该如何去 broker 上查看消息,排查问题?稍微大一些的公司都有架构组或者中台组做好的 Kafka 管理后台查看topic、消费组、消息阻塞情况,但也似乎很少提供查询具体到某条消息的。本文就是以最接近真相的方式去查看kafka原始数据。以下内容主要包括:
1. kafka 服务注册信息
2. 查看 topic
3. 查看 group
4. 查看 kafka 消息内容
01. kafka 服务注册信息
kafka 的producer、broker信息、consumer 基本关系图如下
kafka 服务信息是注册在 zookeeper 上的,包括选主也是在 zookeeper 上做的。
1.1. 查看 kafka 进程
运行 ps -ef |grep kafka 后可以看到 kafka 路径和 kafka.properties
kafka.properties 是服务的配置信息,我们关心zookeeper.connect 和 log.dirs。
1. zookeeper.connect 是kafka使用的zookeeper的host
2. log.dirs 是保存 kafka log 文件的路径
1.2. zookeeper 保存了哪些信息
登陆上面的zookeeper,kafka信息在Zookeeper 里的存储结构是这样的,主要保存了broker信息、topic信息。
- broker 和 topic
有三个broker id分别为 35、36、37,35信息如下
- controller
controller 保存了 kafka leader 信息
02. 查看topic
2.1 脚本
在执行ps -ef |grep kafka 后可以看到 ..KAFKA-2.2.0-1.2.2.0.p0.68/lib/kafka/bin/,这里面存放了 Kafka 提供的脚本,我将使用这些脚本查看topic、group、消息内容。
2.2 list topic
topic 是注册在 Zookeeper 上的,你可以去 Zookeeper 上查看,也可以使用 kafka bin脚本查看。使用 kafka bin 脚本查看方式,如下:
sh kafka-topics.sh --zookeeper Zookeeper_host:port --list
可以列举出所有的topic
2.3 查看特定的topic
sh kafka-topics.sh --zookeeper Zookeeper_host:port --topic topic_name --describe
03. 查看group
3.1 list group
kafka 是通过 group 来分组消费的,注册kafka也要指定一个 groupId,通过 --list 可以查看自己的 groupId 是否注册到了 kafka,以及 查看 groupId列表。
有时候会出现在代码中向 kafka 注册了 consumer group,但一直消费不到消息,这时可以看一下你的group是否注册成功了。
sh kafka-consumer-groups.sh --bootstrap-server kafka_server:port --list
3.2 查看 group - topic 的消费进度
如果consumer迟迟消费不到消息或者消费延迟,可以看一下你的group下某个topic是否有消费阻塞。
sh kafka-consumer-groups.sh --bootstrap-server server:port --group groupId --describebr
PARTITION:分区
CURRENT-OFFSET:当前消费到的 offset
LOG-END-OFFSET:最新消息的offset
LAG:滞后多少个offset,即阻塞多少个
04. 查看 Kafka 消息内容
kafka.properties有一项配置是 log.dirs,这就是保存消息的地方,Kafka 以文件形式存储持久化消息数据。这里保存了业务的topic消息元数据,路径名是topic名-分区id,比如 channel-topic-0,还有一些__consumer_offsets-xx 的东西,__consumer_offsets 也是一个topic,只不过是 Kafka 内部使用的。
Kafka以Log文件形式存储消息,为防止log过大,通过日志分段(Segment)方式将Log切分成段,比如下面的00000000000000034164 和 00000000000000034191,一个Segment包含一个.log日志文件、.index偏移量索引文件、.timeindex时间戳索引文件,以及其他文件。
每个Segment文件名字由20位数字组成,该数字就是当前文件保存的第一条消息的offset,叫做基准偏移量。
1. .log 是消息的元数据
2. .index 保存消息d的 offset
3. .timeindex 时间戳 offset 索引
执行如下命令可以查看对应文件内容
sh kafka-run-class.sh kafka.tools.DumpLogSegments --files 文件名 --print-data-log
Kafka 存储文件的内容格式是在不断的演进的,所以不同版本可能存储格式不同。本文中文件格式基于Kafka 2.2.0。
4.1 .log
.log 文件保存的是 producer 发送到当前分区的每一条消息内容,也可以使用 grep 来过滤消息。如果消费者发现没有消费到或者重复消费了某条消息,可以使用上面的命令 + grep 关键字 查看消息。
一个Log文件的消息分成很多小段,每段有 baseOffset 和 lastOffset,baseOffset 是本段消息的起始 offset,lastOffset 本段的截止 offset。count 是本段消息数。offset 就是消息的索引。
4.2 .index
.index 文件保存的 log offset 和 Index offset 分别对应 .log 每段消息的起始offset和截止offset 。并不是记录了全部的offset,采用稀疏索引方式存储并检索消息(类似于二分查找)。
系统检索一条消息的过程是:
1. 根据offset定位Segment
2. 根据.index 定位offset所在索引段
3. 去.log查找消息
4.3 .timeindex
带时间戳的索引文件,时间戳跟生产消息时传入的timeStamp有关,具体查找消息过程,还不是很清楚。
公众号:看起来很美(kanqilaihenmei_)
相关推荐
- 得物可观测平台架构升级:基于GreptimeDB的全新监控体系实践
-
一、摘要在前端可观测分析场景中,需要实时观测并处理多地、多环境的运行情况,以保障Web应用和移动端的可用性与性能。传统方案往往依赖代理Agent→消息队列→流计算引擎→OLAP存储...
- warm-flow新春版:网关直连和流程图重构
-
本期主要解决了网关直连和流程图重构,可以自此之后可支持各种复杂的网关混合、多网关直连使用。-新增Ruoyi-Vue-Plus优秀开源集成案例更新日志[feat]导入、导出和保存等新增json格式支持...
- 扣子空间体验报告
-
在数字化时代,智能工具的应用正不断拓展到我们工作和生活的各个角落。从任务规划到项目执行,再到任务管理,作者深入探讨了这款工具在不同场景下的表现和潜力。通过具体的应用实例,文章展示了扣子空间如何帮助用户...
- spider-flow:开源的可视化方式定义爬虫方案
-
spider-flow简介spider-flow是一个爬虫平台,以可视化推拽方式定义爬取流程,无需代码即可实现一个爬虫服务。spider-flow特性支持css选择器、正则提取支持JSON/XML格式...
- solon-flow 你好世界!
-
solon-flow是一个基础级的流处理引擎(可用于业务规则、决策处理、计算编排、流程审批等......)。提供有“开放式”驱动定制支持,像jdbc有mysql或pgsql等驱动,可...
- 新一代开源爬虫平台:SpiderFlow
-
SpiderFlow:新一代爬虫平台,以图形化方式定义爬虫流程,不写代码即可完成爬虫。-精选真开源,释放新价值。概览Spider-Flow是一个开源的、面向所有用户的Web端爬虫构建平台,它使用Ja...
- 通过 SQL 训练机器学习模型的引擎
-
关注薪资待遇的同学应该知道,机器学习相关的岗位工资普遍偏高啊。同时随着各种通用机器学习框架的出现,机器学习的门槛也在逐渐降低,训练一个简单的机器学习模型变得不那么难。但是不得不承认对于一些数据相关的工...
- 鼠须管输入法rime for Mac
-
鼠须管输入法forMac是一款十分新颖的跨平台输入法软件,全名是中州韵输入法引擎,鼠须管输入法mac版不仅仅是一个输入法,而是一个输入法算法框架。Rime的基础架构十分精良,一套算法支持了拼音、...
- Go语言 1.20 版本正式发布:新版详细介绍
-
Go1.20简介最新的Go版本1.20在Go1.19发布六个月后发布。它的大部分更改都在工具链、运行时和库的实现中。一如既往,该版本保持了Go1的兼容性承诺。我们期望几乎所...
- iOS 10平台SpriteKit新特性之Tile Maps(上)
-
简介苹果公司在WWDC2016大会上向人们展示了一大批新的好东西。其中之一就是SpriteKitTileEditor。这款工具易于上手,而且看起来速度特别快。在本教程中,你将了解关于TileE...
- 程序员简历例句—范例Java、Python、C++模板
-
个人简介通用简介:有良好的代码风格,通过添加注释提高代码可读性,注重代码质量,研读过XXX,XXX等多个开源项目源码从而学习增强代码的健壮性与扩展性。具备良好的代码编程习惯及文档编写能力,参与多个高...
- Telerik UI for iOS Q3 2015正式发布
-
近日,TelerikUIforiOS正式发布了Q32015。新版本新增对XCode7、Swift2.0和iOS9的支持,同时还新增了对数轴、不连续的日期时间轴等;改进TKDataPoin...
- ios使用ijkplayer+nginx进行视频直播
-
上两节,我们讲到使用nginx和ngixn的rtmp模块搭建直播的服务器,接着我们讲解了在Android使用ijkplayer来作为我们的视频直播播放器,整个过程中,需要注意的就是ijlplayer编...
- IOS技术分享|iOS快速生成开发文档(一)
-
前言对于开发人员而言,文档的作用不言而喻。文档不仅可以提高软件开发效率,还能便于以后的软件开发、使用和维护。本文主要讲述Objective-C快速生成开发文档工具appledoc。简介apple...
- macOS下配置VS Code C++开发环境
-
本文介绍在苹果macOS操作系统下,配置VisualStudioCode的C/C++开发环境的过程,本环境使用Clang/LLVM编译器和调试器。一、前置条件本文默认前置条件是,您的开发设备已...
- 一周热门
- 最近发表
- 标签列表
-
- mybatiscollection (79)
- mqtt服务器 (88)
- keyerror (78)
- c#map (65)
- resize函数 (64)
- xftp6 (83)
- bt搜索 (75)
- c#var (76)
- mybatis大于等于 (64)
- xcode-select (66)
- httperror403.14-forbidden (63)
- logstashinput (65)
- hadoop端口 (65)
- dockernetworkconnect (63)
- esxi7 (63)
- vue阻止冒泡 (67)
- c#for循环 (63)
- oracle时间戳转换日期 (64)
- jquery跨域 (68)
- php写入文件 (73)
- java大写转小写 (63)
- kafkatools (66)
- mysql导出数据库 (66)
- jquery鼠标移入移出 (71)
- 取小数点后两位的函数 (73)