百度360必应搜狗淘宝本站头条
当前位置:网站首页 > 技术文章 > 正文

kafka文件存储(kafka数据存储在内存还是磁盘)

haoteby 2025-04-30 16:52 10 浏览

1.存储结构

我们都知道kafka能堆积非常大的数据,一台服务器,肯定是放不下的。由此出现的集群的概念,集群不仅可以让消息负载均衡,还能提高消息存取的吞吐量。kafka集群中,会有多台broker,每台broker分别在不同的机器上。为了提高吞吐量,每个topic也会都多个分区,同时为了保持可靠性,每个分区还会有多个副本。这些分区副本被均匀的散落在每个broker上,其中每个分区副本中有一个副本为leader,其他的为follower。

在Kafka中主题(Topic)是一个逻辑上的概念,分区(partition)是物理上的存在的。每个partition对应一个log文件,该log文件中存储的就是Producer生产的数据。Producer生产的数据会被不断追加到该log文件末端。为防止log文件过大导致数据定位效率低下,Kafka采用了分片和索引机制,将每个partition分为多个segment,每个segment默认1G( log.segment.bytes ), 每个segment包括.index文件、.log文件和.timeindex等文件。这些文件位于文件夹下,该文件命名规则为:topic名称+分区号。

  • 分区存储:每个Topic分区对应一个目录,目录名为<topic>-<partition>(如test-0)。
  • 段文件(Segment):每个分区的日志被拆分为多个段文件,包括:
    • .log文件:存储实际消息。
    • .index文件:偏移量索引,映射逻辑偏移量到物理位置。
    • .timeindex文件:时间戳索引,映射时间戳到偏移量。
  • 文件名规则:以当前段的第一条消息的偏移量命名,用20位数字填充(如00000000000000000000.log)。

Segment的三个文件需要通过特定工具打开才能看到信息

bin/kafka-run-class.sh kafka.tools.DumpLogSegments --files ../logs/test-3/00000000000000000000.log --print-data-log

bin/kafka-run-class.sh kafka.tools.DumpLogSegments --files ../logs/test-3/00000000000000000000.index  --print-data-log
  • 分段条件:段滚动(Rolling)由以下条件触发:
    • 大小阈值:默认1GB(log.segment.bytes)。
    • 时间阈值:默认7天(log.roll.hours)。
    • 索引文件大小:索引达到一定大小也会触发分段。
  • log.segment.bytes: 单个文件段的最大大小, 默认值为1G
  • log.roll.ms: 创建新日志段前的最长等待时间(毫秒)。若未设置此参数,则会采用配置项 log.roll.hours 中的数值。 默认值为null
  • log.roll.hours: 在创建新日志段之前允许的最大时间(小时),该属性优先级次于 log.roll.ms 属性, 默认值: 168小时也就是7天

2 log文件:

bin/kafka-run-class.sh kafka.tools.DumpLogSegments --files ../logs/test-3/00000000000000000000.log --print-data-log

log文件的内容如下:

Dumping ../logs/test-3/00000000000000000000.log
Log starting offset: 0
baseOffset: 0 lastOffset: 9 count: 10 baseSequence: 0 lastSequence: 9 producerId: 1003 producerEpoch: 0 partitionLeaderEpoch: 0 isTransactional: false isControl: false deleteHorizonMs: OptionalLong.empty position: 0 CreateTime: 1742721094962 size: 191 magic: 2 compresscodec: none crc: 3525146444 isvalid: true
| offset: 0 CreateTime: 1742721094923 keySize: -1 valueSize: 6 sequence: 0 headerKeys: [] payload: data-0
| offset: 1 CreateTime: 1742721094961 keySize: -1 valueSize: 6 sequence: 1 headerKeys: [] payload: data-1
| offset: 2 CreateTime: 1742721094961 keySize: -1 valueSize: 6 sequence: 2 headerKeys: [] payload: data-2
| offset: 3 CreateTime: 1742721094961 keySize: -1 valueSize: 6 sequence: 3 headerKeys: [] payload: data-3
| offset: 4 CreateTime: 1742721094961 keySize: -1 valueSize: 6 sequence: 4 headerKeys: [] payload: data-4
| offset: 5 CreateTime: 1742721094961 keySize: -1 valueSize: 6 sequence: 5 headerKeys: [] payload: data-5
| offset: 6 CreateTime: 1742721094961 keySize: -1 valueSize: 6 sequence: 6 headerKeys: [] payload: data-6
| offset: 7 CreateTime: 1742721094961 keySize: -1 valueSize: 6 sequence: 7 headerKeys: [] payload: data-7
| offset: 8 CreateTime: 1742721094962 keySize: -1 valueSize: 6 sequence: 8 headerKeys: [] payload: data-8
| offset: 9 CreateTime: 1742721094962 keySize: -1 valueSize: 6 sequence: 9 headerKeys: [] payload: data-9

通过文件中的magic: 2表示我们kafka消息使用的是V2格式

消息格式演进

  • V0格式(Kafka 0.10.0之前):
    • 无时间戳字段,仅支持简单消息结构。
  • V1格式(Kafka 0.10.0+):
    • 引入时间戳字段,支持基于时间的日志滚动和索引。
  • V2格式(Kafka 0.11.0+):
    • 批处理(Record Batch):将多条消息打包成一个批次,减少元数据开销。
    • 增量CRC:仅对整个批次计算一次CRC,而非每条消息。
    • 更紧凑的编码:使用变长整数(Varint)和增量偏移量存储,减少空间占用。

而V2格式的log文件结构:

  • Record Batch Header: Kafka消息批次(Record Batch)的元数据摘要
  • 后面是每一条记录的详细信息

Record Batch)的元数据属性

字段

说明

baseOffset

该批次中第一条消息的基准偏移量,后续消息的偏移量基于此值增量计算。

lastOffset

该批次中最后一条消息的偏移量,比如 10 条消息(偏移量0~9)。

count

批次内包含的消息数量

baseSequence

生产者(Producer)为该批次分配的第一个序列号。

lastSequence

生产者为该批次分配的最后一个序列号,序列号连续递增(0~9)。

producerId

生产者的唯一ID,用于支持幂等性和事务性消息

producerEpoch

生产者的纪元号(防止生产者实例重启后的消息重复)

partitionLeaderEpoch

分区Leader的纪元号,用于确保副本同步的一致性。

isTransactional

表示该批次是否为事务性消息的一部分

isControl

表示该批次是否为控制消息

deleteHorizonMs

仅压缩日志(Log Compaction)有效,表示消息删除的时间阈值

position

该批次在日志文件(.log)中的起始物理位置(字节偏移)

CreateTime

批次创建时间戳

size

整个批次在日志文件中的占用字节数

magic

消息格式版本,V2格式支持批处理、增量CRC等优化

compresscodec

压缩算法

crc

整个批次的CRC校验值,用于验证数据完整性

isvalid

批次数据校验是否通过

3 index文件

索引文件: 记录偏移量(offset)到物理位置(position)的映射

offset: 0 position: 0

index文件中保存的offset为相对offset,这样能确保offset的值所占空间不会过大,因为这样能将offset的值控制在固定大小

当log文件写入4k(这里可以通过log.index.interval.bytes设置)数据,就会写入一条索引信息到index文件中,这样的index索引文件就是一个稀疏索引,它并不会每条日志都建立索引信息。

当Kafka查询一条offset对应实际消息时,可以通过index进行二分查找,获取最近的低位offset,然后从低位offset对应的position开始,从实际的log文件中开始往后查找对应的消息。

Kafka在Log文件中定位offset=899的Record的详细流程:

1. 确定目标Segment文件

1)列出分区目录: 假设Topic分区目录为test-topic-0,包含以下Segment文件:

00000000000000000000.log
00000000000000000000.index
00000000000000000500.log
00000000000000000500.index
00000000000000001000.log
00000000000000001000.index

2)查找包含offset=899的Segment

  • Segment文件名是当前Segment的第一条消息的offset(左闭右开)。
  • 目标Segment需满足: Segment起始offset ≤ 899 < 下一个Segment的起始offset
  • 在本例中,00000000000000000000.log的起始offset为0,下一个Segment起始offset为500。 但899 > 500,因此继续查找:
    • 下一个Segment起始offset为500,后续为1000。
    • 由于500 ≤ 899 < 1000,目标Segment为00000000000000000500.log

2. 使用.index文件快速定位

每个.index文件记录稀疏索引,格式为<offset, physical_position>。 索引条目间隔由index.interval.bytes(默认4KB)控制,并非每条消息都记录。

1)加载.index文件: 读取00000000000000000500.index,假设其内容如下:

offset: 500  position: 0
offset: 600  position: 4096
offset: 800  position: 8192
offset: 900  position: 12288

2)二分查找最近的索引条目

  • 查找小于等于899的最大offset
  • 在示例中,符合条件的是offset=800,对应的position=8192
  • 这一步时间复杂度为O(log N),N为索引条目数。

3. 从.log文件顺序扫描

根据索引找到的position=8192,从.log文件的该位置开始顺序扫描,直到找到offset=899

1)定位到物理位置8192: 使用文件指针跳转到00000000000000000500.log的8192字节处。

2)逐条解析消息

  • 读取消息的Offset字段,直到找到offset=899
  • 位置8192: offset=800 → 跳过
    位置8236:
    offset=801 → 跳过
    ...
    位置9216:
    offset=899 → 命中目标

4 timeindex文件

时间戳索引文件,它的作用是可以查询某一个时间段内的消息,它的数据结构是:时间戳(8byte)+ 相对offset(4byte),如果要使用这个索引文件,先要通过时间范围找到对应的offset,然后再去找对应的index文件找到position信息,最后在遍历log文件,这个过程也是需要用到index索引文件的。

timestamp: 1742721094962 offset: 9

相关推荐

5个珍藏多年的资源网站,免费又实用,建议收藏

今天给大家分享5个珍藏多年的资源网站,每个都是免费的,而且非常的实用,建议收藏。1、wallhaven一个国外知名的壁纸网站,拥有海量的8k、4k的超清图片壁纸,该网站的图片是由各地的创作者提供下载,...

设计网站推荐 | 国内外设计类素材网站

网站分享|十个不得不推荐的设计类素材网站!一些压箱底的常用的设计类素材分享!一定要打开这些网站试一试哦!...

阿里巴巴旗下菜鸟裹裹换新LOGO?长高了

LOGO大师整理编辑(ID:logods)...

10个做PPT必备的素材网站,越用越上瘾,每个都是宝藏

Pexelshttps://www.pexels.com/zh-cn/...

阿里旗下的四款免费小工具 好用并且能大大提升工作效率

好的工具能大大的提升你的工作效率,今天给大家分享的是阿里旗下的四款经典免费小工具,主要是用来设计,能方便,且高效的提高你的工作效率,觉得有用就收藏了吧。第一个:阿里巴巴图标库阿里巴巴图标库有将近80多...

UI设计入门干货!八大软件+技能+素材网站

随着互联网行业的发展,UI设计师越来越多的被提及,UI设计师大火,需求岗位越来越多,也有越来越多的人转行投身UI设计师。UI设计是什么?一般所说的UI设计多指UI视觉设计,主要负责APP、Web、H5...

干货!宝藏PPT素材——海量图标免费使用

我是星辰四个月的假期收集了一些PPT素材,筹备了这个公众号今天终于和大家见面了此公众号不定时更新各种素材干活和PPT模板记得关注我哦~后台发送“PPT”领取免费PPT模板总是很难找到合适PPT素材?费...

写了100多篇原创文章,我常用的在线工具网站推荐给大家

摘要不知不觉写博客已经一年多了,累计写了100多篇原创文章,今天给大家分享下我经常使用的在线工具网站,希望对大家有所帮助!MarkdownNice支持自定义样式的在线Markdown编辑器,编辑完成...

设计者必备神器:必须收藏的在线软件推荐

本内容来源于@什么值得买SMZDM.COM|首席生活家保密对于新电脑或重新刷系统的电脑,安装一堆软件是很费时间的,而软件多了会对系统运行速度有影响,特别是机械硬盘,响应时间与软件数量成正比的。而用了...

干货 | 设计师必备网站,大神作品、图片素材一网打尽

经常会听到这样的一句话:设计师每日正式开始工作的第一件事,就是打开3个及以上的设计/素材网站。网站中的优秀作品不仅可以帮助设计师提升自己,还能激发创作的灵感,所以今天,我们为大家整理了一些国内外优秀的...

推荐11个超好用的在线作图网站

现在做图好像已经不是设计师的专利不管是新媒体人、文案,还是随便一个人不会随时随地做几张漂亮图不能分分钟出点海报、封面图、邀请函什么的还怎么昂首挺胸在办公室里混不会PS没关系,不会做图可不行所以今天老贼...

做设计还只知道花瓣包图网?这100+个免费商用素材网站送给你

作为设计师你常用的网站是哪些呢?花瓣?站酷?千库?千图?包图?这些网站确实是大家最常用的网站,各种风格的元素、模板、源文件,用起来可以说是得心应手了~但是一旦出现了这个场景,你就也跟着崩溃了........

5个好看的图标网站,直接搜索下载

今天和大家分享5个图标网站,里面收录大量丰富的图标,在这里找到好图标不是什么难事。Iconsdbwww.iconsdb.com...

8个高清无版权的图片资源网站,质量高又免费,够你用一辈子

很多时候我们找素材总是要花费很多时间,今天就给大家分享8个,高清无版权的图片资源网站,质量高又免费,够你用一辈子。01*Logosc...

淘宝PPT设计师不会告诉你的4个网站!帮你剩下不少钱

之前的文章中,给各位推荐过图片素材网站,像:500px,unsplash等,也给各位推荐过图标网站,像阿里巴巴图标库。这些网站都很好用。但是,我最近发现,有一类素材网站,在做PPT时也会经常用到,...