当前位置: 首页 > news >正文

图解Kafka架构学习笔记(二)

kafka的存储机制

  • https://segmentfault.com/a/1190000021824942

  • https://www.lin2j.tech/md/middleware/kafka/Kafka%E7%B3%BB%E5%88%97%E4%B8%83%E5%AD%98%E5%82%A8%E6%9C%BA%E5%88%B6.html

  • https://tech.meituan.com/2015/01/13/kafka-fs-design-theory.html

  • https://feizichen.me/2019/12/KafkaFileMessage/

  • https://juejin.cn/post/6965401216599736351

存储文件结构

  • topic: 可以理解为一个消息队列的名字
  • partition:为了实现扩展性,一个非常大的topic可以分布到多个 broker(即服务器)上,一个topic可以分为多个partition,每个partition是一个有序的队列
  • segment:partition物理上由多个segment组成
  • message:每个segment文件中实际存储的每一条数据就是message
  • offset:每个partition都由一系列有序的、不可变的消息组成,这些消息被连续的追加到partition中,partition中的每个消息都有一个连续的序列号叫做offset,用于partition唯一标识一条消息

在这里插入图片描述

Partition分区

假设topic名称为test-topic,默认设置partition3topic创建成功后默认的存储位置在:/tmp/kafka-logs下,分区分别以topic名称-分区数命名,(不考虑副本的情况)如下:

//分布在不同的broker节点上  
test-topic-0  
test-topic-1  
test-topic-2

疑问一:为什么要分区呢?

为了性能考虑,如果不分区每个topic的消息只存在一个broker上,那么所有的消费者都是从这个broker上消费消息,那么单节点的broker成为性能的瓶颈,如果有分区的话生产者发过来的消息分别存储在各个broker不同的partition上,这样消费者可以并行的从不同的broker不同的partition上读消息,实现了水平扩展。

疑问二:分区文件下到底存了那些东西?

如下,其实每个分区下保存了很多文件,而概念上我们把他叫segment,即每个分区都是又多个segment构成的,其中index(索引文件),log(数据文件),time index(时间索引文件)统称为一个segment。

test-topic-0  
├── 00000000000000000001.index  
├── 00000000000000000001.log  
├── 00000000000000000001.timeindex  
├── 00000000000000001018.index  
├── 00000000000000001018.log  
├── 00000000000000001018.timeindex  
├── 00000000000000002042.index  
├── 00000000000000002042.log  
├── 00000000000000002042.timeindex
  • Segment File 组成:由2大部分组成,分别为.log.index 文件,此 2 个文件一一对应,成对出现。
  • Segment File 命名规则:Partion 全局的第一个 Segment 从0开始,后续每个 Segment 文件名为上一个 Segment 文件最后一条消息的 offset 值。

index 文件为 log 文件的消息提供了索引,具体是提供某条消息所在的位置。

在这里插入图片描述
疑问三: 为什么有了partition还需要segment ?

通过上面目录显示存在多个segment的情况,既然有分区了还要存多个segment干嘛?如果不引入segment,那么一个partition只对应一个文件(log),随着消息的不断发送这个文件不断增大,由于kafka的消息不会做更新操作都是顺序写入的,如果做消息清理的时候只能删除文件的前面部分删除,不符合kafka顺序写入的设计,如果多个segment的话那就比较方便了,直接删除整个文件即可保证了每个segment的顺序写入


Segment存储

Segment中核心文件是index索引文件和log数据文件,既然是索引文件当然是为了更高效的定位到数据,那么索引文件和数据文件中到底是存了那些数据?又是如何快速找到消息数据呢?

使用kafka自带脚本发送测试数据

sh kafka-producer-perf-test.sh --topic test-topic --num-records 50000000 --record-size 1000 --throughput 10000000  --producer-props bootstrap.servers=192.168.60.201:9092

使用kafka自带脚本Dump index

sh kafka-run-class.sh kafka.tools.DumpLogSegments --files /tmp/kafka-logs/test-topic-0/00000000000000001018.index --print-data-log
offset: 1049 position: 16205  
offset: 1065 position: 32410  
offset: 1081 position: 48615  
offset: 1097 position: 64820  
offset: 1113 position: 81025  
offset: 1129 position: 97230

通过dump index我们发现其实索引文件中其实就保存了offsetposition,分别是消息的offset也就是具体那一条消息,position表示具体消息存储在log中的物理地址。

疑问一:通过上面数据可以看出,kafka并不是每个offset都保存了,为什么在index文件中这些offset编号不是连续的呢?

因为index文件中并没有为数据文件中的每条消息都建立索引,而是采用了稀疏存储的方式,每隔一定字节的数据建立一条索引。这样避免了索引文件占用过多的空间,从而可以将索引文件保留在内存中。但缺点是没有建立索引的Message也不能一次定位到其在数据文件的位置,从而需要做一次顺序扫描,但是这次顺序扫描的范围就很小了。

使用kafka自带脚本Dump log

sh kafka-run-class.sh kafka.tools.DumpLogSegments --files /tmp/kafka-logs/test-topic-0/00000000000000001018.log --print-data-log

在这里插入图片描述
log数据文件中并不是直接存储数据,而是通过许多的message组成,message包含了实际的消息数据。


Message字段

kafka从0.11.0版本开始所使用的消息格式版本为v2,参考了Protocol Buffer而引入了变长整型(Varints)和ZigZag编码。 Varints是使用一个或多个字节来序列化整数的一种方法,数值越小,其所占用的字节数就越少。ZigZag编码以一种锯齿形(zig-zags)的方式来回穿梭于正负整数之间, 以使得带符号整数映射为无符号整数,这样可以使得绝对值较小的负数仍然享有较小的Varints编码值,比如-1编码为1,1编码为2,-2编码为3。

在这里插入图片描述

未完待续。。。

相关文章:

  • 【机器学习】数据探索(Data Exploration)---数据质量和数据特征分析
  • DC电源模块的设计与制造流程
  • 基于Python的商品评论文本情感分析
  • 【Pt】马灯贴图绘制过程 02-制作锈迹
  • 字符串的函数
  • 跟着cherno手搓游戏引擎【29】Batch简单合批
  • RSTP环路避免实验(华为)
  • 图论之路径条数专题
  • Python 基于 OpenCV 视觉图像处理实战 之 OpenCV 简单实战案例 之九 简单闪烁效果
  • 关于io多路复用select() 读就绪 写就绪 的浅显理解
  • macOS 13 Ventura (苹果最新系统) v13.6.6正式版
  • 【tensorflow框架神经网络实现鸢尾花分类】
  • LeetCode6. Z 字形变换(Java)
  • 基于Echarts的超市销售可视化分析系统(数据+程序+论文)
  • fastadmin学习01-windows下安装部署
  • 【comparator, comparable】小总结
  • 【知识碎片】第三方登录弹窗效果
  • 30天自制操作系统-2
  • echarts花样作死的坑
  • macOS 中 shell 创建文件夹及文件并 VS Code 打开
  • miaov-React 最佳入门
  • MySQL Access denied for user 'root'@'localhost' 解决方法
  • pdf文件如何在线转换为jpg图片
  • vue2.0一起在懵逼的海洋里越陷越深(四)
  • 阿里云前端周刊 - 第 26 期
  • 大型网站性能监测、分析与优化常见问题QA
  • 二维平面内的碰撞检测【一】
  • 分享一个自己写的基于canvas的原生js图片爆炸插件
  • 好的网址,关于.net 4.0 ,vs 2010
  • 如何选择开源的机器学习框架?
  • 协程
  • 鱼骨图 - 如何绘制?
  • 东超科技获得千万级Pre-A轮融资,投资方为中科创星 ...
  • 如何用纯 CSS 创作一个菱形 loader 动画
  • 通过调用文摘列表API获取文摘
  • ​油烟净化器电源安全,保障健康餐饮生活
  • #我与Java虚拟机的故事#连载10: 如何在阿里、腾讯、百度、及字节跳动等公司面试中脱颖而出...
  • (7)STL算法之交换赋值
  • (C#)获取字符编码的类
  • (Redis使用系列) Springboot 在redis中使用BloomFilter布隆过滤器机制 六
  • (八)五种元启发算法(DBO、LO、SWO、COA、LSO、KOA、GRO)求解无人机路径规划MATLAB
  • (附源码)计算机毕业设计ssm高校《大学语文》课程作业在线管理系统
  • (每日持续更新)jdk api之FileFilter基础、应用、实战
  • (区间dp) (经典例题) 石子合并
  • (五)关系数据库标准语言SQL
  • (新)网络工程师考点串讲与真题详解
  • (转)h264中avc和flv数据的解析
  • (轉貼) 蒼井そら挑戰筋肉擂台 (Misc)
  • (自用)learnOpenGL学习总结-高级OpenGL-抗锯齿
  • .NET Core 将实体类转换为 SQL(ORM 映射)
  • .NET Core 通过 Ef Core 操作 Mysql
  • .NET/C# 判断某个类是否是泛型类型或泛型接口的子类型
  • .Net8 Blazor 尝鲜
  • .NETCORE 开发登录接口MFA谷歌多因子身份验证
  • .sh 的运行