Chinaunix首页 | 论坛 | 博客
  • 博客访问: 907381
  • 博文数量: 354
  • 博客积分: 0
  • 博客等级: 民兵
  • 技术积分: 3730
  • 用 户 组: 普通用户
  • 注册时间: 2017-08-21 18:43
文章分类

全部博文(354)

文章存档

2019年(126)

2018年(223)

2017年(5)

我的朋友

分类: 大数据

2018-05-08 16:24:00

  kafka通过topic来分主题存放数据,主题内有分区,分区可以有多个副本,分区的内部还细分为若干个segment。

  所谓的分区其实就是在kafka对应存储目录下创建的文件夹,文件夹的名字是主题名加上分区编号,编号从0开始。

  一、segment

  所谓的segment其实就是在分区对应的文件夹下产生的文件。

  一个分区会被划分成大小相等的若干segment,这样一方面保证了分区的数据被划分到多个文件中保证不会产生体积过大的文件;另一方面可以基于这些segment文件进行历史数据的删除,提高效率。

  一个segment又由一个.log和一个.index文件组成。

  1..log

  .log文件为数据文件用来存放数据分段数据。

  2..index

  .index为索引文件保存对对应的.log文件的索引信息。

  在.index文件中,保存了对对应.log文件的索引信息,通过查找.index文件可以获知每个存储在当前segment中的offset在.log文件中的开始位置,而每条日志有其固定格式,保存了包括offset编号、日志长度、key的长度等相关信息,通过这个固定格式中的数据可以确定出当前offset的结束位置,从而对数据进行读取。

  3..命名规则

  这两个文件的命名规则为:

  partition全局的第一个segment从0开始,后续每个segment文件名为上一个segment文件最后一条消息的offset值,数值大小为64位,20位数字字符长度,没有数字用0填充。

  二、读取数据

  开始读取指定分区中某个offset对应的数据时,先根据offset和当前分区的所有segment的名称做比较,确定出数据在哪个segment中,再查找该segment的索引文件,确定当前offset在数据文件中的开始位置,最后从该位置开始读取数据文件,在根据数据格式判断结果,获取完整数据。

阅读(3089) | 评论(1) | 转发(0) |
给主人留下些什么吧!~~

调皮仔2018-05-18 17:09:56

谢谢分享,推荐个视频教程:大数据日志传输之Kafka实战
http://www.roncoo.com/course/view/a398edee6308413f904f9c82b1dfc122