kafka文件的存储机制原理
这篇文章主要介绍“kafka文件的存储机制原理”,在日常操作中,相信很多人在kafka文件的存储机制原理问题上存在疑惑,小编查阅了各式资料,整理出简单好用的操作方法,希望对大家解答”kafka文件的存储机制原理”的疑惑有所帮助!接下来,请跟着小编一起来学习吧!
这篇文章主要介绍“kafka文件的存储机制原理”,在日常操作中,相信很多人在kafka文件的存储机制原理问题上存在疑惑,小编查阅了各式资料,整理出简单好用的操作方法,希望对大家解答”kafka文件的存储机制原理”的疑惑有所帮助!接下来,请跟着小编一起来学习吧!
创新互联是专业的白塔网站建设公司,白塔接单;提供做网站、网站制作,网页设计,网站设计,建网站,PHP网站建设等专业做网站服务;采用PHP框架,可快速的进行白塔网站开发网页制作和功能扩展;专业做搜索引擎喜爱的网站,专业的做网站团队,希望更多企业前来合作!
每一个topic,分为多个partition,每一个partition在文件系统当中是一个文件夹。
而每一个partition当中,又分成了多个segment,每个segment,包括了2个文件,.index文件和.log文件,分别是消息的索引信息和消息内容。而文件的名字形如下面的格式
00000000000000000000.log
00000000000000000000.index
0000000000000999.log
0000000000000999.index
文件名的就是消息在本分区当中的序号,以上面的文件为例,第一个segment当中存储了0-999的消息,而第二个segment从1000开始。
需要注意的是segment的划分规则,目前据我的研究,是综合了2方面的因素,一个是设定的segment的大小,满了自然会再来一个segment;第二个因素是时间的因素,比如某个topic长时间没有消息写入,那么在有新消息进来的时候,很可能会重新建一个segment,这样做的目的是为了方便在消息失效的时候,针对整个segment进行删除。
index文件当中,包含了2部分内容,分别是消息的在本segment当中的编号和物理offset。这里需要注意的是,在index文件当中,并不是存储了每一条消息的的索引信息,而是采用了 稀疏索引的策略,也就是隔几个存一个索引。
在查找一条消息的时候,首先是根据segment的名字和输入的消息编号,查找所在的segment,之后在根据index文件找到消息的具体位置。
写过程:
消息从java堆转入page cache(即物理内存)
由异步线程刷盘,消息从page cache刷入磁盘
读过程:
消息直接从page cache转入socket发送出去
当从page cache没有找到相应数据时,此时会产生磁盘IO,从磁 盘Load消息到page cache,然后直接从socket发出去
存储设计的优点:
Kafka把topic中一个parition大文件分成多个小文件段,通过多个小文件段,就容易定期清除或删除已经消费完文件,减少磁盘占用。
通过索引信息可以快速定位message
通过index元数据全部映射到memory,可以避免segment file的IO磁盘操作
通过索引文件稀疏存储,可以大幅降低index文件元数据占用空间大小
当前名称:kafka文件的存储机制原理
文章链接:http://scyanting.com/article/epeoph.html