日本黄色一级经典视频|伊人久久精品视频|亚洲黄色色周成人视频九九九|av免费网址黄色小短片|黄色Av无码亚洲成年人|亚洲1区2区3区无码|真人黄片免费观看|无码一级小说欧美日免费三级|日韩中文字幕91在线看|精品久久久无码中文字幕边打电话

當前位置:首頁 > 公眾號精選 > 架構(gòu)師社區(qū)
[導讀]閱讀本文大約需要30分鐘。這篇文章干貨很多,希望你可以耐心讀完。??????從這篇文章開始,我將對?Kafka專項知識進行深度剖析,?今天我就來聊聊kafka的存儲系統(tǒng)架構(gòu)設(shè)計,說到存儲系統(tǒng),大家可能對MySQL比較熟悉,也知道MySQL是基于Btree來作為它的索引數(shù)據(jù)結(jié)構(gòu)。?...

閱讀本文大約需要30分鐘。這篇文章干貨很多,希望你可以耐心讀完。

? ? ?

? ? ?從這篇文章開始,我將對?Kafka 專項知識進行深度剖析,?今天我就來聊聊 kafka 的存儲系統(tǒng)架構(gòu)設(shè)計, 說到存儲系統(tǒng),大家可能對 MySQL 比較熟悉,也知道 MySQL 是基于 B tree 來作為它的索引數(shù)據(jù)結(jié)構(gòu)。

? ? ?

? ? ??Kafka 又是基于什么機制來存儲?為什么要設(shè)計成這樣?它解決了什么問題?又是如何解決的?里面又用到了哪些高大上的技術(shù)??

? ? ??

? ? ? 帶著這些疑問,我們就來和你聊一聊 Kafka 存儲架構(gòu)設(shè)計背后的深度思考和實現(xiàn)原理。

? ? ? ?? ?

? ? ??認真讀完這篇文章,我相信你會對 Kafka 存儲架構(gòu),有更加深刻的理解。也能有思路來觸類旁通其他存儲系統(tǒng)的架構(gòu)。

? ? ??

? ? ? ? ? ? ? ? ? ? ? ? ? ? ?? ? ? ? ??? ?

圖1:kafka 存儲架構(gòu)大綱

1kafka 存儲場景剖析


? ? ??在講解 Kafka 的存儲方案之前,我們先來看看 Kafka 官網(wǎng)給的定義:


? ?Apache Kafka is an open-source distributed event streaming platform used by thousands of companies for high-performance data pipelines, streaming analytics, data integration, and mission-critical applications.

? ? ? 翻譯成中文如下:

? ? ? ? ??Apache kafka 是一個開源的分布式事件流處理平臺,由成千上萬的公司用于高性能的數(shù)據(jù)管道流分析、數(shù)據(jù)集成和關(guān)鍵任務(wù)的應(yīng)用程序。

?

? ? ?了解?Kafka 的老司機都知道它是從?Linkedin 內(nèi)部孵化的項目,從一開始,Kafka 就是為了解決大數(shù)據(jù)的實時日志流而生的, 每天要處理的日志量級在千億規(guī)模。對于日志流的特點主要包括 1)、數(shù)據(jù)實時產(chǎn)生 2)、海量數(shù)據(jù)存儲與處理,所以它必然要面臨分布式系統(tǒng)遇到的高并發(fā)、高可用、高性能等三高挑戰(zhàn)。

? ??

? ? ?通過上面的背景可以得出:一切脫離業(yè)務(wù)場景談架構(gòu)設(shè)計都是耍流氓

? ? ?



? ? ?綜上我們看對于 Kafka 的存儲需求來說,要保證以下幾點:


1. 存儲的主要是消息流(可以是簡單的文本格式也可以是其他格式,對于 Broker 存儲來說,它并不關(guān)心數(shù)據(jù)本身)


2. 要支持海量數(shù)據(jù)的高效存儲、高持久化(保證重啟后數(shù)據(jù)不丟失)


3. 要支持海量數(shù)據(jù)的高效檢索(消費的時候可以通過offset或者時間戳高效查詢并處理)


4. 要保證數(shù)據(jù)的安全性和穩(wěn)定性、故障轉(zhuǎn)移容錯性



2kafka 存儲選型


? ? ? 有了上面的場景需求分析后, 我們接下來分析看看 Kafka 到底基于什么機制來存儲的,能否直接用現(xiàn)有我們了解到的關(guān)系型數(shù)據(jù)庫來實現(xiàn)呢?我們接著繼續(xù)深度分析。

? ? ?

1

存儲基本知識


? ? ? 我們先來了解下存儲的基本知識或者常識,?在我們的認知中,對于各個存儲介質(zhì)的速度大體同下圖所示的,層級越高代表速度越快。很顯然,磁盤處于一個比較尷尬的位置,然而,事實上磁盤可以比我們預想的要快,也可能比我們預想的要慢,這完全取決于我們?nèi)绾问褂盟?/span>


? ? ? ? ??? ?

圖2:各存儲介質(zhì)對比分布(來自網(wǎng)絡(luò))? ? ? 關(guān)于磁盤和內(nèi)存的 IO 速度,我們可以從下圖性能測試的結(jié)果看出普通機械磁盤的順序I/O性能指標是53.2M values/s,而內(nèi)存的隨機I/O性能指標是36.7M values/s。由此似乎可以得出結(jié)論:磁盤的順序I/O性能要強于內(nèi)存的隨機I/O性能。


? ? ? ? ? ? ? ? ? ? ? ? ??

圖3:磁盤和內(nèi)存的 IO 速度對比(來自網(wǎng)絡(luò))? ? ? ? ?

? ? ? 另外從整個數(shù)據(jù)讀寫性能方面,有不同的實現(xiàn)方式,要么提高讀速度,要么提高寫速度。


1. 提高讀速度:利用索引,來提高查詢速度,但是有了索引,大量寫操作都會維護索引,那么會降低寫入效率。常見的如關(guān)系型數(shù)據(jù)庫:mysql等


2. 提高寫速度:這種一般是采用日志存儲, 通過順序追加寫的方式來提高寫入速度,因為沒有索引,無法快速查詢,最嚴重的只能一行行遍歷讀取。常見的如大數(shù)據(jù)相關(guān)領(lǐng)域的基本都基于此方式來實現(xiàn)。



2

Kafka 存儲方案剖析


? ? ? ?

? ? ??上面從存儲基礎(chǔ)知識,以及存儲介質(zhì) IO 速度、讀寫性能方面剖析了存儲類系統(tǒng)的實現(xiàn)方式,那么我們來看看 Kafka 的存儲到底該采用哪種方式來實現(xiàn)呢?

??

? ? ?? 對于 Kafka 來說,?它主要用來處理海量數(shù)據(jù)流,這個場景的特點主要包括:


1. 寫操作:寫并發(fā)要求非常高,基本得達到百萬級 TPS,順序追加寫日志即可,無需考慮更新操作


2.?讀操作:相對寫操作來說,比較簡單,只要能按照一定規(guī)則高效查詢即可(offset或者時間戳)


? ? ? ? ?

? ? ? 根據(jù)上面兩點分析,對于寫操作來說,直接采用順序追加寫日志的方式就可以滿足 Kafka 對于百萬TPS寫入效率要求。但是如何解決高效查詢這些日志呢??直接采用 MySQL 的 B tree 數(shù)據(jù)結(jié)構(gòu)存儲是否可以?我們來逐一分析下:

?

? ? ? 如果采用 B tree 索引結(jié)構(gòu)來進行存儲,那么每次寫都要維護索引,還需要有額外空間來存儲索引、更會出現(xiàn)關(guān)系型數(shù)據(jù)庫中經(jīng)常出現(xiàn)的“數(shù)據(jù)頁分裂”等操作,?對于 Kafka 這種高并發(fā)的系統(tǒng)來說,這些設(shè)計都太重了,所以并不適合用。


? ? ??但是在數(shù)據(jù)庫索引中,似乎有一種索引看起來非常適合此場景,即:哈希索引【底層基于Hash Table 實現(xiàn)】,為了提高讀速度, 我們只需要在內(nèi)存中維護一個映射關(guān)系即可,每次根據(jù) Offset 查詢消息的時候,從哈希表中得到偏移量,再去讀文件就可以快速定位到要讀的數(shù)據(jù)位置。但是哈希索引通常是需要常駐內(nèi)存的,對于Kafka 每秒寫入幾百萬消息數(shù)據(jù)來說,是非常不現(xiàn)實的,很容易將內(nèi)存撐爆, 造成 oom。


? ? ??這時候我們可以設(shè)想把消息的 Offset 設(shè)計成一個有序的字段,這樣消息在日志文件中也就有序存放了,也不需要額外引入哈希表結(jié)構(gòu),?可以直接將消息劃分成若干個塊,對于每個塊,我們只需要索引當前塊的第一條消息的 Offset ,這個是不是有點二分查找算法的意思。即先根據(jù) Offset 大小找到對應(yīng)的塊,?然后再從塊中順序查找。如下圖所示:



圖4:kafka 稀疏索引查詢示意圖? ? ? 這樣就可以快速定位到要查找的消息的位置了,在 Kafka 中,我們將這種索引結(jié)構(gòu)叫做 “稀疏索引”。


? ? ? ? ? ??



3
kafka 存儲架構(gòu)設(shè)計


? ? ? 上面從 Kafka 誕生背景、?存儲場景分析、存儲介質(zhì) IO 對比、以及 Kafka 存儲方案選型等幾個方面進行深度剖析,?得出了 Kafka 最終的存儲實現(xiàn)方案,?即基于順序追加寫日志 ?稀疏哈希索引。

? ??

? ? ??接下來我們來看看 Kafka 日志存儲結(jié)構(gòu):


??

圖5:kafka日志存儲結(jié)構(gòu)?? ? ?從上圖可以看出來,Kafka 是基于「主題 ?分區(qū) 副本 分段 索引的結(jié)構(gòu):
1.? kafka 中消息是以主題 Topic 為基本單位進行歸類的,這里的 Topic 是邏輯上的概念,實際上在磁盤存儲是根據(jù)分區(qū) Partition?存儲的, 即每個 Topic 被分成多個 Partition,分區(qū) Partition?的數(shù)量可以在主題 Topic 創(chuàng)建的時候進行指定。


2. ?Partition 分區(qū)主要是為了解決 Kafka 存儲的水平擴展問題而設(shè)計的, 如果一個 Topic 的所有消息都只存儲到一個 Kafka Broker上的話,?對于 Kafka 每秒寫入幾百萬消息的高并發(fā)系統(tǒng)來說,這個 Broker 肯定會出現(xiàn)瓶頸, 故障時候不好進行恢復,所以 Kafka 將 Topic 的消息劃分成多個 Partition,?然后均衡的分布到整個 Kafka Broker 集群中。


3.??Partition?分區(qū)內(nèi)每條消息都會被分配一個唯一的消息 id,即我們通常所說的 偏移量 Offset, ?因此 kafka 只能保證每個分區(qū)內(nèi)部有序性,并不能保證全局有序性。


4.??然后每個 Partition 分區(qū)又被劃分成了多個 LogSegment,這是為了防止 Log 日志過大,Kafka 又引入了日志分段(LogSegment)的概念,將 Log 切分為多個 LogSegement,相當于一個巨型文件被平均分割為一些相對較小的文件,這樣也便于消息的查找、維護和清理。這樣在做歷史數(shù)據(jù)清理的時候,直接刪除舊的?LogSegement?文件就可以了。


4.? Log 日志在物理上只是以文件夾的形式存儲,而每個 LogSegement 對應(yīng)磁盤上的一個日志文件和兩個索引文件,以及可能的其他文件(比如以".snapshot"為后綴的快照索引文件等)


? ? ?也可以直接看之前寫的??Kafka 基礎(chǔ)入門篇? 中的存儲機制部分,也有詳細的說明。



4kafka 日志系統(tǒng)架構(gòu)設(shè)計


? ? ? 了解了 Kafka 存儲選型和存儲架構(gòu)設(shè)計后, 我們接下來再深度剖析下 Kafka 日志系統(tǒng)的架構(gòu)設(shè)計。


? ? ? ?根據(jù)上面的存儲架構(gòu)剖析,我們知道 kafka?消息是按主題 Topic 為基礎(chǔ)單位歸類的,各個 Topic 在邏輯上是獨立的,每個 Topic 又可以分為一個或者多個 Partition,每條消息在發(fā)送的時候會根據(jù)分區(qū)規(guī)則被追加到指定的分區(qū)中,如下圖所示:


? ? ? ? ??? ?

圖6:4個分區(qū)的主題邏輯結(jié)構(gòu)圖1

日志目錄布局


? ? ? ?那么 Kafka 消息寫入到磁盤的日志目錄布局是怎樣的?接觸過 Kafka 的老司機一般都知道?Log 對應(yīng)了一個命名為-的文件夾。舉個例子,假設(shè)現(xiàn)在有一個名為“topic-order”的 Topic,該 Topic 中有4個 Partition,那么在實際物理存儲上表現(xiàn)為“topic-order-0”、“topic-order-1”、“topic-order-2”、“topic-order-3” 這4個文件夾。


? ? ??看上圖我們知道首先向 Log 中寫入消息是順序?qū)懭氲摹?/span>但是只有最后一個 LogSegement 才能執(zhí)行寫入操作,之前的所有 LogSegement 都不能執(zhí)行寫入操作。為了更好理解這個概念,我們將最后一個 LogSegement 稱為"activeSegement",即表示當前活躍的日志分段。隨著消息的不斷寫入,當 activeSegement 滿足一定的條件時,就需要創(chuàng)建新的 activeSegement,之后再追加的消息會寫入新的 activeSegement。

? ? ?

? ? ? ? ? ? ?

圖7:activeSegment示意圖

? ? ? ?為了更高效的進行消息檢索,每個 LogSegment 中的日志文件(以“.log”為文件后綴)都有對應(yīng)的幾個索引文件:偏移量索引文件(以“.index”為文件后綴)、時間戳索引文件(以“.timeindex”為文件后綴)、快照索引文件 (以“.snapshot”為文件后綴)。其中每個 LogSegment 都有一個 Offset 來作為基準偏移量(baseOffset),用來表示當前 LogSegment 中第一條消息的 Offset。偏移量是一個64位的 Long 長整型數(shù),日志文件和這幾個索引文件都是根據(jù)基準偏移量(baseOffset)命名的,名稱固定為20位數(shù)字,沒有達到的位數(shù)前面用0填充。比如第一個 LogSegment 的基準偏移量為0,對應(yīng)的日志文件為00000000000000000000.log。


? ? ?我們來舉例說明,向主題topic-order中寫入一定量的消息,某一時刻topic-order-0目錄中的布局如下所示:


? ? ? ? ??? ?

圖8:log 目錄布局示意圖? ? ? ?

? ? ? ? 上面例子中?LogSegment 對應(yīng)的基準位移是12768089,也說明了當前?LogSegment 中的第一條消息的偏移量為12768089,同時可以說明當前?LogSegment 中共有12768089條消息(偏移量從0至12768089的消息)。


注意每個 LogSegment 中不只包含“.log”、“.index”、“.timeindex”這幾種文件,還可能包含“.snapshot”、“.txnindex”、“l(fā)eader-epoch-checkpoint”等文件, 以及 “.deleted”、“.cleaned”、“.swap”等臨時文件。


??? ? ?另外 消費者消費的時候,會將提交的位移保存在 Kafka 內(nèi)部的主題__consumer_offsets中,對它不了解的可以直接查看之前寫的??聊聊 Kafka Consumer 那點事?中的位移提交部分,下面我們來看一個整體的日志目錄結(jié)構(gòu)圖:


? ? ? ? ? ? ?

圖9:log 整體目錄布局示意圖

2

日志格式演變


? ? ??對于一個成熟的消息中間件來說,日志格式不僅影響功能的擴展,還關(guān)乎性能維度的優(yōu)化。所以隨著 Kafka 的迅猛發(fā)展,其日志格式也在不斷升級改進中,Kafka 的日志格式總共經(jīng)歷了3個大版本:V0,V1和V2版本。

? ??

? ? ? 我們知道在 Kafka Partition 分區(qū)內(nèi)部都是由每一條消息進行組成,如果日志格式設(shè)計得不夠精巧,那么其功能和性能都會大打折扣。

? ? ??

? ? ??

V0 版本


? ? ??在 Kafka 0.10.0 之前的版本都是采用這個版本的日志格式的。在這個版本中,每條消息對應(yīng)一個 Offset 和 message size。Offset 用來表示它在 Partition分區(qū)中的偏移量。message size 表示消息的大小。兩者合起來總共12B,被稱為日志頭部。日志頭部跟 Record 整體被看作為一條消息。如下圖所示:


? ? ? ? ? ? ?

圖10:V0 版本日志格式示意圖

1. crc32(4B):crc32校驗值。校驗范圍為magic至value之間。


2. magic(1B):日志格式版本號,此版本的magic值為0。


3. attributes(1B):消息的屬性。總共占1個字節(jié),低3位表示壓縮類型:0? ? ? 表示NONE、1表示GZIP、2表示SNAPPY、3表示LZ4(LZ4自Kafka 0.9.x ?? ? 版本引入),其余位保留。


4. key length(4B):表示消息的key的長度。如果為-1,則沒有設(shè)置key。


5. key:可選,如果沒有key則無此字段。


6. value length(4B):實際消息體的長度。如果為-1,則消息為空。


7. value:消息體。


? ? ?

? ? ? 從上圖可以看出,V0 版本的消息最小為 14 字節(jié),小于 14 字節(jié)的消息會被 Kafka 認為是非法消息。


? ? ? 下面我來舉個例子來計算一條消息的具體大小,消息的各個字段值依次如下:


  • CRC:對消息進行 CRC 計算后的值;
  • magic:0;
  • attribute:0x00(未使用壓縮);
  • key 長度:5;
  • key:hello;
  • value 長度:5;
  • value:world。
? ? 那么該條消息長度為:4 1 1 4 5 4 5 = 24 字節(jié)。



V1?版本

? ? ? ?隨著 Kafka 版本的不斷迭代發(fā)展,?用戶發(fā)現(xiàn) V0 版本的日志格式由于沒有保存時間信息導致 Kafka 無法根據(jù)消息的具體時間進行判斷,在進行清理日志的時候只能使用日志文件的修改時間導致可能會被誤刪。


? ? ? ?從 V0.10.0 開始到 V0.11.0 版本之間所使用的日志格式版本為 V1,比 V0 版本多了一個 timestamp 字段,表示消息的時間戳。如下圖所示:


? ? ? ? ? ? ?

圖11:V1 版本日志格式示意圖

V1 版本比 V0 版本多一個 8B 的 timestamp 字段;


那么 timestamp 字段作用:

? ? 對內(nèi):會影響日志保存、切分策略;

? ? 對外:影響消息審計、端到端延遲等功能擴展


? ??

? ? ? ?從上圖可以看出,V1 版本的消息最小為 22 字節(jié),小于 22 字節(jié)的消息會被 Kafka 認為是非法消息。

? ? ?

? ? ? ?總的來說比 V0 版本的消息大了 8 字節(jié),如果還是按照 V0 版本示例那條消息計算,則在 V1 版本中它的總字節(jié)數(shù)為:24 8 = 32 字節(jié)。



V0、V1?版本的設(shè)計缺陷


? ? ? ?通過上面我們分析畫出的 V0、V1 版本日志格式,我們會發(fā)現(xiàn)它們在設(shè)計上的一定的缺陷,比如:


1. ?空間使用率低:無論 key 或 value 是否存在,都需要一個固定大小 4 字節(jié)去保存它們的長度信息,當消息足夠多時,會浪費非常多的存儲空間。


2. ?消息長度沒有保存:需要實時計算得出每條消息的總大小,效率低下。
3.??只保存最新消息位移。
4. ?冗余的 CRC 校驗:即使是批次發(fā)送消息,每條消息也需要單獨保存 CRC。


V2?版本


? ? ? ?針對 上面我們分析的 關(guān)于 V0、V1 版本日志格式的缺陷,Kafka 在 0.11.0.0 版本對日志格式進行了大幅度重構(gòu),使用可變長度類型解決了空間使用率低的問題,增加了消息總長度字段,使用增量的形式保存時間戳和位移,并且把一些字段統(tǒng)一抽取到 RecordBatch 中。


? ? ?

? ? ? ? ? ? ?

圖12:V2 版本日志格式示意圖? ? ? ??

? ? ? ? 從以上圖可以看出,V2 版本的消息批次(RecordBatch),相比 V0、V1 版本主要有以下變動:


1.? 將?CRC 值從消息中移除,被抽取到消息批次中。


2.??增加了 procuder id、producer epoch、序列號等信息主要是為了支持冪等性以及事務(wù)消息的。


3. ?使用增量形式來保存時間戳和位移。


4.??消息批次最小為 61 字節(jié),比 V0、V1 版本要大很多,但是在批量消息發(fā)送場景下,會提供發(fā)送效率,降低使用空間。


? ? ?

? ? ? ?綜上可以看出 V2 版本日志格式主要是通過可變長度提高了消息格式的空間使用率,并將某些字段抽取到消息批次(RecordBatch)中,同時消息批次可以存放多條消息,從而在批量發(fā)送消息時,可以大幅度地節(jié)省了磁盤空間。



3

日志清理機制



? ? ? ?Kafka 將消息存儲到磁盤中,隨著寫入數(shù)據(jù)不斷增加,磁盤占用空間越來越大,為了控制占用空間就需要對消息做一定的清理操作。從上面 Kafka 存儲日志結(jié)構(gòu)分析中每一個分區(qū)副本(Replica)都對應(yīng)一個 Log,而 Log 又可以分為多個日志分段(LogSegment),這樣就便于 Kafka 對日志的清理操作。


? ? ? ?Kafka提供了兩種日志清理策略:


1.??日志刪除(Log Retention):按照一定的保留策略直接刪除不符合條件的日志分段(LogSegment)。


2. ?日志壓縮(Log Compaction):針對每個消息的key進行整合,對于有相同key的不同value值,只保留最后一個版本。


? ? ? ?這里我們可以通過 Kafka Broker 端參數(shù) log.cleanup.policy 來設(shè)置日志清理策略,默認值為 “delete”,即采用日志刪除的清理策略。如果要采用日志壓縮的清理策略,就需要將 log.cleanup.policy 設(shè)置為 “compact”,這樣還不夠,必須還要將log.cleaner.enable(默認值為 true)設(shè)為 true。


? ? ? ?如果想要同時支持兩種清理策略, 可以直接將 log.cleanup.policy 參數(shù)設(shè)置為“delete,compact”。

? ? ? ? ? ? ? ??

3.1?日志刪除

? ? ???

? ? ? ??Kafka 的日志管理器(LogManager)中有一個專門的日志清理任務(wù)通過周期性檢測和刪除不符合條件的日志分段文件(LogSegment),這里我們可以通過?Kafka Broker 端的參數(shù)?log.retention.check.interval.ms 來配置,默認值為300000,即5分鐘。

? ? ??

? ? ?? 在 Kafka 中一共有3種保留策略:


基于時間策略? ? ??

? ? ? ?日志刪除任務(wù)會周期檢查當前日志文件中是否有保留時間超過設(shè)定的閾值(retentionMs)?來尋找可刪除的日志段文件集合(deletableSegments)。


? ? ??其中retentionMs可以通過?Kafka Broker 端的這幾個參數(shù)的大小判斷的

log.retention.ms > log.retention.minutes > log.retention.hours優(yōu)先級來設(shè)置,默認情況只會配置 log.retention.hours 參數(shù),值為168即為7天。


? ? ? ?這里需要注意:刪除過期的日志段文件,并不是簡單的根據(jù)該日志段文件的修改時間計算的,而是要根據(jù)該日志段中最大的時間戳 largestTimeStamp 來計算的,首先要查詢該日志分段所對應(yīng)的時間戳索引文件,查找該時間戳索引文件的最后一條索引數(shù)據(jù),如果時間戳值大于0,則取值,否則才會使用最近修改時間(lastModifiedTime)。

? ? ? ?

? ? ?【刪除步驟】:

? ? ? 1. ?首先從 Log 對象所維護的日志段的跳躍表中移除要刪除的日志段,用來確保已經(jīng)沒有線程來讀取這些日志段。


? ? ? 2. ?將日志段所對應(yīng)的所有文件,包括索引文件都添加上“.deleted”的后綴。

? ??

? ? ? 3. ?最后交給一個以“delete-file”命名的延遲任務(wù)來刪除這些以“ .deleted ”為后綴的文件。默認1分鐘執(zhí)行一次, 可以通過 file.delete.delay.ms 來配置。



? ? ? ? ? ? ?

圖13:基于時間保留策略示意圖

基于日志大小策略? ? ?

? ? ? 日志刪除任務(wù)會周期檢查當前日志大小是否超過設(shè)定的閾值(retentionSize)?來尋找可刪除的日志段文件集合(deletableSegments)


? ? 其中?retentionSize 這里我們可以通過?Kafka Broker 端的參數(shù)log.retention.bytes來設(shè)置, 默認值為-1,即無窮大。


? ? ?

? ? ? ?這里需要注意的是 log.retention.bytes 設(shè)置的是Log中所有日志文件的大小,而不是單個日志段的大小。單個日志段可以通過參數(shù) log.segment.bytes 來設(shè)置,默認大小為1G。



? ? ? 【刪除步驟】:

? ? ? ?1. ?首先計算日志文件的總大小Size和retentionSize的差值,即需要刪除的日志總大小。


? ? ? ? 2.? 然后從日志文件中的第一個日志段開始進行查找可刪除的日志段的文件集合(deletableSegments)


? ? ? ? 3. ?找到后就可以進行刪除操作了。

? ? ? ? ?

? ??

圖14:基于日志大小保留策略示意圖

基于日志起始偏移量? ? ??

? ? ? 該策略判斷依據(jù)是日志段的下一個日志段的起始偏移量 baseOffset 是否小于等于 logStartOffset,如果是,則可以刪除此日志分段。

? ? ??

? ? ? 【如下圖所示 刪除步驟】:

? ? ? ? 1. ? 首先從頭開始遍歷每個日志段,日志段 1 的下一個日志分段的起始偏移量為20,小于logStartOffset的大小,將日志段1加入deletableSegments。

? ? ?

? ? ? ?2. ?日志段2的下一個日志偏移量的起始偏移量為35,也小于logStartOffset的大小,將日志分段2頁加入deletableSegments。


? ? ? ?3. ?日志段3的下一個日志偏移量的起始偏移量為50,也小于logStartOffset的大小,將日志分段3頁加入deletableSegments。


? ? ? ?4. ?日志段4的下一個日志偏移量通過對比后,在logStartOffset的右側(cè),那么從日志段4開始的所有日志段都不會加入deletableSegments。


? ? ? ?5. ?待收集完所有的可刪除的日志集合后就可以直接刪除了。

? ? ??

? ??

圖15:基于日志起始偏移量保留策略示意圖? ??

5.2?日志壓縮

? ? ??
? ? ??日志壓縮 Log Compaction 對于有相同key的不同value值,只保留最后一個版本。如果應(yīng)用只關(guān)心 key 對應(yīng)的最新 value 值,則可以開啟 Kafka 相應(yīng)的日志清理功能,Kafka會定期將相同 key 的消息進行合并,只保留最新的 value 值。

? ? ?

? ? ??Log Compaction 可以類比 Redis 中的 RDB 的持久化模式。我們可以想象下,如果每次消息變更都存 Kafka,在某一時刻, Kafka 異常崩潰后,如果想快速恢復,可以直接使用日志壓縮策略, 這樣在恢復的時候只需要恢復最新的數(shù)據(jù)即可,這樣可以加快恢復速度。

? ? ? ?

? ??

圖16:日志壓縮策略示意圖4

磁盤數(shù)據(jù)存儲


? ? ? ?我們知道 Kafka 是依賴文件系統(tǒng)來存儲和緩存消息,以及典型的順序追加寫日志操作,另外它使用操作系統(tǒng)的 PageCache 來減少對磁盤 I/O 操作,即將磁盤的數(shù)據(jù)緩存到內(nèi)存中,把對磁盤的訪問轉(zhuǎn)變?yōu)閷?nèi)存的訪問。

? ? ??

? ? ? 在 Kafka 中,大量使用了 PageCache, 這也是 Kafka 能實現(xiàn)高吞吐的重要因素之一,?當一個進程準備讀取磁盤上的文件內(nèi)容時,操作系統(tǒng)會先查看待讀取的數(shù)據(jù)頁是否在 PageCache 中,如果命中則直接返回數(shù)據(jù),從而避免了對磁盤的 I/O 操作;如果沒有命中,操作系統(tǒng)則會向磁盤發(fā)起讀取請求并將讀取的數(shù)據(jù)頁存入 PageCache 中,之后再將數(shù)據(jù)返回給進程。同樣,如果一個進程需要將數(shù)據(jù)寫入磁盤,那么操作系統(tǒng)也會檢查數(shù)據(jù)頁是否在頁緩存中,如果不存在,則 PageCache 中添加相應(yīng)的數(shù)據(jù)頁,最后將數(shù)據(jù)寫入對應(yīng)的數(shù)據(jù)頁。被修改過后的數(shù)據(jù)頁也就變成了臟頁,操作系統(tǒng)會在合適的時間把臟頁中的數(shù)據(jù)寫入磁盤,以保持數(shù)據(jù)的一致性。


? ? ? 除了消息順序追加寫日志、PageCache以外, kafka?還使用了零拷貝(Zero-Copy)技術(shù)來進一步提升系統(tǒng)性能, 如下圖所示:


? ? ? ? ? ? ?

圖17:kafka 零拷貝示意圖

? ? ? ?這里也可以查看之前寫的???Kafka 三高架構(gòu)設(shè)計剖析? 中高性能部分。

? ? ? ?

? ? ? ? 消息從生產(chǎn)到寫入磁盤的整體過程如下圖所示:

? ??

圖18:日志消息寫入磁盤過程示意圖


5總結(jié)

? ? ? ? 本文從 Kafka 存儲的場景剖析出發(fā)、kafka 存儲選型分析對比、再到?Kafka 存儲架構(gòu)設(shè)計剖析、以及 Kafka 日志系統(tǒng)架構(gòu)設(shè)計細節(jié)深度剖析,一步步帶你揭開了 Kafka 存儲架構(gòu)的神秘面紗。

本站聲明: 本文章由作者或相關(guān)機構(gòu)授權(quán)發(fā)布,目的在于傳遞更多信息,并不代表本站贊同其觀點,本站亦不保證或承諾內(nèi)容真實性等。需要轉(zhuǎn)載請聯(lián)系該專欄作者,如若文章內(nèi)容侵犯您的權(quán)益,請及時聯(lián)系本站刪除。
換一批
延伸閱讀

電感是導線內(nèi)通過交流電流時,在導線的內(nèi)部及其周圍產(chǎn)生交變磁通,導線的磁通量與生產(chǎn)此磁通的電流之比。電感器也叫電感線圈,是利用電磁感應(yīng)原理制成的,由導線在絕緣管上單層或多層繞制而成的,導線彼此互相絕緣,而絕緣管可以是空心的...

關(guān)鍵字: 電感 磁通量 電感器

根據(jù)交通運輸部水運科學研究院提出的智慧港口的概念,智慧港口是利用新一代信息技術(shù),將港口相關(guān)業(yè)務(wù)和管理創(chuàng)新深度融合,使港口更加集約、高效、便捷、安全、綠色,創(chuàng)新港口發(fā)展模式,實現(xiàn)港口科學可持續(xù)發(fā)展。

關(guān)鍵字: 智慧港口 信息技術(shù) 業(yè)務(wù)

近年來,世界主要汽車大國紛紛加強新能源汽車戰(zhàn)略謀劃、強化政策支持、完善產(chǎn)業(yè)布局,新能源汽車已成為全球汽車產(chǎn)業(yè)轉(zhuǎn)型發(fā)展的主要方向和促進世界經(jīng)濟持續(xù)增長的重要引擎。2021年,全國新能源汽車實現(xiàn)產(chǎn)量354.5萬輛,銷量352...

關(guān)鍵字: 新能源 汽車 引擎

2007-2021年,全球針狀焦行業(yè)專利申請人數(shù)量及專利申請量總體呈現(xiàn)增長態(tài)勢。雖然2021年全球針狀焦行業(yè)專利申請人數(shù)量及專利申請量有所下降,但是這兩大指標數(shù)量仍較多。整體來看,全球針狀焦技術(shù)處于成長期。

關(guān)鍵字: 針狀焦行業(yè) 專利申請人 增長態(tài)勢

按企業(yè)主營業(yè)務(wù)類型分,我國智能家居行業(yè)競爭派系可分為傳統(tǒng)家電企業(yè)、互聯(lián)網(wǎng)企業(yè)以及其他企業(yè)三派。傳統(tǒng)家電企業(yè)代表有海爾智家、美的集團、格力電器等,具有供應(yīng)鏈和銷售渠道,制造能力和品牌優(yōu)勢突出;互聯(lián)網(wǎng)企業(yè)代表有小米集團、百度...

關(guān)鍵字: 智能家居 互聯(lián)網(wǎng)企業(yè) 供應(yīng)鏈

軍工電子是集紅外技術(shù)、激光技術(shù)、半導體及嵌入式技術(shù)與虛擬仿真技術(shù)為一體的綜合性軍工技術(shù)體系,是國防信息化建設(shè)的基石。軍工電子行業(yè)包含在軍工行業(yè)內(nèi),專注于軍工行業(yè)電子產(chǎn)品布局。根據(jù)其軍工產(chǎn)品的不同可分為衛(wèi)星導航、通信指揮、...

關(guān)鍵字: 軍工電子 嵌入式技術(shù) 信息化建設(shè)

我國汽車零配件行業(yè)細分種類眾多,從汽車零配件主要產(chǎn)品來看,發(fā)動機系統(tǒng)行業(yè)內(nèi)有濰柴動力、華域汽車等主要從業(yè)企業(yè);在車身零部件領(lǐng)域內(nèi),福耀玻璃、中策橡膠具有一定的規(guī)模優(yōu)勢;行駛系統(tǒng)領(lǐng)域內(nèi)有中策橡膠提供的輪胎以及華為等企業(yè)提供...

關(guān)鍵字: 汽車零配件 發(fā)動機 行駛系統(tǒng)

茶飲料是指以茶葉或茶葉的水提取液、濃縮液、茶粉(包括速溶茶粉、研磨茶粉)或直接以茶的鮮葉為原料添加或不添加食品原輔料和(或)食品添加劑,經(jīng)加工制成的液體飲料。根據(jù)國家標準《茶飲料(GB/T 21733-2008)》的規(guī)定...

關(guān)鍵字: 茶飲料 茶葉的水 食品添加劑

全球液壓行業(yè)專利技術(shù)在21世紀初得到初步發(fā)展,這一時期液壓專利申請人數(shù)量和申請量處于較低水平。2011-2012年,液壓行業(yè)專利技術(shù)的發(fā)展總體處于成長期,2012年以后中全球液壓行業(yè)專利技術(shù)申請量或申請人數(shù)量整體處于波動...

關(guān)鍵字: 液壓行業(yè) 專利授權(quán) 技術(shù)類型

從上市企業(yè)的總市值情況來看,2022年7月28日,中芯國際、紫光國微和韋爾股份總市值遙遙領(lǐng)先,中芯國際總市值達到3238.21億元,紫光國微總市值達到1358.77億元,韋爾股份總市值達到1277.07億元;其次是兆易創(chuàng)...

關(guān)鍵字: 上市企業(yè) 集成電路 行業(yè)

架構(gòu)師社區(qū)

1736 篇文章

關(guān)注

發(fā)布文章

編輯精選

技術(shù)子站

關(guān)閉