您好,登錄后才能下訂單哦!
這篇文章主要講解了MYSQL中如何實現binlog優化,內容清晰明了,對此有興趣的小伙伴可以學習一下,相信大家閱讀完之后會有幫助。
問題
問題1:如何解決事務提交時flush redo log帶來的性能損失
WAL是實現事務持久性(D)的一個常用技術,基本原理是將事務的修改記錄redo log。redo log順序追加寫入。事務提交時,只需要保證事務的redo log落盤即可,通過redo log的順序寫代替頁面的隨機寫提升數據庫系統的性能。但是,該方案必須要求每個事務提交時都將其生成的redo log進行一次刷盤,效率不高。
問題2:binlog和引擎層事務提交的順序問題
對于單個事務而言,日志寫入順序是先redo log再binlog,只要維持該順序即可維持正確性。但對于一個高并發的數據庫系統而言,每時每刻可能都會存在眾多并發執行的事務。我們還需要通過一定的手段來維護Server層binlog和引擎層事務提交的順序一致性。
維護這種順序一致性其實是為了保證備份工具Xtrabackup的正確性。
當 binlog 作為協調者,如果其中記錄的事務順序和存儲引擎層記錄的順序不一樣的話,備份工具(Innodb Hot Backup)拿到備份集的位點可能會存在空洞。因為備份工具會拷貝 redo 日志,在 redo 的頭部會記錄最后一個提交的事務對應的 binlog 位點,備份集建立之后就會根據這個位點繼續從主庫 dump binlog。
假如有三個事務 T1,T2,T3 已經 fsync 到 binlog 文件中,三個事務的在文件中的位點分別是 100,200,300,但是在引擎層的只有 T1 和 T3 完成了 commit 并記錄到 redo 中,最后一個 commit 的事務 T3 位點是 300。此時通過備份工具拿到的數據就是這樣的狀態,備份集啟動的時候會走崩潰恢復的流程,prepare 事務被回滾(備份集不會備份 binlog 文件,對應上個小節 xid 集合為空),自位點 300 繼續從主庫同步binlog并apply,導致 T2 在備庫就丟失了。
因此,我們必須設計一種機制來保證Server層的binlog寫入順序和存儲引擎層的事務提交順序保持一致。
問題3:同時寫redo和binlog帶來的性能下降
問題1中提到每次的事務提交會帶來性能問題,而這個問題在引入binlog后會變得更加嚴重。每個事務提交都會增加一次文件IO,且需要刷盤。如果系統并發比較高,那么這些IO將會成為拖慢整體性能的瓶頸。
解決方案
問題1:Redo log組提交技術
redo組提交技術思想很簡單:通過將多個事務redo log的刷盤動作合并,減少刷盤次數。Innodb的日志系統里面,每條redo log都有一個LSN(Log Sequence Number)。事務將日志拷貝到redo log buffer時,都會獲取當前最大的LSN,且LSN單調遞增,因此可以保證不同事務的LSN不會重復。那么假設三個事務Trx1、Trx2、Trx3的日志的最大LSN分別為LSN1、LSN2、LSN3(LSN1 < LSN2 < LSN3),它們同時進行提交,那么如果trx3率先執行提交,它會要求刷盤至LSN3處,這樣就順便將Trx1、Trx2的redo log也刷了,Trx1和Trx2會判斷自己的LSN小于當前已落盤的最大LSN,就無需再次刷盤。
問題2:內部XA事務
開啟binlog情況下,引入內部XA事務來協調上層和存儲引擎層,具體來說,在事務提交時引入兩個階段:
prepare:將redo log刷盤操作以確保data頁和undo頁的更新已經刷新到磁盤,設置事務狀態為PREPARE狀態;
commit:1). 寫binlog并刷盤,2).調用引擎層事務提交接口。將事務狀態設置為COMMIT。
如此兩階段提交主要是要保證數據庫崩潰時的正確性。因為一旦binlog落盤了,它就可能被下游節點消費。這種事務必須在重啟后被commit而非rollback。而對于binlog未落盤的事務,崩潰恢復時直接回滾。
具體來說,故障恢復時,掃描最后一個binlog文件(在flush階段,如果binlog大小超過閥值,進行rotate binlog文件,會保證該文件記錄的最后一個事務一定被提交),提取其中的xid。重做檢查點以后的redo日志,讀取事務的undo段信息,搜集處于prepare階段的事務列表,將事務的xid與binlog中記錄的xid對比,若存在,則提交,否則就回滾。
MySQL5.6以前,為了保證數據庫binlog的寫入順序和InnoDB層的事務提交順序一致,MySQL數據庫內部使用了prepare_commit_mutex鎖。
具體來說,在兩階段提交引擎層 prepare 的時候加鎖,在引擎層 commit 之后釋放鎖:
innobase_xa_prepare() write() and fsync() binary log innobase_commit()
這樣確實可以保證 binlog 和 innodb 的事務順序一致,但是這把鎖會導致所有的事務串行化執行,且每次提交都會至少調用多次fsync,效率很低。這也是接下來需要探討并解決的一個問題。
問題4
參考redo log優化技術,引入組提交技術來優化binlog的寫入性能。
考慮未優化時事務提交流程:
prepare:該階段刷存儲引擎層(innodb)的redo log并將事務狀態設置為PREPARED(更新undo page上事務狀態),該階段不涉及binlog
commit:寫binlog日志并刷盤,同時引擎層釋放鎖,釋放回滾段、設置事務狀態為COMMITTED等
所謂的組提交技術其本質上是將耗時的commit步驟進行更細粒度的拆分,具體來說:
將步驟2的commit 分為三個階段:
Flush:寫binlog,但不sync
Sync: 調用 fsync 操作將文件落盤
Commit :調用存儲引擎接口提交事務
這里的fsync是耗時操作,因此我們希望能攢足夠多的寫入后才進行一次fsync調用,在這里使用batch技術。其原理是:上述步驟中的每個階段都有一個對應的任務鏈表,每個進入該階段的線程會將自己的任務加入至該鏈表中,鏈表加鎖以保證正確性。第一個加入該鏈表的線程會成為Leader,后續的線程成為Follower。鏈表中的所有任務組成一個Batch,由Leader負責執行,而Follower則等待其任務完成即可。
一旦某階段的鏈表任務執行完成,這些任務會進入下一個階段,同樣加入該階段的任務鏈表,重復上述執行流。
如此設計有以下幾點好處:
除此之外,MYSQL還對prepare階段刷redo log進行了進一步優化。原來的設計是多事務可并發地刷redo log,同樣效率不夠高。可以將prepare階段的redo log刷盤放在commit階段的Flush階段執行。但有個小問題需要說明的是:優化前每個線程各自負責自己的redo log的落盤,且知道需要flush的redo log的lsn,如果改為在Flush階段由其Leader線程統一落盤,此時它不了解每個線程的redo log的lsn,因此它簡單粗暴地flush至log_sys的最大lsn,這就保證了要提交事務的redo log一定可以被落盤。
看完上述內容,是不是對MYSQL中如何實現binlog優化有進一步的了解,如果還想學習更多內容,歡迎關注億速云行業資訊頻道。
免責聲明:本站發布的內容(圖片、視頻和文字)以原創、轉載和分享為主,文章觀點不代表本網站立場,如果涉及侵權請聯系站長郵箱:is@yisu.com進行舉報,并提供相關證據,一經查實,將立刻刪除涉嫌侵權內容。