您好,登錄后才能下訂單哦!
這篇文章給大家介紹如何分析緩存原理與微服務緩存自動管理 ,內容非常詳細,感興趣的小伙伴們可以參考借鑒,希望對大家能有所幫助。
先從一個老生常談的問題開始談起:我們的程序是如何運行起來的?
程序存儲在 disk
中
程序是運行在 RAM
之中,也就是我們所說的 main memory
程序的計算邏輯在 CPU
中執行
來看一個最簡單的例子:a = a + 1
load x:
x0 = x0 + 1
load x0 -> RAM
上面提到了3種存儲介質。我們都知道,三類的讀寫速度和成本成反比,所以我們在克服速度問題上需要引入一個 中間層。這個中間層,需要高速存取的速度,但是成本可接受。于是乎,Cache
被引入
而在計算機系統中,有兩種默認緩存:
CPU 里面的末級緩存,即 LLC
。緩存內存中的數據
內存中的高速頁緩存,即 page cache
。緩存磁盤中的數據
引入 Cache
之后,我們繼續來看看操作緩存會發生什么。因為存在存取速度的差異「而且差異很大」,從而在操作數據時,延遲或程序失敗等都會導致緩存和實際存儲層數據不一致。
我們就以標準的 Cache+DB
來看看經典讀寫策略和應用場景。
先來考慮一種最簡單的業務場景,比如用戶表:userId:用戶id, phone:用戶電話token,avtoar:用戶頭像url
,緩存中我們用 phone
作為key存儲用戶頭像。當用戶修改頭像url該如何做?
更新DB
數據,再更新Cache
數據
更新 DB
數據,再刪除 Cache
數據
首先 變更數據庫 和 變更緩存 是兩個獨立的操作,而我們并沒有對操作做任何的并發控制。那么當兩個線程并發更新它們的時候,就會因為寫入順序的不同造成數據不一致。
所以更好的方案是 2
:
更新數據時不更新緩存,而是直接刪除緩存
后續的請求發現緩存缺失,回去查詢 DB
,并將結果 load cache
這個策略就是我們使用緩存最常見的策略:Cache Aside
。這個策略數據以數據庫中的數據為準,緩存中的數據是按需加載的,分為讀策略和寫策略。
但是可見的問題也就出現了:頻繁的讀寫操作會導致 Cache
反復地替換,緩存命中率降低。當然如果在業務中對命中率有監控報警時,可以考慮以下方案:
更新數據時同時更新緩存,但是在更新緩存前加一個 分布式鎖。這樣同一時間只有一個線程操作緩存,解決了并發問題。同時在后續讀請求中時讀到最新的緩存,解決了不一致的問題。
更新數據時同時更新緩存,但是給緩存一個較短的 TTL
。
當然除了這個策略,在計算機體系還有其他幾種經典的緩存策略,它們也有各自適用的使用場景。
先查詢寫入數據key是否擊中緩存,如果在 -> 更新緩存,同時緩存組件同步數據至DB;不存在,則觸發 Write Miss
。
而一般 Write Miss
有兩種方式:
Write Allocate
:寫時直接分配 Cache line
No-write allocate
:寫時不寫入緩存,直接寫入DB,return
在 Write Through
中,一般采取 No-write allocate
。因為其實無論哪種,最終數據都會持久化到DB中,省去一步緩存的寫入,提升寫性能。而緩存由 Read Through
寫入緩存。
這個策略的核心原則:用戶只與緩存打交道,由緩存組件和DB通信,寫入或者讀取數據。在一些本地進程緩存組件可以考慮這種策略。
相信你也看出上述方案的缺陷:寫數據時緩存和數據庫同步,但是我們知道這兩塊存儲介質的速度差幾個數量級,對寫入性能是有很大影響。那我們是否異步更新數據庫?
Write back
就是在寫數據時只更新該 Cache Line
對應的數據,并把該行標記為 Dirty
。在讀數據時或是在緩存滿時換出「緩存替換策略」時,將 Dirty
寫入存儲。
需要注意的是:在 Write Miss
情況下,采取的是 Write Allocate
,即寫入存儲同時寫入緩存,這樣我們在之后的寫請求只需要更新緩存。
> async purge
此類概念其實存在計算機體系中。Mysql
中刷臟頁,本質都是盡可能防止隨機寫,統一寫磁盤時機。
Redis
是一個獨立的系統軟件,和我們寫的業務程序是兩個軟件。當我們部署了Redis
實例后,它只會被動地等待客戶端發送請求,然后再進行處理。所以,如果應用程序想要使用 Redis
緩存,我們就要在程序中增加相應的緩存操作代碼。所以我們也把 Redis
稱為 旁路緩存,也就是說:讀取緩存、讀取數據庫和更新緩存的操作都需要在應用程序中來完成。
而作為緩存的 Redis
,同樣需要面臨常見的問題:
緩存的容量終究有限
上游并發請求沖擊
緩存與后端存儲數據一致性
一般來說,緩存對于選定的被淘汰數據,會根據其是干凈數據還是臟數據,選擇直接刪除還是寫回數據庫。但是,在 Redis 中,被淘汰數據無論干凈與否都會被刪除,所以,這是我們在使用 Redis 緩存時要特別注意的:當數據修改成為臟數據時,需要在數據庫中也把數據修改過來。
所以不管替換策略是什么,臟數據有可能在換入換出中丟失。那我們在產生臟數據就應該刪除緩存,而不是更新緩存,一切數據應該以數據庫為準。這也很好理解,緩存寫入應該交給讀請求來完成;寫請求盡可能保證數據一致性。
至于替換策略有哪些,網上已經有很多文章歸納之間的優劣,這里就不再贅述。
并發場景下,可能會有多個線程(協程)同時請求同一份資源,如果每個請求都要走一遍資源的請求過程,除了比較低效之外,還會對資源服務造成并發的壓力。
go-zero
中的 ShardCalls
可以使得同時多個請求只需要發起一次拿結果的調用,其他請求"坐享其成",這種設計有效減少了資源服務的并發壓力,可以有效防止緩存擊穿。
對于防止暴增的接口請求對下游服務造成瞬時高負載,可以在你的函數包裹:
fn = func() (interface{}, error) { // 業務查詢 } data, err = g.Do(apiKey, fn) // 就獲得到data,之后的方法或者邏輯就可以使用這個data
其實原理也很簡單:
func (g *sharedGroup) Do(key string, fn func() (interface{}, error)) (interface{}, error) { // done: false,才會去執行下面的業務邏輯;為 true,直接返回之前獲取的data c, done := g.createCall(key) if done { return c.val, c.err } // 執行調用者傳入的業務邏輯 g.makeCall(c, key, fn) return c.val, c.err } func (g *sharedGroup) createCall(key string) (c *call, done bool) { // 只讓一個請求進來進行操作 g.lock.Lock() // 如果攜帶標示一系列請求的key在 calls 這個map中已經存在, // 則解鎖并同時等待之前請求獲取數據,返回 if c, ok := g.calls[key]; ok { g.lock.Unlock() c.wg.Wait() return c, true } // 說明本次請求是首次請求 c = new(call) c.wg.Add(1) // 標注請求,因為持有鎖,不用擔心并發問題 g.calls[key] = c g.lock.Unlock() return c, false }
這種 map+lock
存儲并限制請求操作,和groupcache中的 singleflight
類似,都是防止緩存擊穿的利器
> 源碼地址:sharedcalls.go
這是開發中常見糾結問題:到底是先刪除緩存還是先更新存儲?
> 情況一:先刪除緩存,再更新存儲; > > - A
刪除緩存,更新存儲時網絡延遲 > - B
讀請求,發現緩存缺失,讀存儲 -> 此時讀到舊數據
這樣會產生兩個問題:
B
讀取舊值
B
同時讀請求會把舊值寫入緩存,導致后續讀請求讀到舊值
既然是緩存可能是舊值,那就不管刪除。有一個并不優雅的解決方案:在寫請求更新完存儲值以后,sleep()
一小段時間,再進行一次緩存刪除操作。
sleep
是為了確保讀請求結束,寫請求可以刪除讀請求造成的緩存臟數據,當然也要考慮到 redis 主從同步的耗時。不過還是要根據實際業務而定。
這個方案會在第一次刪除緩存值后,延遲一段時間再次進行刪除,被稱為:延遲雙刪。
> 情況二:先更新數據庫值,再刪除緩存值: > > - A
刪除存儲值,但是刪除緩存網絡延遲 > - B
讀請求時,緩存擊中,就直接返回舊值
這種情況對業務的影響較小,而絕大多數緩存組件都是采取此種更新順序,滿足最終一致性要求。
> 情況三:新用戶注冊,直接寫入數據庫,同時緩存中肯定沒有。如果程序此時讀從庫,由于主從延遲,導致讀取不到用戶數據。
這種情況就需要針對 Insert
這種操作:插入新數據入數據庫同時寫緩存。使得后續讀請求可以直接讀緩存,同時因為是剛插入的新數據,在一段時間修改的可能性不大。
以上方案在復雜的情況或多或少都有潛在問題,需要貼合業務做具體的修改。
上面說了這么多,回到我們開發角度,如果我們需要考慮這么多問題,顯然太麻煩了。所以如何把這些緩存策略和替換策略封裝起來,簡化開發過程?
明確幾點:
將業務邏輯和緩存操作分離,留給開發這一個寫入邏輯的點
緩存操作需要考慮流量沖擊,緩存策略等問題。。。
我們從讀和寫兩個角度去聊聊 go-zero
是如何封裝。
// res: query result // cacheKey: redis key err := m.QueryRow(&res, cacheKey, func(conn sqlx.SqlConn, v interface{}) error { querySQL := `select * from your_table where campus_id = ? and student_id = ?` return conn.QueryRow(v, querySQL, campusId, studentId) })
我們將開發查詢業務邏輯用 func(conn sqlx.SqlConn, v interface{})
封裝。用戶無需考慮緩存寫入,只需要傳入需要寫入的 cacheKey
。同時把查詢結果 res
返回。
那緩存操作是如何被封裝在內部呢?來看看函數內部:
func (c cacheNode) QueryRow(v interface{}, key string, query func(conn sqlx.SqlConn, v interface{}) error) error { cacheVal := func(v interface{}) error { return c.SetCache(key, v) } // 1. cache hit -> return // 2. cache miss -> err if err := c.doGetCache(key, v); err != nil { // 2.1 err defalut val {*} if err == errPlaceholder { return c.errNotFound } else if err != c.errNotFound { return err } // 2.2 cache miss -> query db // 2.2.1 query db return err {NotFound} -> return err defalut val「see 2.1」 if err = query(c.db, v); err == c.errNotFound { if err = c.setCacheWithNotFound(key); err != nil { logx.Error(err) } return c.errNotFound } else if err != nil { c.stat.IncrementDbFails() return err } // 2.3 query db success -> set val to cache if err = cacheVal(v); err != nil { logx.Error(err) return err } } // 1.1 cache hit -> IncrementHit c.stat.IncrementHit() return nil }
從流程上恰好對應緩存策略中的:Read Through
。
> 源碼地址:cachedsql.go
而寫請求,使用的就是之前緩存策略中的 Cache Aside
-> 先寫數據庫,再刪除緩存。
_, err := m.Exec(func(conn sqlx.SqlConn) (result sql.Result, err error) { execSQL := fmt.Sprintf("update your_table set %s where 1=1", m.table, AuthRows) return conn.Exec(execSQL, data.RangeId, data.AuthContentId) }, keys...) func (cc CachedConn) Exec(exec ExecFn, keys ...string) (sql.Result, error) { res, err := exec(cc.db) if err != nil { return nil, err } if err := cc.DelCache(keys...); err != nil { return nil, err } return res, nil }
和 QueryRow
一樣,調用者只需要負責業務邏輯,緩存寫入和刪除對調用透明。
> 源碼地址:cachedsql.go
開篇第一句話:脫離業務將技術都是耍流氓。以上都是在對緩存模式分析,但是實際業務中緩存是否起到應有的加速作用?最直觀就是緩存擊中率,而如何觀測到服務的緩存擊中?這就涉及到監控。
下圖是我們線上環境的某個服務的緩存記錄情況:
還記得上面 QueryRow
中:查詢緩存擊中,會調用 c.stat.IncrementHit()
。其中的 stat
就是作為監控指標,不斷在計算擊中率和失敗率。
> 源碼地址:cachestat.go
在其他的業務場景中:比如首頁信息瀏覽業務中,大量請求不可避免。所以緩存首頁的信息在用戶體驗上尤其重要。但是又不像之前提到的一些單一的key,這里可能涉及大量消息,這個時候就需要其他緩存類型加入:
拆分緩存:可以分 消息id
-> 由 消息id
查詢消息,并緩存插入消息list
中。
消息過期:設置消息過期時間,做到不占用過長時間緩存。
這里也就是涉及緩存的最佳實踐:
不允許不過期的緩存「尤為重要」
分布式緩存,易伸縮
自動生成,自帶統計
關于如何分析緩存原理與微服務緩存自動管理 就分享到這里了,希望以上內容可以對大家有一定的幫助,可以學到更多知識。如果覺得文章不錯,可以把它分享出去讓更多的人看到。
免責聲明:本站發布的內容(圖片、視頻和文字)以原創、轉載和分享為主,文章觀點不代表本網站立場,如果涉及侵權請聯系站長郵箱:is@yisu.com進行舉報,并提供相關證據,一經查實,將立刻刪除涉嫌侵權內容。