91超碰碰碰碰久久久久久综合_超碰av人澡人澡人澡人澡人掠_国产黄大片在线观看画质优化_txt小说免费全本

溫馨提示×

溫馨提示×

您好,登錄后才能下訂單哦!

密碼登錄×
登錄注冊×
其他方式登錄
點擊 登錄注冊 即表示同意《億速云用戶服務條款》

Redis數據庫中怎么對key進行拆分

發布時間:2020-11-30 16:03:21 來源:億速云 閱讀:571 作者:Leah 欄目:開發技術

Redis數據庫中怎么對key進行拆分?很多新手對此不是很清楚,為了幫助大家解決這個難題,下面小編將為大家詳細講解,有這方面需求的人可以來學習下,希望你能有所收獲。

由于redis是單線程運行的,如果一次操作的value很大會對整個redis的響應時間造成負面影響,所以,業務上能拆則拆,下面舉幾個典型的分拆方案。

一、單個簡單的key存儲的value很大

i:該對象需要每次都整存整取

可以嘗試將對象分拆成幾個key-value, 使用multiGet獲取值,這樣分拆的意義在于分拆單次操作的壓力,將操作壓力平攤到多個redis實例中,降低對單個redis的IO影響;

ii:該對象每次只需要存取部分數據

可以像第一種做法一樣,分拆成幾個key-value, 也可以將這個存儲在一個hash中,每個field代表一個具體的屬性,

使用hget,hmget來獲取部分的value,使用hset,hmset來更新部分屬性

二、value中存儲過多的元素

類似于場景一種的第一個做法,可以將這些元素分拆。

以hash為例,原先的正常存取流程是 hget(hashKey, field) ; hset(hashKey, field, value)

現在,固定一個桶的數量,比如 10000, 每次存取的時候,先在本地計算field的hash值,模除 10000, 確定了該field落在哪個key上。

newHashKey = hashKey + (set, zset, list 也可以類似上述做法

但有些不適合的場景,比如,要保證 lpop 的數據的確是最早push到list中去的,這個就需要一些附加的屬性,或者是在 key的拼接上做一些工作(比如list按照時間來分拆)。

三、一個集群存儲了上億的key

如果key的個數過多會帶來更多的內存空間占用,

i:key本身的占用(每個key 都會有一個Category前綴)

ii:集群模式中,服務端需要建立一些slot2key的映射關系,這其中的指針占用在key多的情況下也是浪費巨大空間

這兩個方面在key個數上億的時候消耗內存十分明顯(Redis 3.2及以下版本均存在這個問題,4.0有優化);

所以減少key的個數可以減少內存消耗,可以參考的方案是轉Hash結構存儲,即原先是直接使用Redis String 的結構存儲,現在將多個key存儲在一個Hash結構中,具體場景參考如下:

1:key 本身就有很強的相關性,比如多個key 代表一個對象,每個key是對象的一個屬性,這種可直接按照特定對象的特征來設置一個新Key——Hash結構, 原先的key則作為這個新Hash 的field。

舉例說明:

原先存儲的三個key

user.zhangsan-id = 123;

user.zhangsan-age = 18;

user.zhangsan-country = china;

這三個key本身就具有很強的相關特性,轉成Hash存儲就像這樣key = user.zhangsan

field:id = 123;

field:age = 18;

field:country = china;

即redis中存儲的是一個key :user.zhangsan, 他有三個 field, 每個field + key 就對應原先的一個key。

2:key 本身沒有相關性,預估一下總量,采取和上述第二種場景類似的方案,預分一個固定的桶數量

比如現在預估key 的總數為 2億,按照一個hash存儲 100個field來算,需要 2億 / 100 = 200W 個桶 (200W 個key占用的空間很少,2億可能有將近 20G )

原先比如有三個key :

user.123456789

user.987654321

user.678912345

現在按照200W 固定桶分就是先計算出桶的序號 hash(123456789) % 200W , 這里最好保證這個 hash算法的值是個正數,否則需要調整下模除的規則;

這樣算出三個key 的桶分別是 1 , 2, 2。 所以存儲的時候調用API hset(key, field, value),讀取的時候使用 hget (key, field)

Redis數據庫中怎么對key進行拆分

注意兩個地方:1,hash 取模對負數的處理; 2,預分桶的時候, 一個hash 中存儲的值最好不要超過 512 ,100 左右較為合適

四、大Bitmap或布隆過濾器(Bloom )拆分

使用bitmap或布隆過濾器的場景,往往是數據量極大的情況,在這種情況下,Bitmap和布隆過濾器使用空間也比較大,比如用于公司userid匹配的布隆過濾器,就需要512MB的大小,這對redis來說是絕對的大value了。

這種場景下,我們就需要對其進行拆分,拆分為足夠小的Bitmap,比如將512MB的大Bitmap拆分為1024個512KB的Bitmap。不過拆分的時候需要注意,要將每個key落在一個Bitmap上。有些業務只是把Bitmap 拆開, 但還是當做一個整體的bitmap看, 所以一個 key 還是落在多個 Bitmap 上,這樣就有可能導致一個key請求需要查詢多個節點、多個Bitmap。

如下圖,被請求的值被hash到多個Bitmap上,也就是redis的多個key上,這些key還有可能在不同節點上,這樣拆分顯然大大降低了查詢的效率。

Redis數據庫中怎么對key進行拆分

因此我們所要做的是把所有拆分后的Bitmap當作獨立的bitmap,然后通過hash將不同的key分配給不同的bitmap上,而不是把所有的小Bitmap當作一個整體。這樣做后每次請求都只要取redis中一個key即可。

Redis數據庫中怎么對key進行拆分

有同學可能會問,通過這樣拆分后,相當于Bitmap變小了,會不會增加布隆過濾器的誤判率?實際上是不會的,布隆過濾器的誤判率是哈希函數個數k,集合元素個數n,以及Bitmap大小m所決定的,其約等于

Redis數據庫中怎么對key進行拆分

因此如果我們在第一步,也就是在分配key給不同Bitmap時,能夠盡可能均勻的拆分,那么n/m的值幾乎是一樣的,誤判率也就不會改變。具體的誤判率推導可以參考wiki:Bloom_filter

同時,客戶端也提供便利的api (>=2.3.4版本), setBits/ getBits 用于一次操作同一個key的多個bit值 。

建議 :k 取 13 個, 單個bloomfilter控制在 512KB 以下

看完上述內容是否對您有幫助呢?如果還想對相關知識有進一步的了解或閱讀更多相關文章,請關注億速云行業資訊頻道,感謝您對億速云的支持。

向AI問一下細節

免責聲明:本站發布的內容(圖片、視頻和文字)以原創、轉載和分享為主,文章觀點不代表本網站立場,如果涉及侵權請聯系站長郵箱:is@yisu.com進行舉報,并提供相關證據,一經查實,將立刻刪除涉嫌侵權內容。

AI

江山市| 新竹县| 福建省| 泰兴市| 将乐县| 衢州市| 页游| 河源市| 固镇县| 宣武区| 盐亭县| 阜平县| 连平县| 商洛市| 锡林郭勒盟| 鸡东县| 宜春市| 洛扎县| 霸州市| 池州市| 栾川县| 漯河市| 孟津县| 巢湖市| 合肥市| 门头沟区| 阿拉善右旗| 全州县| 钟山县| 中方县| 集贤县| 乐亭县| 思南县| 荣成市| 襄汾县| 红桥区| 巴东县| 兴隆县| 新兴县| 涞水县| 博白县|