您好,登錄后才能下訂單哦!
同一個jvm里多個線程操作同一個有狀態的變量,可以通過JVM內的鎖保證線程安全。
如果是多個JVM操作同一個有狀態的變量,如何保證線程安全呢?
這時候就需要分布式鎖來發揮它的作用了
分布式系統往往業務流量比較大、并發較高,對分布式鎖的高可用和高性能有較高的要求。一般分布式鎖的方案需要滿足如下要求:
利用主鍵唯一的特性,如果有多個請求同時提交到數據庫的話,數據庫會保證只有一個插入操作可以成功,那么我們就可以認為操作成功的那個線程獲得了該方法的鎖,當方法執行完畢之后,想要釋放鎖的話,刪除這條數據庫記錄即可
connection.commit()
操作來釋放鎖一般數據庫使用innodb存儲引擎,在插入數據的時候會加行級鎖。從而達到是并發請求按順序執行的效果
更新數據的時候帶上指定版本號,如果被其他線程提前更新的版本號,則此次更新失敗
對數據庫表侵入較大,每個表需要增加version字段
高并發下存在很多更新失敗
原子命令:SET key value NX PX milliseconds
PX?milliseconds 過期時間,防止加鎖線程死掉不能解鎖。過期時間設置太短,可能加鎖線程還沒有執行完正常邏輯,就到了過期時間
NX 如果沒有這個key則設置,存在key返回失敗
value 隨機值(一般用UUID),用來實現只能由加鎖線程解鎖
lua腳本實現get value,delete的操作。加鎖的時候設置的value是不會重復的隨機值,解鎖的時候必須UUID一致才能解鎖
<dependency>
<groupId>org.redisson</groupId>
<artifactId>redisson</artifactId>
<version>3.3.2</version>
</dependency>
在Redis的分布式環境中,我們假設有N個Redis master。這些節點完全互相獨立,不存在主從復制或者其他集群協調機制。我們確保將在N個實例上使用與在Redis單實例下相同方法獲取和釋放鎖。現在我們假設有5個Redis master節點,同時我們需要在5臺服務器上面運行這些Redis實例,這樣保證他們不會同時都宕掉。
假設有cluster-1,cluster-2,cluster-3總計3個cluster模式集群。如果要獲取分布式鎖,那么需要向這3個cluster集群通過EVAL命令執行LUA腳本,需要3/2+1=2,即至少2個cluster集群響應成功。set的value要具有唯一性,redisson的value通過UUID+threadId保證value的唯一性
1.獲取當前時間(單位是毫秒)。
2.輪流用相同的key和隨機值在N個節點上請求鎖,在這一步里,客戶端在每個master上請求鎖時,會有一個和總的鎖釋放時間相比小的多的超時時間。比如如果鎖自動釋放時間是10秒鐘,那每個節點鎖請求的超時時間可能是5-50毫秒的范圍,這個可以防止一個客戶端在某個宕掉的master節點上阻塞過長時間,如果一個master節點不可用了,我們應該盡快嘗試下一個master節點。
3.客戶端計算第二步中獲取鎖所花的時間,只有當客戶端在大多數master節點上成功獲取了鎖(在這里是3個),而且總共消耗的時間不超過鎖釋放時間,這個鎖就認為是獲取成功了。
4.如果鎖獲取成功了,那現在鎖自動釋放時間就是最初的鎖釋放時間減去之前獲取鎖所消耗的時間。
5.如果鎖獲取失敗了,不管是因為獲取成功的鎖不超過一半(N/2+1)還是因為總消耗時間超過了鎖釋放時間,客戶端都會到每個master節點上釋放鎖,即便是那些他認為沒有獲取成功的鎖。
需要在所有節點都釋放鎖就行,不管之前有沒有在該節點獲取鎖成功。
客戶端如果沒有在多數節點獲取到鎖,一定要盡快在獲取鎖成功的節點上釋放鎖,這樣就沒必要等到key超時后才能重新獲取這個鎖
?開始之前,讓我們假設客戶端可以在大多數節點都獲取到鎖,這樣所有的節點都會包含一個有相同存活時間的key。但是需要注意的是,這個key是在不同時間點設置的,所以這些key也會在不同的時間超時,但是我們假設最壞情況下第一個key是在T1時間設置的(客戶端連接到第一個服務器時的時間),最后一個key是在T2時間設置的(客戶端收到最后一個服務器返回結果的時間),從T2時間開始,我們可以確認最早超時的key至少也會存在的時間為MIN_VALIDITY=TTL-(T2-T1)-CLOCK_DRIFT,TTL是鎖超時時間、(T2-T1)是最晚獲取到的鎖的耗時,CLOCK_DRIFT是不同進程間時鐘差異,這個是用來補償前面的(T2-T1)。其他的key都會在這個時間點之后才會超時,所以我們可以確定這些key在這個時間點之前至少都是同時存在的。
如果一個客戶端獲取大多數節點鎖的耗時接近甚至超過鎖的最大有效時間時(就是我們為SET操作設置的TTL值),那么系統會認為這個鎖是無效的同時會釋放這些節點上的鎖,所以我們僅僅需要考慮獲取大多數節點鎖的耗時小于有效時間的情況。在這種情況下,根據我們前面的證明,在MIN_VALIDITY時間內,沒有客戶端能重新獲取鎖成功,所以多個客戶端都能同時成功獲取鎖的結果,只會發生在多數節點獲取鎖的時間都大大超過TTL時間的情況下,實際上這種情況下這些鎖都會失效
利用臨時節點與 watch 機制。每個鎖占用一個普通節點 /lock,當需要獲取鎖時在 /lock 目錄下創建一個臨時節點,創建成功則表示獲取鎖成功,失敗則 watch/lock 節點,有刪除操作后再去爭鎖。臨時節點好處在于當進程掛掉后能自動上鎖的節點自動刪除即取消鎖。
所有取鎖失敗的進程都監聽父節點,很容易發生羊群效應,即當釋放鎖后所有等待進程一起來創建節點,并發量很大。
上鎖改為創建臨時有序節點,每個上鎖的節點均能創建節點成功,只是其序號不同。只有序號最小的可以擁有鎖,如果這個節點序號不是最小的則 watch 序號比本身小的前一個節點 (公平鎖)。
在鎖節點下創建臨時順序節點。讀節點為R+序號,寫節點為W+序號。創建完節點后,獲取所有子節點,對鎖節點注冊子節點變更的watcher監聽,確定自己的序號在所有子節點中的位置。對于讀請求,沒有比自己序號小的寫節點,就表示獲得了共享鎖,執行讀取邏輯。對于寫請求,如果自己不是序號最小的子節點,就需要進入等待。接收到watcher通知后,重復獲取鎖。
共享鎖羊群效應。大量的watcher通知和子節點列表獲取,兩個操作重復運行。集群規模比較大的情況下,會對zookeeper服務器造成巨大的性能影響和網絡沖擊
讀請求,監聽比自己小的寫節點。寫請求,監聽比自己小的最后一個節點。
免責聲明:本站發布的內容(圖片、視頻和文字)以原創、轉載和分享為主,文章觀點不代表本網站立場,如果涉及侵權請聯系站長郵箱:is@yisu.com進行舉報,并提供相關證據,一經查實,將立刻刪除涉嫌侵權內容。