您好,登錄后才能下訂單哦!
這篇文章主要介紹“如何理解負載均衡原理”,在日常操作中,相信很多人在如何理解負載均衡原理問題上存在疑惑,小編查閱了各式資料,整理出簡單好用的操作方法,希望對大家解答”如何理解負載均衡原理”的疑惑有所幫助!接下來,請跟著小編一起來學習吧!
在業務初期,我們一般會先使用單臺服務器對外提供服務。隨著業務流量越來越大,單臺服務器無論如何優化,無論采用多好的硬件,總會有性能天花板,當單服務器的性能無法滿足業務需求時,就需要把多臺服務器組成集群系統提高整體的處理性能。
基于上述需求,我們要使用統一的流量入口來對外提供服務,本質上就是需要一個流量調度器,通過均衡的算法,將用戶大量的請求流量均衡地分發到集群中不同的服務器上。這其實就是我們今天要說的負載均衡。
使用負載均衡可以給我們帶來的幾個好處:
提高了系統的整體性能;
提高了系統的擴展性;
提高了系統的可用性;
廣義上的負載均衡器大概可以分為 3 類,包括:DNS 方式實現負載均衡、硬件負載均衡、軟件負載均衡。
(一)DNS 實現負載均衡
DNS 實現負載均衡是最基礎簡單的方式。一個域名通過 DNS 解析到多個 IP,每個 IP 對應不同的服務器實例,這樣就完成了流量的調度,雖然沒有使用常規的負載均衡器,但實現了簡單的負載均衡功能。
通過 DNS 實現負載均衡的方式,最大的優點就是實現簡單,成本低,無需自己開發或維護負載均衡設備,不過存在一些缺點:
服務器故障切換延遲大,服務器升級不方便。我們知道 DNS 與用戶之間是層層的緩存,即便是在故障發生時及時通過 DNS 修改或摘除故障服務器,但中間經過運營商的 DNS 緩存,且緩存很有可能不遵循 TTL 規則,導致 DNS 生效時間變得非常緩慢,有時候一天后還會有些許的請求流量。
流量調度不均衡,粒度太粗。DNS 調度的均衡性,受地區運營商 LocalDNS 返回 IP 列表的策略有關系,有的運營商并不會輪詢返回多個不同的 IP 地址。另外,某個運營商 LocalDNS 背后服務了多少用戶,這也會構成流量調度不均的重要因素。
流量分配策略太簡單,支持的算法太少。DNS 一般只支持 rr
的輪詢方式,流量分配策略比較簡單,不支持權重、Hash 等調度算法。
DNS 支持的 IP 列表有限制。我們知道 DNS 使用 UDP 報文進行信息傳遞,每個 UDP 報文大小受鏈路的 MTU 限制,所以報文中存儲的 IP 地址數量也是非常有限的,阿里 DNS 系統針對同一個域名支持配置 10 個不同的 IP 地址。
實際上生產環境中很少使用這種方式來實現負載均衡,畢竟缺點很明顯。文中之所以描述 DNS 負載均衡方式,是為了能夠更清楚地解釋負載均衡的概念。
像 BAT 體量的公司一般會利用 DNS 來實現地理級別的全局負載均衡,實現就近訪問,提高訪問速度,這種方式一般是入口流量的基礎負載均衡,下層會有更專業的負載均衡設備實現的負載架構。
(二)硬件負載均衡
硬件負載均衡是通過專門的硬件設備來實現負載均衡功能,是專用的負載均衡設備。目前業界典型的硬件負載均衡設備有兩款:F5
和 A10
。
這類設備性能強勁、功能強大,但價格非常昂貴,一般只有土豪公司才會使用此類設備,中小公司一般負擔不起,業務量沒那么大,用這些設備也是挺浪費的。
硬件負載均衡的優點:
功能強大:全面支持各層級的負載均衡,支持全面的負載均衡算法。
性能強大:性能遠超常見的軟件負載均衡器。
穩定性高:商用硬件負載均衡,經過了良好的嚴格測試,經過大規模使用,穩定性高。
安全防護:還具備防火墻、防 DDoS 攻擊等安全功能,以及支持 SNAT 功能。
硬件負載均衡的缺點也很明顯:
價格貴;
擴展性差,無法進行擴展和定制;
調試和維護比較麻煩,需要專業人員;
(三)軟件負載均衡
軟件負載均衡,可以在普通的服務器上運行負載均衡軟件,實現負載均衡功能。目前常見的有 Nginx
、HAproxy
、LVS
。其中的區別:
Nginx
:七層負載均衡,支持 HTTP、E-mail 協議,同時也支持 4 層負載均衡;
HAproxy
:支持七層規則的,性能也很不錯。OpenStack 默認使用的負載均衡軟件就是 HAproxy;
LVS
:運行在內核態,性能是軟件負載均衡中最高的,嚴格來說工作在三層,所以更通用一些,適用各種應用服務。
軟件負載均衡的優點:
易操作:無論是部署還是維護都相對比較簡單;
便宜:只需要服務器的成本,軟件是免費的;
靈活:4 層和 7 層負載均衡可以根據業務特點進行選擇,方便進行擴展和定制功能。
軟件負載均衡主要包括:Nginx、HAproxy 和 LVS,三款軟件都比較常用。四層負載均衡基本上都會使用 LVS,據了解 BAT 等大廠都是 LVS 重度使用者,就是因為 LVS 非常出色的性能,能為公司節省巨大的成本。
LVS,全稱 Linux Virtual Server
是由國人章文嵩博士發起的一個開源的項目,在社區具有很大的熱度,是一個基于四層、具有強大性能的反向代理服務器。
它現在是標準內核的一部分,它具備可靠性、高性能、可擴展性和可操作性的特點,從而以低廉的成本實現最優的性能。
LVS 是基于 Linux 內核中 netfilter 框架實現的負載均衡功能,所以要學習 LVS 之前必須要先簡單了解 netfilter 基本工作原理。netfilter 其實很復雜,平時我們說的 Linux 防火墻就是 netfilter,不過我們平時操作的都是 iptables,iptables 只是用戶空間編寫和傳遞規則的工具而已,真正工作的是 netfilter。通過下圖可以簡單了解下 netfilter 的工作機制:
netfilter 是內核態的 Linux 防火墻機制,作為一個通用、抽象的框架,提供了一整套的 hook 函數管理機制,提供諸如數據包過濾、網絡地址轉換、基于協議類型的連接跟蹤的功能。
通俗點講,就是 netfilter 提供一種機制,可以在數據包流經過程中,根據規則設置若干個關卡(hook 函數)來執行相關的操作。netfilter 總共設置了 5 個點,包括:PREROUTING、INPUT、FORWARD、OUTPUT、POSTROUTING
PREROUTING
:剛剛進入網絡層,還未進行路由查找的包,通過此處
INPUT
:通過路由查找,確定發往本機的包,通過此處
FORWARD
:經路由查找后,要轉發的包,在POST_ROUTING之前
OUTPUT
:從本機進程剛發出的包,通過此處
POSTROUTING
:進入網絡層已經經過路由查找,確定轉發,將要離開本設備的包,通過此處
當一個數據包進入網卡,經過鏈路層之后進入網絡層就會到達 PREROUTING,接著根據目標 IP 地址進行路由查找,如果目標 IP 是本機,數據包繼續傳遞到 INPUT 上,經過協議棧后根據端口將數據送到相應的應用程序。
應用程序處理請求后將響應數據包發送到 OUTPUT 上,最終通過 POSTROUTING 后發送出網卡。
如果目標 IP 不是本機,而且服務器開啟了 forward
參數,就會將數據包遞送給 FORWARD 上,最后通過 POSTROUTING 后發送出網卡。
LVS 是基于 netfilter 框架,主要工作于 INPUT 鏈上,在 INPUT 上注冊 ip_vs_in
HOOK 函數,進行 IPVS 主流程,大概原理如圖所示:
當用戶訪問 www.sina.com.cn 時,用戶數據通過層層網絡,最后通過交換機進入 LVS 服務器網卡,并進入內核網絡層。
進入 PREROUTING 后經過路由查找,確定訪問的目的 VIP 是本機 IP 地址,所以數據包進入到 INPUT 鏈上
LVS 是工作在 INPUT 鏈上,會根據訪問的 IP:Port
判斷請求是否是 LVS 服務,如果是則進行 LVS 主流程,強行修改數據包的相關數據,并將數據包發往 POSTROUTING 鏈上。
POSTROUTING 上收到數據包后,根據目標 IP 地址(后端真實服務器),通過路由選路,將數據包最終發往后端的服務器上。
開源 LVS 版本有 3 種工作模式,每種模式工作原理都不同,每種模式都有自己的優缺點和不同的應用場景,包括以下三種模式:
DR
模式
NAT
模式
Tunnel
模式
這里必須要提另外一種模式是 FullNAT
,這個模式在開源版本中是模式沒有的。這個模式最早起源于百度,后來又在阿里發揚光大,由阿里團隊開源,代碼地址如下:
https://github.com/alibaba/lvs
LVS 官網也有相關下載地址,不過并沒有合進到內核主線版本。
后面會有專門章節詳細介紹 FullNAT 模式。下邊分別就 DR、NAT、Tunnel 模式分別詳細介紹原理。
LVS 基本原理圖中描述的比較簡單,表述的是比較通用流程。下邊會針對 DR 模式的具體實現原理,詳細的闡述 DR 模式是如何工作的。
其實 DR 是最常用的工作模式,因為它的強大的性能。下邊試圖以某個請求和響應數據流的過程來描述 DR 模式的工作原理
(一)實現原理過程
① 當客戶端請求 www.sina.com.cn 主頁,請求數據包穿過網絡到達 Sina 的 LVS 服務器網卡:源 IP 是客戶端 IP 地址 CIP
,目的 IP 是新浪對外的服務器 IP 地址,也就是 VIP
;此時源 MAC 地址是 CMAC
,其實是 LVS 連接的路由器的 MAC 地址(為了容易理解記為 CMAC),目標 MAC 地址是 VIP 對應的 MAC,記為 VMAC
。
② 數據包經過鏈路層到達 PREROUTING 位置(剛進入網絡層),查找路由發現目的 IP 是 LVS 的 VIP
,就會遞送到 INPUT 鏈上,此時數據包 MAC、IP、Port 都沒有修改。
③ 數據包到達 INPUT 鏈,INPUT 是 LVS 主要工作的位置。此時 LVS 會根據目的 IP 和 Port 來確認是否是 LVS 定義的服務,如果是定義過的 VIP 服務,就會根據配置信息,從真實服務器列表 中選擇一個作為 RS1,然后以 RS1 作為目標查找 Out 方向的路由,確定一下跳信息以及數據包要通過哪個網卡發出。最后將數據包投遞到 OUTPUT 鏈上。
④ 數據包通過 POSTROUTING 鏈后,從網絡層轉到鏈路層,將目的 MAC 地址修改為 RealServer 服務器 MAC 地址,記為 RMAC
;而源 MAC 地址修改為 LVS 與 RS 同網段的 selfIP 對應的 MAC 地址,記為 DMAC
。此時,數據包通過交換機轉發給了 RealServer 服務器(注:為了簡單圖中沒有畫交換機)。
⑤ 請求數據包到達后端真實服務器后,鏈路層檢查目的 MAC 是自己網卡地址。到了網絡層,查找路由,目的 IP 是 VIP(lo 上配置了 VIP),判定是本地主機的數據包,經過協議棧拷貝至應用程序(比如 nginx 服務器),nginx 響應請求后,產生響應數據包。
然后以 CIP 查找出方向的路由,確定下一跳信息和發送網卡設備信息。此時數據包源、目的 IP 分別是 VIP、CIP,而源 MAC 地址是 RS1 的 RMAC
,目的 MAC 是下一跳(路由器)的 MAC 地址,記為 CMAC(為了容易理解,記為 CMAC
)。然后數據包通過 RS 相連的路由器轉發給真正客戶端,完成了請求響應的全過程。
從整個過程可以看出,DR 模式 LVS 邏輯比較簡單,數據包通過直接路由方式轉發給后端服務器,而且響應數據包是由 RS 服務器直接發送給客戶端,不經過 LVS。
我們知道通常請求數據包會比較小,響應報文較大,經過 LVS 的數據包基本上都是小包,所以這也是 LVS 的 DR 模式性能強大的主要原因。
(二)優缺點和使用場景
DR 模式的優點
響應數據不經過 lvs,性能高
對數據包修改小,信息保存完整(攜帶客戶端源 IP)
DR 模式的缺點
lvs 與 rs 必須在同一個物理網絡(不支持跨機房)
服務器上必須配置 lo 和其它內核參數
不支持端口映射
DR 模式的使用場景
如果對性能要求非常高,可以首選 DR 模式,而且可以透傳客戶端源 IP 地址。
lvs 的第 2 種工作模式是 NAT 模式,下圖詳細介紹了數據包從客戶端進入 lvs 后轉發到 rs,后經 rs 再次將響應數據轉發給 lvs,由 lvs 將數據包回復給客戶端的整個過程。
(一)實現原理與過程
① 用戶請求數據包經過層層網絡,到達 lvs 網卡,此時數據包源 IP 是 CIP,目的 IP 是 VIP。
② 經過網卡進入網絡層 prerouting 位置,根據目的 IP 查找路由,確認是本機 IP,將數據包轉發到 INPUT 上,此時源、目的 IP 都未發生變化。
③ 到達 lvs 后,通過目的 IP 和目的 port 查找是否為 IPVS 服務。若是 IPVS 服務,則會選擇一個 RS 作為后端服務器,將數據包目的 IP 修改為 RIP,并以 RIP 為目的 IP 查找路由信息,確定下一跳和出口信息,將數據包轉發至 output 上。
④ 修改后的數據包經過 postrouting 和鏈路層處理后,到達 RS 服務器,此時的數據包源 IP 是 CIP,目的 IP 是 RIP。
⑤ 到達 RS 服務器的數據包經過鏈路層和網絡層檢查后,被送往用戶空間 nginx 程序。nginx 程序處理完畢,發送響應數據包,由于 RS 上默認網關配置為 lvs 設備 IP,所以 nginx 服務器會將數據包轉發至下一跳,也就是 lvs 服務器。此時數據包源 IP 是 RIP,目的 IP 是 CIP。
⑥ lvs 服務器收到 RS 響應數據包后,根據路由查找,發現目的 IP 不是本機 IP,且 lvs 服務器開啟了轉發模式,所以將數據包轉發給 forward 鏈,此時數據包未作修改。
⑦ lvs 收到響應數據包后,根據目的 IP 和目的 port 查找服務和連接表,將源 IP 改為 VIP,通過路由查找,確定下一跳和出口信息,將數據包發送至網關,經過復雜的網絡到達用戶客戶端,最終完成了一次請求和響應的交互。
NAT 模式雙向流量都經過 LVS,因此 NAT 模式性能會存在一定的瓶頸。不過與其它模式區別的是,NAT 支持端口映射,且支持 windows 操作系統。
(二)優點、缺點與使用場景
NAT 模式優點
能夠支持 windows 操作系統
支持端口映射。如果 rs 端口與 vport 不一致,lvs 除了修改目的 IP,也會修改 dport 以支持端口映射。
NAT 模式缺點
后端 RS 需要配置網關
雙向流量對 lvs 負載壓力比較大
NAT 模式的使用場景
如果你是 windows 系統,使用 lvs 的話,則必須選擇 NAT 模式了。
Tunnel 模式在國內使用的比較少,不過據說騰訊使用了大量的 Tunnel 模式。它也是一種單臂的模式,只有請求數據會經過 lvs,響應數據直接從后端服務器發送給客戶端,性能也很強大,同時支持跨機房。下邊繼續看圖分析原理。
(一)實現原理與過程
① 用戶請求數據包經過多層網絡,到達 lvs 網卡,此時數據包源 IP 是 cip,目的 ip 是 vip。
② 經過網卡進入網絡層 prerouting 位置,根據目的 ip 查找路由,確認是本機 ip,將數據包轉發到 input 鏈上,到達 lvs,此時源、目的 ip 都未發生變化。
③ 到達 lvs 后,通過目的 ip 和目的 port 查找是否為 IPVS 服務。若是 IPVS 服務,則會選擇一個 rs 作為后端服務器,以 rip 為目的 ip 查找路由信息,確定下一跳、dev 等信息,然后 IP 頭部前邊額外增加了一個 IP 頭(以 dip 為源,rip 為目的 ip),將數據包轉發至 output 上。
④ 數據包根據路由信息經最終經過 lvs 網卡,發送至路由器網關,通過網絡到達后端服務器。
⑤ 后端服務器收到數據包后,ipip 模塊將 Tunnel 頭部卸載,正常看到的源 ip 是 cip,目的 ip 是 vip,由于在 tunl0 上配置 vip,路由查找后判定為本機 ip,送往應用程序。應用程序 nginx 正常響應數據后以 vip 為源 ip,cip 為目的 ip 數據包發送出網卡,最終到達客戶端。
Tunnel 模式具備 DR 模式的高性能,又支持跨機房訪問,聽起來比較完美。不過國內運營商有一定特色性,比如 RS 的響應數據包的源 IP 為 VIP,VIP 與后端服務器有可能存在跨運營商的情況,很有可能被運營商的策略封掉,Tunnel 在生產環境確實沒有使用過,在國內推行 Tunnel 可能會有一定的難度吧。
(二)優點、缺點與使用場景
Tunnel 模式的優點
單臂模式,對 lvs 負載壓力小
對數據包修改較小,信息保存完整
可跨機房(不過在國內實現有難度)
Tunnel 模式的缺點
需要在后端服務器安裝配置 ipip 模塊
需要在后端服務器 tunl0 配置 vip
隧道頭部的加入可能導致分片,影響服務器性能
隧道頭部 IP 地址固定,后端服務器網卡 hash 可能不均
不支持端口映射
Tunnel 模式的使用場景
理論上,如果對轉發性能要求較高,且有跨機房需求,Tunnel 可能是較好的選擇。
到此,關于“如何理解負載均衡原理”的學習就結束了,希望能夠解決大家的疑惑。理論與實踐的搭配能更好的幫助大家學習,快去試試吧!若想繼續學習更多相關知識,請繼續關注億速云網站,小編會繼續努力為大家帶來更多實用的文章!
免責聲明:本站發布的內容(圖片、視頻和文字)以原創、轉載和分享為主,文章觀點不代表本網站立場,如果涉及侵權請聯系站長郵箱:is@yisu.com進行舉報,并提供相關證據,一經查實,將立刻刪除涉嫌侵權內容。