91超碰碰碰碰久久久久久综合_超碰av人澡人澡人澡人澡人掠_国产黄大片在线观看画质优化_txt小说免费全本

溫馨提示×

溫馨提示×

您好,登錄后才能下訂單哦!

密碼登錄×
登錄注冊×
其他方式登錄
點擊 登錄注冊 即表示同意《億速云用戶服務條款》

鵝廠如何構建大型基礎網絡平臺

發布時間:2020-08-09 06:50:11 來源:ITPUB博客 閱讀:249 作者:李雪薇 欄目:互聯網科技

本文轉載自微信公眾號“ 鵝廠網事”(ID:tencent_network),作者:黃翔。
      
鵝廠是一個業務類型非常豐富的互聯網公司,涵蓋了大型社交流量平臺(微信/QQ)、在線游戲、公有云、媒體(新聞/視頻)、移動應用、開放平臺、互聯網金融等,不同類型的業務都有著自己的技術應用特點、業績目標、成本考量體系,從而產生了對后臺技術支撐能力的不同訴求。網絡作為基礎架構中的重要一環,也面臨著這些海量業務運營帶來的種種挑戰。好在鵝廠是一個專業技術能力較強、內部合作順暢的生態系統,將“不斷提升用戶體驗”作為統一的技術目標,很多事情就可以分布式合作去完成,基于這一特點,作為鵝廠基礎網絡平臺的架構師也深感幸福,因為可以更收斂、更聚焦的去解決一些有共性的重點問題——標準化的基礎網絡平臺。

怎么搭建這個龐大的基礎網絡平臺本身是一個非常復雜的議題,網絡技術本身在這其中可能只占據不到20%的分量,為了讓網絡規劃、建設、運營形成一個健康的體系,并不斷提升業務系統面向用戶的體驗,需要考慮非常多的問題:包括網絡技術選型、公司資源發放趨勢、端到端的運營體系、網絡技術發展趨勢、硬件供應鏈管理、綜合成本把控、迭代與穩定運營之間的Trade-off、風火水電、國內/國際通信環境等等因素,而這其中每一項幾乎都可以寫幾本書來講了。本文則聚焦于網絡本身,筆者爭取用通俗易懂的描述,簡單的分享一下鵝廠構建基礎網絡平臺的思路。
      
先看一張鵝廠基礎網絡平臺的整體架構圖(如下),網絡之所以會演進到今天這個樣子,主要是因為鵝廠網絡的價值主體是不斷構建和優化的兩個能力——“連接服務與服務的能力”“連接服務與用戶的能力”,網絡架構的發展必須圍繞著兩個能力來演進。同時,再根據上層業務特點(離線/在線)、地理資源豐富程度(地/電)、ISP網絡布局、災備要求、綜合成本構成等因素,將整體基礎網絡平臺分為三大塊:

鵝廠如何構建大型基礎網絡平臺
      · Data Center:數據中心網絡,給同一個園區內部所有的服務器提供高速交換的能力。
      · Edge:邊緣網絡,用于對接用戶(ISP)的邊界網絡。
      · DCI:數據中心互聯廣域網絡,負責將散落在全球的這些Data Center與Edge連接起來。
      每一塊網絡架構都會遵循整體基礎網絡的價值目標,并且結合自身獨有的特點進行演進與優化,下面就針對這三大網絡架構的構建思路展開進行探討。
      數據中心網絡


鵝廠如何構建大型基礎網絡平臺

數據中心網絡聚焦于“連接服務與服務的能力”,在整個網絡投資板塊占據很高分量,通過多年的積累,數據中心網絡已經形成幾萬網元的體量。面對如此體量的網絡,一定是需要有一套嚴密的構建體系來支撐的,包括設計、建設、運營、供應鏈管理等環節,因為隨便一個錯誤意味著不可想象的影響范圍和返工量。按照常理來看,數據中心網絡是離業務最近的網絡,而如此大的體量應該是運營壓力最大的部分,其實這個問題在鵝廠并沒有想象的那么嚴重,前文提到過,鵝廠是一個專業能力較強、內部合作順暢的生態系統,經過了多年的磨合,上層業務和基礎網絡形成了很好的合作默契,業務系統架構(尤其是平臺級業務)的健壯性、容災設計、調度能力達到了非常高的水平,使得基礎網絡平臺的架構師可以用標準化、健壯性好的技術來滿足幾乎絕大部分業務對數據中心網絡的要求,從而可以有更多精力集中在數據中心網絡相關更底層、更專業領域內深耕細作。
      關于鵝廠數據中心網絡的玩法,或者說要運轉數據中心網絡需要具備什么能力,將這些年的經驗和思路可以稍作總結如下:
      · 數據中心網絡與基建環境(Campus/Building)深度結合進行整體設計和交付,采用多級CLOS方案進行Campus-level/Building-level的整體端到端設計,包括設備功耗規劃、設備上架布局、布線規劃、物理故障域規劃等方面,以達到綜合架構、建設、成本、維護上的最優解。要從方法論高度對數據中心組網的CLOS結構有深入研究(上圖是Sigcomm論文中G家的數據中心網絡的邏輯圖),這個議題其實沒有想象的那么簡單,是一整套綜合考慮交換機成本、光成本、風火水電環境、網絡技術等一些列問題的方法論體系,關于CLOS網絡怎么搭建,鵝廠架構師甚至總結出了一整套公式算法,后續會開設專題進行探討。
      · 要對交換網絡體系架構有較深入的理解,這是網絡架構設計最基礎的技術儲備部分,無論是自研交換機還是商用交換機,都對技術開發、測試能力、基礎技術的掌握能力有較高的要求,這里面涉及的點包括交換芯片、光部件、系統協議棧、對SDK使用的積累等部分。
      · 對行業現狀和趨勢的整體分析能力,對行業供應鏈的整體把控能力,并且可以針對行業環境的變化具備敏捷的適應能力。比如隨著服務器接入速率的不斷提高,在數據中心網絡總成本中,光的比重越來越高,要能提前洞察到這些趨勢和變化,并結合自身的情況調整戰略和架構。
      · 海量標準化的數據中心網絡生產已經成為貫穿全年的常規工作,需要有一整套貫穿架構設計、建設、運營、擴容、資產、變更、退役等生命周期線上自動化管理工具系統,才能保證IDC生產業務的健康運轉,鵝廠在2014年重構了一整套這樣的工具系統,并不斷優化迭代,從架構設計到機房退役,都可以在線上完成。
      · 運營工具平臺需要從多維度對數據中心網絡進行立體監控,包含了白盒監控方法,比如針對網元本身的告警管理與收斂;黑盒監控方案,比如Full-Mesh的Probe反映網絡健康狀況;還包括與上層業務之間的映射和互相聯動,比如鵝廠最大的流量平臺微信有大量的服務器和一整套網絡質量監控系統,與網絡平臺合作一同快速發現故障并聯動操作隔離。
      · 對SDN方法論的正確使用,是需要根據場景來構建SDN體系的工作內容和效用,SDN在數據中心網絡更多的是針對大規模網絡的Routing適應性問題、集中鏈路狀態維護、擁塞管理、故障屏蔽等方面發力,非常有針對性的解決問題,而不是SDN for ALL。
      邊緣網絡(海外)
      邊緣網絡(Edge)聚焦于“連接服務與用戶的能力”,其主要任務就是能將鵝廠的服務以最短的路徑、最好的質量送到全球各地用戶的手上。國內的邊緣網絡普遍以靜態對接ISP的形式存在,海外則以BGP對接為主,本章節主要對鵝廠海外的邊緣網絡架構進行介紹。
      海外ISP數量眾多,導致全球Internet是一個非常復雜的網絡環境,如果鵝廠所有的服務都是從海外的Data Center直接送給當地的幾個大ISP從而觸達全球每一位用戶的話,是非常難做到給各地用戶都提供非常好的網絡體驗的。鵝廠花了大力氣來解決這個問題:
      
· 鵝廠部署了很多資源來獲取全球用戶觸達鵝廠各地服務的探測和質量數據,作為業務開展和網絡加速的依據,從而可以制定出有針對性的架構方案和建設計劃。
      · 邊緣網絡用于連接各個ISP,這個連接我們稱之為“出口”,出口的類型我們從架構上分為兩種:基于Region的主出口Edge,和用于區域網絡加速的Edge-POP
      · Edge作為基于Region的主出口往往靠近Data Center,連接了大量的ISP,作為該Region的缺省出口。
      · Edge-POP作為區域加速的覆蓋點,其規劃和建設的節奏是綜合眾多依據來考慮的,包括當地網民數量、上層業務規劃、覆蓋質量、當地通信環境、綜合成本等因素。
      · 所有的Edge和Edge-POP可以看成一整個資源池,承載于DCI網絡上面。鵝廠如何構建大型基礎網絡平臺
      邊緣網絡在技術上也會遇到很多挑戰,即多出口管理能力、流量調度能力、故障恢復能力等。在很早的時候,管理多出口和調度流量還使用的是傳統的網絡手段,經常會因為某一個出口的質量惡化,鵝廠網絡工程師需要手工登錄到網絡設備上用腳本去調整路由策略,以牽引流量去往質量更好的出口,隨著出口數量的不斷增加,不管是在網絡規劃方面還是手工優化流量方面,都變的越來越復雜和力不從心。舉一個簡單的例子,當只有兩個出口的時候,規劃和優化都非常簡單,要么雙活要么主備,誰出問題就關掉誰,動態路由協議會自動收斂,看起來非常簡單,但試想當出口的數量有幾百個甚至上千個的時候,如何規劃這些出口的使用規則?正常情況下每個出口走哪些服務或者用戶的流量?故障或者質量惡化情況下這些出口之間的備份關系如何?還要結合帶寬、成本、互聯ISP網絡內部負載情況等因素來進行綜合考慮和設計,這個就變成了非常復雜的議題了,曾幾何時,鵝廠的出口網絡設備上有著幾千行的路由策略命令,有的跟規劃有關,有的跟優化有關,有的跟處理故障有關,網絡運營變的越來越復雜,而且出口的數量還在迅猛增長。
      
幾年前,我們就意識到如果不重構這一塊的設計,遲早有一天會玩不下去,正當SDN的浪潮席卷而來,我們借鑒了SDN的思路,并花了不短的時間來構建這一塊的能力,形成鵝廠網絡的一個非常重要的競爭力,這個能力的核心就是多出口的集中控制,我們內部稱之為 “用上帝視角來選擇出口和調度流量”。簡單的來說,我們將所有出口的帶寬、路由、流量、質量、成本、IP與AS對應關系等信息采集或輸入至中央控制系統中,再開發出一套符合我們業務要求的算法,實現集中計算,保證各ISP、各地的用戶都能以當下的基礎設施條件下,以最好的網絡質量訪來問鵝廠的服務,計算完成后再將執行策略下發到轉發設備從而牽引流量落地。目前,這一整套體系已經在現網落地,同時,我們還在這個平臺上構建了一套服務層,讓上層業務可以自行開發APP使用這套集中控制系統來實現自己的需求,比如在DDOS就近清洗與一鍵封堵方面、公有云客戶流量自動切換出口方面、平臺級業務區域質量優化方面等。
      DCI廣域網絡

DCI廣域網絡同時負責構建“連接服務與服務的能力”及“連接服務與用戶的能力”,即是將鵝廠全球所有Data Center連接起來的網絡,是整個基礎網絡平臺的重中之重,前文講的多出口流量調度(海外DC與海外用戶之間的流量)也承載在這張廣域網上面。
鵝廠如何構建大型基礎網絡平臺
      上圖即為DCI網絡架構的示意圖,可以留意到在中間的位置有兩張廣域網,這個設計跟鵝廠的上層業務特點是密不可分的。最初只有一張DCI網絡,即DCI for Elastic Services,這張網絡承載了所有的廣域流量,是一張重載的網絡,我們幾年前開始使用TE技術來提高這張網絡的利用率和流量調度能力,使得這張網絡的技術迭代和建設擴容成為頻繁的日常工作,而鵝廠平臺級業務的容錯性和架構設計都非常強大,與基礎網絡配合也較為默契,使得這張網絡得以高速的發展。近些年,金融業務和公有云業務逐漸成為網絡保障的重點,這兩種業務和之前鵝廠的大流量平臺級業務的差異較大,對網絡質量和可用率都提出了極高的要求,我們為了應對公司業務這方面的變化,開始著手構建了第二張網絡(圖中的DCI for Interactive Services),來重點服務這部分業務。關于這兩張網絡特點,分別描述如下:
       · 
DCI for Elastic Services:大流量廣域網,承載了鵝廠90%以上的廣域流量,為大多數鵝廠成熟平臺級業務服務,是一張新技術快速迭代與擴容頻率較高的網絡,部分鏈路利用率有時會到達80%以上。
      · DCI for Interactive Services:精品廣域網,服務互聯網金融等對網絡質量依賴很強的業務,使用通用、成熟、穩定的技術構建,鏈路利用率控制在40%以下,無新技術迭代,擴容變更頻率也非常低。
      前文多次提到,網絡架構設計是一個龐大的系統工程,需要考慮非常多的因素,而這些因素中最基礎,以及與網絡本身最貼近的部分就是組網與技術選型了。廣域網拓撲按需建設,隨著業務的發展和流量增長,最終形成一張非常復雜的無序拓撲,對比數據中心組網有著顯著的區別,這其中的核心原因大概有以下幾點:
      · 互聯網公司分布式架構盛行,即Network as a Computer,網絡已經成為業務系統的一部分,需要高帶寬支撐業務系統的靈活構建,而數據中心內帶寬便宜,廣域網帶寬貴且時延高,故高帶寬需求和強耦合業務模塊都集中在數據中心內,跨廣域網的業務模塊間調用和帶寬使用量會謹慎很多。這就形成了數據中心內點到點每服務器帶寬高,跨廣域網點到點每服務器帶寬低這一通用現象。
      · 對于網絡來講,帶寬就意為著成本,成本主要由網元硬件成本和鏈路成本構成。數據中心網元硬件成本占大頭,鏈路成本低;而廣域網硬件成本占小頭,鏈路成本極高。
      · 綜合以上兩點,數據中心網絡通常會使用低成本、高帶寬、特性簡單的網絡設備進行構建,即“Fast and Stupid Fabric”,以最低的成本去盡可去獲取更高的帶寬。而廣域網的帶寬建設擴容會非常謹慎,基本上會按照容量使用情況來進行按需擴容,最終形成無序拓撲。
      · 關于流量調度,數據中心內部點到點帶寬管理較為粗放,因為帶寬容易獲取,且網元特性簡單,用CLOS架構堆高帶寬,每個訪問目的地都只有一個方向(ECMP視為一個方向),完全不需要調度。而廣域網拓撲無序,去往一個目的地有很多條非等價的路徑可選,當訪問關系非常龐大,且這些流量在一個無序拓撲中承載的時候,流量調度就不可避免了。
      上述四點基本描述了廣域網的特點,這些都是在做架構設計的時候要考慮的最基本的要素,那么下面就著重介紹一下鵝廠“DCI for Elastic Services”這張廣域網的構建思路。
鵝廠如何構建大型基礎網絡平臺
      廣域鏈路極貴,網元硬件成本占比很低,那么問題的關鍵就變成在獲得最佳的網絡質量的前提下,如何提高鏈路利用率了。拋開網絡,任何想提高資源利用率的領域,技術都是最關鍵的因素之一,所以我們在廣域網的技術應用上下足了功夫。試想一下,如果用傳統的路由方法去驅動這張廣域網,只會得到一個結果,就是網絡整體利用率不高,但是經常發生局部擁塞,優化團隊每天都在火燒眉毛的擴容,這個結果就比較諷刺了。而這個問題的原因就是傳統的路由方法不夠智能和感性,感知不到哪里有資源可以利用,而我們為了解決這個問題而選擇的技術方法是“集中控制的流量工程系統”,主體思路描述如下:
      · 將“路由控制系統”和“路徑控制系統”解耦,路由跟業務有關,只能決定目的地在哪里,路徑跟流量走向有關,可以決定源和目的之間可以走哪條鏈路。路由系統算出目的地之后,就交給路徑系統去找到最佳路徑,并準確送到目的地。這個思路,跟我們平時用的互聯網實時導航如出一轍。
路由控制系統由于只需要知道目的地,不關心怎么去往目的地,整體邏輯非常簡單,所以我們使用傳統的BGP來傳遞路由,這一塊不是SDN的,穩定且高效。
      · 路徑控制系統則相對復雜很多,好比我們使用導航的時候,目的地只需要輸入一下,而具體路徑則需要根據最短距離、每條路的堵車情況、紅綠燈多少、是否有限行限號等諸多因素進行判斷并計算出最佳路徑。所以路徑控制系統也需要“上帝視角”,需要對全局的拓撲、鏈路負載、時延、甚至鏈路成本進行統一考慮,并經過合理的計算得出最終的結果,所以這一塊就要借助SDN的思路來解決問題了。鵝廠的做法是路徑集中控制,控制器將全網需要的信息全部上收,并進行集中計算,最終得出一定數量的點到點Tunnel供路由控制系統使用,并且控制器要實時感知網絡故障和流量變化的情況來進行全網最佳路徑優化,保證所有的訪問流量都可以實時獲得最好的網絡質量。
      · 傳統的RSVP-TE也是類似的解決方案,不過稍顯重載和復雜,包括跨硬件平臺互通性問題、網元設備復雜度高成本高、Tunnel數量太多導致RSVP消息量的壓力與風險,這些都給大規模的TE部署帶來了一些挑戰,但最大的問題是,所有路徑都是頭端節點計算,不同需求互相搶占資源,達不到全網整體最優,即沒有“上帝視角”。
      · 除此之外,在這張廣域網上還部署了差異化服務,即流量分級,不同等級的流量享受不同級別的服務,在嚴重故障發生時,高級別流量優先保障最好的網絡質量,低級別流量可能會被搶占帶寬而進行繞行甚至丟包。這也是廣域網的核心技術之一,保障重點流量的同時,可以將整體資源利用率提升至很高的水平,形成可靠性和利用率之間的較好平衡。
      
總結
      
構建大型基礎網絡平臺是一個非常需要團隊耐心和意志力的復雜系統工程,需要非常強的規劃設計能力,但更為重要的是在運營過程中,結合業務規劃的變化、產業鏈的變化、通信環境的變化、主要矛盾的變化、綜合成本構成的變化等因素,能夠敏捷的跟進和調整。本文涵蓋的內容較廣,筆者用較小的篇幅來講實現細節,而較多的內容聚焦在鵝廠在做這些工作時候的一些思路和經驗,希望能給大家帶來一點點參考價值。


向AI問一下細節

免責聲明:本站發布的內容(圖片、視頻和文字)以原創、轉載和分享為主,文章觀點不代表本網站立場,如果涉及侵權請聯系站長郵箱:is@yisu.com進行舉報,并提供相關證據,一經查實,將立刻刪除涉嫌侵權內容。

AI

舞钢市| 常德市| 福建省| 永登县| 绥宁县| 水富县| 瓮安县| 巴塘县| 潍坊市| 含山县| 积石山| 仁布县| 乐安县| 全南县| 江孜县| 德兴市| 比如县| 昌图县| 博爱县| 大荔县| 逊克县| 十堰市| 皋兰县| 和林格尔县| 伊吾县| 南皮县| 顺昌县| 崇义县| 彭泽县| 吉水县| 合肥市| 松阳县| 通辽市| 呼伦贝尔市| 化德县| 嘉定区| 磴口县| 碌曲县| 布拖县| 五大连池市| 通化市|