您好,登錄后才能下訂單哦!
VMware vSphere
5.1
Clustering Deepdive
HA.DRS.Storage DRS.Stretched Clusters
Duncan Epping &Frank Denneman
Translate By Tim2009 / 翻譯:Tim2009
目錄
版權
關于作者
知識點
前言
第一部分 vSphere高可用性
第一章 介紹vSphere高可用性
第二章 高可用組件
第三章 基本概念
第四章 重新啟動虛擬機
第五章 增加高可用靈活性(網絡冗余)
第六章 訪問控制
第七章 虛擬機和應用監控
第八章 集成
第九章 匯總
第二部分 vSphere DRS(分布式資源調度)
第一章 vSphere DRS介紹
第二章 vMotion和EVC
第三章 DRS動態配額
第四章 資源池與控制
第五章 DRS計算推薦
第六章 DRS推薦向導
第七章 DPM介紹
第八章 DPM計算推薦
第九章 DPM推薦向導
第十章 匯總
第三部分 vSphere存儲DRS
第一章 vSphere存儲DRS介紹
第二章 存儲DRS算法
第三章 存儲I/O控制(SIOC)
第四章 數據存儲配置
第五章 數據存儲架構與設計
第六章 對存儲vMotion的影響
第七章 關聯性
第八章 數據存儲維護模式
第九章 總結匯總
第四部分 群集架構的擴展
第一章 群集架構的擴展
第二章 vSphere配置
第三章 故障排錯
第四章 總結匯總
第五章 附錄
(端午節回了趟武漢,現在繼續更新,還請見諒)
第四部分 群集架構的擴展
第一章 群集架構的擴展
在這部分我們將繼續討論特定的基礎架構、怎樣利用HA,DRS和存儲DRS以及怎樣部署增加可用性。無論是你的工作量還是資源提供給你的工作量,我們將通過一些設計建議和決策方法來進行指導。當然,為了在實施的細節上做出合適的決定,完全了解你的環境是必要的。無論如何,我們希望這個部分能提供一個恰當的方式理解如何將某些功能放到一起,如何在你的環境接收到需求的時候,建立理想的架構。
場景
我們選擇是場景是擴展群集,也會提到Vmware vSphere Metro Storage Cluster解決方案。我們選擇指導的場景來允許我們解釋多個設計和架構考慮。盡管場景已經測試過,在我們的實驗環境中也有效,每個環境是獨一無二的,我們的建議基于我們的經驗和你的情況可能不同。
一個VMware vSphere Metro Storage Cluster (vMSC)配置是Vmware vSphere 5認證的解決方案,基于群集結合存儲陣列同步復制。這個解決方案通常部署在數據中心距離上有限制的環境,往往大都市或者校園環境。
擴展群集模式主要的優勢是使數據中心充分活躍和工作負載平衡,因為站點之間虛擬機的遷移和存儲vMotion的能力,許多客戶發現了其吸引力,開啟 on-demand和non-intrusive來跨站點移動工作負載,群集的擴展能力提供主動負載平衡自由,這應該是主要的設計和實施目標。
擴展群集解決方案提供的好處:
工作負載移動性
跨站點自動負載平衡
增強避免停機時間
避免災難
技術需求和約束
因為虛擬機在線遷移的技術約束,有一些指定的需求必須在擴展群集實施時需要考慮,這些需求在Vmware 硬件兼容向導中存儲部分的清單中,包括如下:
存儲連接使用光纖通道,ISCSI,SVD(存儲虛擬化設備)和支持FCOE
存儲連接使用NAS(NFS協議)在寫入的時候不支持vMSC配置(2012年8月)
在站點和ESXi管理網絡之間支持的最大網絡延遲為10ms往返時間(Round Trip Time (RTT))
注意vMotion僅僅在企業加強版的license下才支持的10ms延遲(Metro vMotion)
為了同步存儲重復鏈接支持最大的延遲是5ms(Round Trip Time (RTT)),通常你的存儲廠商會提供它們允許的最大的RTT
ESXi的vMotion網絡至少需要622Mbps的冗余網絡鏈路
存儲的需求比存儲同步復制解決方案要復雜一些,一個vSphere Metro Storage Cluster請求會由單個存儲子系統擴展到站點,在這個設計中,提供的數據存儲必須可以訪問(能讀能寫),并同時來自于兩個站點。更進一步,當問題出現,ESXi主機必須能繼續從任一站點訪問數據存儲,不影響正在進行的存儲操作。
這排除了傳統的同步復制解決方案,當他們在活動的(主)LUN之間創建主/備關系,數據被訪問,備LUN正在收到復制操作,在這些解決方案中,為了訪問備LUN,重復必須停止(或者撤銷),LUN可見主機,現在升級了的備LUN有了完全不同的LUN ID,本質上是一個新的可用副本,這種類型的解決方案適用于適用于傳統的災難恢復。預計虛擬機需要在第二站點上啟動,vMSC需要同時配置第二站點,vMSC需要同時配置不影響訪問,所以站點之間還是允許運行著的虛擬機進行遷移;正常的vMotion不會遷移虛擬機的磁盤文件。
vMSC的存儲子系統必須在兩個站點上同時讀寫,所有磁盤寫入站點同步來確保數據一致性。寫無論本地從哪個位置讀取,存儲架構在群集站點間調用需要大量的帶寬和非常低的延遲,增加距離和延遲將引起磁盤寫入延遲,使得性能大打折扣,將不允許在群集站點的不同地點之間成功執行vMotion。
統一和非統一
vMSC解決方案在不同區域目錄中分類,這些分類基于不同基礎的主機訪問存儲。理解不同類型的擴展存儲解決方法非常重要,它會影響到你的設計,有個主要的目錄在VMware 硬件兼容性列表中有描述:
統一主機訪問配置–兩個站點的ESXi主機要連接全部站點存儲群集上的存儲節點來訪問,提交ESXi主機的路徑是擴展訪問距離
不統一的主機訪問配置–每個站點的ESXi主機只連接同一站點的存儲節點,提交ESXi主機的路徑的存儲節點限制在本地站點。
讓我們從架構和實施角度描述更深一些來確保它們足夠清晰。
統一,數據中心-A和數據中心-B的主機既能訪問數據中心A存儲系統又能訪問數據中心B存儲系統。實際上,存儲區域網絡在站點和所有主機之間被擴展從而能訪問所有的LUN,在這些配置中,讀寫訪問LUN發生在兩個陣列之一上,同步鏡像被維護隱藏,在第二陣列處于只讀狀態。例如,如果LUN包含的數據存儲在數據中心-A的陣列上可讀寫,所有的ESXi主機將通過數據中心A的陣列進入數據存儲,為了數據中心A的ESXi主機,會有一個本地訪問,數據中心B ESXi主機上的運行著虛擬機的位于數據存儲上,為了防止停機或者LUN的操作控制轉換到數據中心-B上,所有的ESXi主機將繼續查看在場的相同的LUN,除了已經訪問了數據中心-B的ESXi主機。
圖160:統一存儲架構
正如你所看到的,理想的情況是一個虛擬機同一個數據中心通過陣列控制(讀寫)訪問的數據存儲,這最大限度的減少了數據中心之間的流量,避免了讀取整個互連性能的影響。
虛擬機的站點關聯的概念是由數據存儲的讀寫副本支配,“站點關聯”一些時候也稱之為“site bias”或者“LUN locality”,意味著當數據中心A上的虛擬機有站點關聯,它讀寫數據中心A位于數據存儲上的副本,這已經在DRS章節中解釋得較詳細。
不統一:數據中心A上的主機只能訪問數據中心本地的陣列,陣列(相反的數據中心的同級陣列)負責提供全部的數據存儲大家訪問,在大多數場景中虛擬機用到了這個概念,它允許每個數據中心上的ESXi主機讀寫同一個數據存儲/LUN。
很好理解,即使兩個虛擬機在同一個數據存儲,但位于不同的數據中心,它們會寫到本地,在此配置的一個關鍵點是,定義每個LUN/數據存儲的站點關聯(Site Affinity),還有時候需要涉及到“Site bias”或者“LUN locality”。換句話說,如果在站點和站點上的存儲系統之間的鏈路上發生一些事情,站點為了個給數據存儲將只有讀寫方式的能夠訪問,這當然是為了在失敗的場景下阻止數據損壞。
圖161:不統一的存儲架構
作為統一的解決方案是當今最常用的部署,我們的測試情況下將使用統一存儲,應當指出,許多的設計考慮也適用于非統一配置,若不是這種場景的情況,我們會進行收集。
場景架構
在這部分我們將為場景描述架構配置,我們還將討論一些基本的配置和多樣的vSphere功能,為了更深的解釋各自的功能,涉及到此書HA和DRS部分,我們將基于VMware最佳實踐和提供的操作手冊來提出針對建議,在我們失敗的場景中將解釋怎樣在實踐中阻止和限制停機時間。
架構
一個由單個vSphere 5.1群集和4個ESXi主機組成的架構場景,vSphere vCenter服務器管理這些主機,它決定使用vSphere 5.1來測試提高改進vSphere 5.0 U1中介紹的“永久設備丟失”(PDL)場景。介紹的這些加強的功能主要用于擴展群集環境。我們將在此章節討論vSphere HA部分更詳細的內容。值得注意的是在vSphere 5.1中PDL行為方面沒有任何改變。
為了我們測試目的,我們模擬有兩個站點的用戶環境,第一個站點叫Frimley,第二個站點叫Bluefin。Frimley數據中心和Bluefin數據中心之間是擴展2層網絡,學校群集之間的距離是最小的距離,vCenter Server和虛擬機運行在同一個群集上。
每個站點有兩個ESXi主機,Bluefin數據中心的vCenter Server配置了vSphere DRS管理主機,在擴展群集環境中只有一個vCenter Server實例是使用的,不同于傳統的VMware Site Recovery Manager配置需要兩個vCenter Server。在第15章討論了配置VM-Host關聯規則,在我們的場景中使用ISCSI為主要協議。
在vSphere 5.1群集通過統一設備接入模式的光纖配置連接上NetApp MetroCluster。此配置在NetApp的技術白皮書“TR-3548”中有深入描述。這意味著群集里每個主機連接了兩個存儲節點。每個節點連接到兩個光纖交換機,第二區域的節點還連接到兩個類似的交換機,對于任何給定的LUN,兩個存儲節點中的任何一個呈現的LUN是通過ISCSI讀寫。
與此相反的存儲節點保持著復制,只讀副本有效的隱藏起來,直到ESXi主機需要。
當使用NetApp MetroCluster,一個ISCSI連接綁定一個指定的虛擬IP地址,ESXi主機上的這個虛擬IP地址用來連接存儲控制器。在失敗的場景中,IP-Address轉換到相反的存儲控制器,允許無縫訪問目標存儲的IP地址,而不需要重新配置。
總計創建了8個LUN:4個通過虛擬ISCSI IP地址訪問Frimley數據中心,另外4個通過虛擬ISCSI IP地址訪問Bluefin數據中心。
圖162:基礎結構
表27:基礎架構
免責聲明:本站發布的內容(圖片、視頻和文字)以原創、轉載和分享為主,文章觀點不代表本網站立場,如果涉及侵權請聯系站長郵箱:is@yisu.com進行舉報,并提供相關證據,一經查實,將立刻刪除涉嫌侵權內容。