如何使用SAS Switch 技術(第二部分優化服務)
共享啟動盤的服務
本文引用地址:http://www.104case.com/article/283643.htm在基于SAS Switch的硬件構架之上易于實現一系列的優化服務。比如共享啟動盤的管理。在機群上的每個服務器都需要一個裝有該機器應該運行的操作系統的盤卷,此外通常還需要提供虛存對換空間以及根文件系統。前者作為操作系統的軟件映像通常是只讀的,且在大型數據中心中,不同機器之間采用重復的操作系統的映像的可能性很高。后者通常需要可寫,并且機器之間共享的可能性不大,但后者通常所需的空間較小。要為成百上千的服務器結點管理這些盤卷,既需要硬件成本,又是個運維的負擔。提供低成本,便利,有可靠的啟動盤卷服務,是一個有價值的挑戰。
有了SAS Switch我們可以試圖在物理盤的層次支持共享啟動盤卷的。 采用把一個(或采用一對共享盤來提供熱備份)高性能的盤(例如SAS SSD) 在物理上創建多個分區。可有兩類分區,第一類存放共享的操作系統的靜態映像,不同分區對應于機群上可能要使用的不同的操作系統版本,第二類分區,是用于存放單臺機器的根文件系統,因此需要為每臺單獨服務器創建一個根文件系統分區。把這個共享啟動盤連接到SAS Switch的拓撲上,然后可通過SAS Switch 把該盤共享給所有需要通過它來啟動的服務器結點。在服務器側,需要安裝一個UEFI BIOS應用,用以負責接受SAS Switch的管理配置(包括使用SAS Switch所指定的盤,特定分區上找到操作系統映像,并用另一個所指定的分區上找到根文件系統)來進行物理服務器的啟動操作。

在上圖所展示的例子中,兩臺服務器(server 0, server 1)通過SAS Switch共享了一個啟動盤。 其中服務器0 采用了OS分區1上的操作系統,并把自己的根文件系統放在私有的RFS1分區上,而服務器1同樣采用了OS分區1上的操作系統,而把根文件系統放在了私有的RFS2分區上,因此兩太服務器在運行時不會互相干擾。
這樣的簡單方法,會導致系統的可靠性下降。如果共享的啟動盤發生硬件故障,會導致整個機群的不能啟動。可以通過在系統中配置兩個或多個共享啟動盤來提高系統可靠性。比如通過SAS Switch為每臺服務器結點配置3個共享啟動盤以及在啟動盤上的相應分區。在服務器的UEFI 啟動應用上,當發現第一個啟動盤正常工作時,切換到使用第二或第三個啟動盤。并且還需要把3個共享啟動盤安裝在不同的故障域內(例如:位于不同的JBOD當中,甚至在不同的機架中)。這樣,單個共享啟動盤的故障不會導致整個機群的故障。
采用共享的啟動盤,除了可以消除每臺服務器內安裝兩個啟動盤的成本,還帶來其他運維上的便利性。操作系統和應用的升級可以通過在共享的啟動盤上更新操作系統映像分區的數據來完成,而不需要對每臺服務器結點的映像進行逐一更新。而當服務器結點硬件發生故障時,只需更新服務器,而不需重新安裝操作系統和軟件。這些可在大規模數據中心中節約大量的運維成本。
動態業務的彈性遷移和保護
在一個SAS Switch構成的域內由于所有服務器結點都能訪問到所有存儲資源,這為動態業務的彈性遷移和保護提供了基礎。
以一個Hadoop大數據分析的業務機群為例。 在該例子中,初始配置了10臺服務器和20個數據盤。每個服務器上分配了2個HDFS數據盤。通過機群管理系統對系統的運行狀態進行性能評測和監控,這包括了動態測量每臺服務器的CPU使用效率,IOPS, 帶寬等,并且對每個盤的IOPS和帶寬也進行檢測。動態檢測的結果發現Hadoop結點上CPU的使用效率只有18%。 管理調度層 (通過人工干預或自動調度的策略)決定對該Hadoop 機群進行資源的重新配置,并決定把計算服務器結點減少到2個,并把原有的20個HDFS數據盤重新分配到剩余的2個服務器上,每個服務器接管10個HDFS 數據盤。新的資源配置通過管理接口配置到SAS Switch上。這個重新配置可在Hadoop業務在線的情況下完成。被釋放的8個空閑的CPU可重新分配給機群上的其他業務使用。即使在沒有其他業務可利用這8個CPU的情況下,也可以把把它們設置到睡眠等節省電能的狀態。而剩余的2個CPU在重新配置完成后繼續執行原有的Hadoop計算業務。重新配置后剩余的CPU可基本達到接近100%的利用效率。
對需要高可靠性的業務,也可通過SAS Switch實現業務保障。例如采用1:1或N:1的保護倒換的方法,在一個服務器結點發生故障時,把該結點承擔的業務調度到機群內一個空閑的服務器結點,并且把原有分配給發生故障的服務器的存儲資源重新分配給替換的服務器結點,這樣的動態替換可在業務在線的情況下完成,從而保證業務的持續性。
超融合存儲
目前存儲業界對超融合存儲(例如: Nutanix, VMWare VSan)或稱 Server SAN的技術有很多關注。這類技術正在經歷高速增長的發展。對傳統的SAN和存儲系統造成了嚴重的沖擊。
該技術有3個突出的特點:1)采用標準服務器而不采用專門的硬件系統來實現存儲業務層的功能。2)完全采用軟件技術來實現機群內的所有服務器直接連接的存儲(DAS)資源的池化。3)采用機群內的服務器結點既運行存儲業務,也運行用戶的應用。即用戶的業務應用程序和超融合的存儲業務共生在同一服務器結點上。
表面看來,該技術應該可消除專門用于連接存儲資源的存儲交換網絡(如SAN等Storage Fabric),還可消除傳統的專用存儲系統硬件。而完全采用通用服務器的硬件系統。但是,生產服務器的廠商卻有不同的看法:超融合存儲軟件極大地催生了對SAS Switch 這類簡單的后端存儲Fabric技術,以及存儲資源解耦合的硬件構架在刀片和機架服務器上的應用,即采用高密度刀片或機架服務器+SAS Switch+JBOD的硬件構架來實現超融合系統。
歸納下來有如下原因:
1)通過把盤從刀片或機架服務器內部挪到更便宜的JBOD上,優化了“地價”成本,從而使得服務器計算結點密度提高,成本降低。這個優化的思路在本文的第一部分已有論述。
2)由于用戶應用程序和存儲業務共生在同一個CPU上,而用戶應用對硬件資源的需求最優配比千差萬別,難以向所有用戶推薦統一的集成了CPU和存儲資源的磚塊服務器型號。而要根據用戶的具體應用來進行優化,這就需要把存儲和計算解耦合。
3)在公有云,VDI等許多應用場景,需要支持在同一個機群硬件設施上支持多個房客(Multi-Tenant),而出于數據安全的考慮,許多客戶要求服務提供方保證他們的私有數據和其他訪客的數據在物理上隔離(即存放在物理隔離的盤上,物理上保障其他用戶的虛擬機不可能訪問到他們的私有數據)。這樣的物理隔離在SAS Switch上很方便就可實現。
綜上所述,我們十分欣慰地看到,SAS Switch 在大型數據中心以及企業存儲領域的許多應用場景已經開始進入大規模部署的階段。我們過去幾年所提倡的解耦合,存儲資源池化的設想也隨之變成現實。在中國數據中心的天蝎2.0的機架上,我們看到了基于SAS Switch的產品日趨成熟。這催生了中國數據中心在這個技術路線上的超越美國率先進入了存儲池化的時代,讓云技術更先進,更有彈性,更經濟,更環保。而在國際市場上,我們也看到了主流服務器廠商以及各類數據中心的積極跟進。2015年 SAS Switch 正當時。
評論