為何要進行數據中心聚合?
?
圍繞數據中心聚合的宣傳,以及選擇FCoE還是iSCSI之間的斗爭會使人忽略核心的問題:最終所有的存儲都將通過生產環境的Ethernet網絡傳輸,而工程師必須為這個轉變做好準備。
聽供應商的介紹會讓人心煩意亂,因為他們講的每件事都是從自己的角度出發看問題。Cisco Systems和Brocade是FCoE的主要推動者。而同時,Dell告訴它的客戶在Ethernet上使用iSCSI是聚合發展方向。諸如Intel這樣的芯片供應商和諸如QLogic和Emulex這樣的網絡適配器供應商則都積極準備,以支持企業選擇的任意一種技術。
企業必須忽視供應商的宣傳,相反要考慮他們現有的基礎架構投入,以便決定選擇哪種技術。他們也必須理解網絡聚合可能是小規模地增長,不可能在短期內超過機架級的增長。
“一般當客戶來找我們時,他們已經選擇了一種聚合類型,而我們必須讓他們了解到實際上還有很多不同的選擇,并且它們不是互相排斥的,”大型系統集成商的數據中心實踐技術解決方案架構師Joe Onisick說道。
為什么需要數據中心網絡聚合?
隨著10Gigabit Ethernet (GbE)、服務器虛擬化和其它技術的廣泛應用,企業必須認真處理網絡聚合,以便控制資金和運營花費,并降低復雜性。
“如果您在一個機架上部署了很多服務器,特別是VMware機架,那么您可能需要為每臺服務器配備10條Gigabit Ethernet銅線連接和2條Fibre Channel連接,”位于田納西州的連鎖醫院Wellmont Health System的技術總監Darren Ramsey說道?!凹偃缒臋C架上有10臺服務器,那就需要120條電纜。這要耗費大量的人力,是非常不靈活的布線,并且會產生大量的熱量。同時,交換機端口也不便宜?!?/p>
在他的數據中心中,Ramsey最近通過使用Cisco的Nexus線在8個虛擬化Dell服務器機架中引進了網絡聚合。他將每臺服務器上的10個NICS和2個主線適配器(HBA)合并為2個QLogic聚合網絡適配器(CAN),從而為冗余的頂級機架Nexus 2232 Fabric Extenders提供2條10 GbE FCoE連接。全部共8對Nexus 2232 Fabric Extenders將上行流連接到2臺冗余的Nexus 5020交換機上。存儲和數據流量通過FCoE聚合到Nexus 5020上。這樣,存儲流量就可以返回到本地Fibre Channel,然后連接到存儲區網絡(SAN)中的一對Cisco MDS 9506 Director交換機上。生產數據流量會繼續連接上行到Catalyst 6509交換機。
“FCoE優化并減少了我們所需的Fibre Channel端口數,因為所有的主機現在都直接在Nexus上運行,”Ramsey說道。“我們不再需要從服務器直接連接到MDS上。同時它還減少了每個機架的復雜性。當我們在每臺服務器上使用2條10 Gigabit連接時,我們就能夠在該設備上運行更多的虛擬機?!?/p>
非常好我支持^.^
(1) 100%
不好我反對
(0) 0%
相關閱讀:
- [電子說] IBM Security可落地經驗助企業構筑現代化安全屏障 2023-10-24
- [電子說] Andes旗下高性能多核矢量處理器IP的AX45MPV正式上市 2023-10-24
- [電子說] Marvell高速芯片互連采用臺積電最新3nm工藝,傳輸速率每秒240Tbps 2023-10-23
- [電子說] 用芯連接,渠道共創 | 2023英特爾中國區數據中心渠道客戶會高能集錦 2023-10-21
- [處理器/DSP] 深入探討Granite Rapids和Sierra Forest處理器架構技術 2023-10-20
- [通信網絡] 智算中心網絡架構設計及組網實踐案例 2023-10-20
- [電子說] 高帶寬低延時遠程flash訪問架構解析 2023-10-20
- [電子說] 數據中心短缺:人工智能未來的致命阻礙? 2023-10-20
( 發表人:葉子 )