精品国产人成在线_亚洲高清无码在线观看_国产在线视频国产永久2021_国产AV综合第一页一个的一区免费影院黑人_最近中文字幕MV高清在线视频

0
  • 聊天消息
  • 系統消息
  • 評論與回復
登錄后你可以
  • 下載海量資料
  • 學習在線課程
  • 觀看技術視頻
  • 寫文章/發帖/加入社區
會員中心
創作中心

完善資料讓更多小伙伴認識你,還能領取20積分哦,立即完善>

3天內不再提示

介紹一種高性能計算和數據中心網絡架構:InfiniBand(IB)

sakobpqhz ? 來源:網絡技術聯盟站 ? 2024-03-13 17:14 ? 次閱讀

InfiniBand(IB)是一種高性能計算和數據中心網絡架構,其設計目標是通過提供低延遲、高帶寬以及可擴展性來滿足大規模計算和數據傳輸的需求。讓我們深入了解InfiniBand的基本概念。

InfiniBand網絡采用點對點的直連架構。每個設備,如服務器、存儲設備或其他計算資源,都通過InfiniBand適配器直接連接到網絡,形成一個點對點的通信結構。這種設計有助于降低通信的延遲,提高整體性能。

InfiniBand網絡的物理層和數據鏈路層規定了數據在傳輸過程中的基本原則。物理層負責傳輸比特流,而數據鏈路層則處理流控、錯誤檢測和糾錯等任務。這兩個層次的協同工作確保了數據在InfiniBand網絡中的可靠傳輸。

InfiniBand網絡支持不同的傳輸速率,通常以Gbps(千兆比特每秒)為單位。例如,InfiniBand架構最初支持的是單數據率(SDR)為20 Gbps、雙數據率(DDR)為40 Gbps,以及四數據率(QDR)為80 Gbps。隨著技術的進步,還出現了更高速率的版本,如四teen數據率(FDR)為56 Gbps和電信號強化(EDR)為100 Gbps。

01.網絡拓撲

InfiniBand網絡支持多種拓撲結構,使其適用于各種應用場景。

總線拓撲(Bus Topology):設備連接到單一的總線上,適用于小規模集群。

環形拓撲(Ring Topology):設備按環形連接,形成封閉的通信環境。

樹狀拓撲(Tree Topology):設備以分層的樹狀結構連接,提供更好的可擴展性。

網狀拓撲(Mesh Topology):設備以網狀連接,適用于大規模、高性能計算環境。

InfiniBand的靈活拓撲結構使其適用于不同規模和性能需求的應用。

02.通過InfinBand 傳輸數據

在傳統的互連結構中,操作系統通常是共享網絡資源的唯一所有者,這導致應用程序無法直接訪問網絡。相反,數據傳輸通常需要依賴操作系統將數據從應用程序的虛擬緩沖區傳輸到網絡堆棧和線路。然而,InfiniBand技術的引入改變了這一傳統的網絡交互模式。

在傳統網絡結構中,應用程序需要通過操作系統來實現數據的傳輸。

這個過程包括:

應用程序緩沖區:數據通常存儲在應用程序的緩沖區中,等待被傳輸。

操作系統介入:應用程序通過系統調用等方式請求操作系統將數據傳輸到網絡堆棧中。

網絡堆棧傳輸:操作系統將數據從應用程序緩沖區傳輸到網絡堆棧,其中包括協議棧的處理,例如TCP/IP協議。

網絡線路傳輸:最終,數據通過網絡線路傳輸到目標節點。

這種結構下,應用程序無法直接控制網絡的數據傳輸,而是依賴于操作系統進行中介。

InfiniBand技術的突出特點之一是以應用為中心的網絡交互方式。這種方式下,應用程序能夠直接通過網絡進行數據的交換,而無需直接涉及操作系統。以下是InfiniBand實現應用為中心方式的關鍵機制:

遠程直接內存訪問(RDMA

InfiniBand網絡支持遠程直接內存訪問(RDMA)技術。通過RDMA,應用程序可以在不涉及操作系統的情況下直接訪問和交換內存中的數據。這種直接的內存訪問方式消除了傳統網絡結構中的中介步驟,大大降低了數據傳輸的延遲。

用戶空間網絡堆棧

InfiniBand網絡允許在用戶空間中實現網絡堆棧,使得應用程序能夠直接處理網絡協議。這樣一來,應用程序不再需要通過操作系統的內核空間進行數據傳輸,而是可以直接在用戶空間中完成網絡操作,提高了效率和靈活性。

零拷貝技術

InfiniBand還支持零拷貝技術,通過這一技術,應用程序可以直接在內存中操縱數據,而無需將數據復制到中間緩沖區。這降低了數據傳輸的開銷,提高了效率。

通過InfiniBand實現應用為中心的網絡交互方式,帶來了一系列優勢,并與傳統網絡結構形成了關鍵區別:

1、低延遲

由于應用程序能夠直接進行數據交換,而無需經過多層的操作系統介入,因此InfiniBand網絡實現了更低的傳輸延遲。這對于對延遲要求較高的應用場景非常重要。

2、高帶寬

InfiniBand的應用為中心方式能夠更有效地利用網絡資源,提高了整體的帶寬利用率。這使得InfiniBand網絡在大規模數據傳輸和高性能計算等方面表現出色。

3、高效能

通過支持RDMA、用戶空間網絡堆棧和零拷貝技術,InfiniBand實現了更為高效的數據傳輸方式。這種高效能直接影響到應用程序的性能和響應速度。

4、靈活性

應用為中心的方式使得應用程序更靈活地控制數據傳輸和網絡操作,無需過多依賴于操作系統的限制。這為應用程序提供了更大的自主性和定制性。

03.InfinBand 架構與 TCP/IP

InfiniBand架構與傳統的TCP/IP模型在網絡通信中有著顯著的差異,尤其在分布式存儲和高性能計算領域的應用上。

InfiniBand 架構

InfiniBand架構分為五層,類似于傳統的TCP/IP模型。這五層分別是:

物理層:處理硬件接口電氣光學傳輸等底層細節。

數據鏈路層:負責數據的封裝和解封裝,錯誤檢測和糾正。

網絡層:處理數據的路由和轉發,確保數據在不同設備之間的正確傳遞。

傳輸層:負責端到端的可靠數據傳輸,包括流控制和錯誤恢復。

應用層:提供網絡服務給應用程序,如傳輸控制協議(TCP)、用戶數據報協議(UDP)等。

InfiniBand在分布式存儲領域,尤其是在分布式并行計算(DPC)場景的存儲前端網絡中得到廣泛應用。其強調高性能、低延遲,適用于大規模并行計算機集群和需要高吞吐量的應用場景。

TCP/IP則更為普遍地應用于商業網絡和一般互聯網通信。它是目前互聯網通信的主流協議,用于支持各種應用,包括網頁瀏覽、電子郵件、文件傳輸等。

InfiniBand架構通過引入遠程直接內存訪問(RDMA)技術等創新,解決了網絡傳輸過程中服務器端數據處理的延遲問題。RDMA技術允許通過網絡接口直接訪問內存數據,無需內核干預,從而實現高吞吐量和低延遲的網絡通信。

傳統的TCP/IP網絡通信通常涉及通過內核進行消息傳輸,導致數據移動和復制成本較高。這在高并發、低延遲應用場景下表現出一定的局限性。

InfiniBand的RDMA技術和應用為中心的設計使其特別適合大規模并行計算機集群,提供高性能、低延遲的數據傳輸。然而,它在普通商業網絡中的應用相對有限。

TCP/IP是互聯網通信的事實標準,適用于各種應用場景。然而,其在高性能計算和大規模并行計算方面的性能限制,使得在這些領域需要更高性能的解決方案。

04.支持的上層協議

InfiniBand架構支持多種上層協議,這些協議在不同的應用場景中發揮著關鍵作用。

1. SCSI 協議(小型計算機系統接口)

SCSI是一種用于計算機和外部設備之間數據傳輸的標準接口協議。它支持各種外圍設備,包括磁盤驅動器、打印機和其他存儲和輸入輸出設備。在InfiniBand架構中,SCSI協議的支持使得InfiniBand能夠與各種外圍設備進行高效的數據傳輸,為存儲和I/O操作提供了通用的標準接口。

2. IPoIB 協議(IP over InfiniBand)

IPoIB協議允許通過InfiniBand網絡進行IP數據傳輸。它是InfiniBand與TCP/IP協議棧相集成的關鍵協議,使得InfiniBand在互聯網和商業網絡中能夠無縫地與現有的IP網絡進行通信。IPoIB協議的支持擴展了InfiniBand的應用領域,使其能夠在更廣泛的網絡環境中發揮作用。

3. SDP 協議(套接字直接協議)

SDP(Socket Direct Protocol)協議是為通過InfiniBand網絡進行套接字通信而設計的協議。它提供高性能、低延遲的數據傳輸,為需要快速而可靠通信的應用程序提供了支持。SDP協議的引入使得InfiniBand成為一種適用于更廣泛應用領域的通信協議,尤其在需要低延遲的場景中表現優異。

4. MPI(消息傳遞接口)

MPI(Message Passing Interface)是一種在并行計算中進行進程間通信的標準協議。它常用于高性能計算(HPC)應用程序,其中多個處理單元需要協同工作。通過支持MPI協議,InfiniBand架構為HPC應用提供了高效、可靠的消息傳遞機制,促進了大規模并行計算的發展。

這些上層協議的支持使得InfiniBand不僅在高性能計算環境中表現出色,同時也適用于大規模存儲、網絡通信以及其他需要高性能和低延遲的應用場景。這豐富的協議支持為InfiniBand架構賦予了靈活性和廣泛的適用性。

05.遠程直接內存訪問(RDMA)

InfiniBand網絡最引人注目的特性之一是遠程直接內存訪問(RDMA)。RDMA允許數據在不涉及主機CPU的情況下直接在內存中傳輸,從而降低了通信的延遲和CPU的負擔。這對于高性能計算和數據中心應用非常重要,特別是在需要大規模數據傳輸的場景下。

舉例來說,當一臺服務器需要從另一臺服務器的內存中讀取或寫入數據時,使用RDMA可以避免涉及中間步驟,直接在兩臺服務器之間進行數據傳輸,提高了數據傳輸的效率和速度。

InfiniBand網絡在性能方面表現出色,這使其成為高性能計算領域的首選網絡架構之一。以下是一些導致其性能優勢的關鍵因素:

低延遲:InfiniBand網絡的點對點直連結構以及支持RDMA技術,使其具有低延遲的特點,適用于對通信延遲要求較高的應用。

高吞吐量:高傳輸速率和并行性質使InfiniBand能夠支持大規模數據集的高吞吐量傳輸,對于需要大量數據處理的應用非常重要,例如科學計算、模擬人工智能等領域。

可擴展性:不同拓撲結構的支持以及InfiniBand架構的設計使其在大規模計算集群中具有出色的可擴展性。

InfiniBand網絡在多個領域得到廣泛應用,其中一些典型的應用場景包括:

超級計算:InfiniBand在超級計算環境中廣泛應用,支持大規模并行計算任務,提供出色的性能和可擴展性。

數據中心:用于連接服務器、存儲系統和其他網絡設備,滿足數據中心對高性能和低延遲的需求。

人工智能:深度學習機器學習等人工智能領域,InfiniBand網絡能夠支持大規模數據集的快速傳輸和分布式計算。

以太網等其他網絡技術相比,InfiniBand在某些方面具有獨特的優勢。然而,不同的應用場景可能需要根據具體需求選擇合適的網絡技術。以下是一些比較方面:

延遲與帶寬:InfiniBand通常在延遲和帶寬方面表現更為出色,適用于對性能要求較高的應用。

成本與普及度:以太網技術更為普及,而InfiniBand設備和基礎設施通常較為昂貴,因此在一些低成本和小規模場景中可能不是首選。

應用領域:InfiniBand在高性能計算和數據中心等特定領域表現卓越,而以太網則更廣泛應用于企業和通用數據傳輸。

06.硬件中的傳輸層

在InfiniBand架構中,傳輸層的設計采用了一種特殊的方式,通過建立虛擬通道來連接兩個應用程序,從而實現它們在完全獨立的地址空間中進行通信。這種設計優勢在于利用直接硬件數據傳輸,從而提高通信效率和性能。

InfiniBand引入了虛擬通道的概念,這是在傳輸層中用于連接兩個應用程序的通道。通過建立虛擬通道,不同的數據流可以在網絡中獨立傳輸,而無需相互競爭網絡帶寬。每個虛擬通道都有自己的特定屬性和服務質量,使得通信能夠更加靈活和高效。

InfiniBand架構中的傳輸層設計中,消息直接通過硬件進行傳輸,無需主機處理器的干預。這一特性被實現通過引入遠程直接內存訪問(RDMA)技術,允許數據在網絡適配器之間直接傳遞,繞過主機內存。這種直接硬件數據傳輸的方式帶來了多重優勢:

1、提高通信效率

通過直接硬件傳輸,消息在網絡中的傳輸路徑更為直接,減少了數據傳輸的中間步驟。這有助于提高通信效率,降低了傳輸的延遲。

2、提升性能

無需主機處理器的干預意味著數據可以更快速地在網絡適配器之間傳遞。這對于高性能計算和大規模并行計算等對性能要求較高的應用場景非常重要。

3、降低系統開銷

直接硬件數據傳輸減少了在數據傳輸過程中涉及主機處理器的操作,從而降低了系統的開銷。這對于提升系統整體的性能和資源利用率具有積極影響。

在消息傳輸過程中,硬件中的傳輸層通過虛擬通道實現兩個應用程序的連接。消息直接通過硬件傳輸,無需主機處理器的干預。一旦消息到達接收端,它將直接傳遞到接收應用程序的緩沖區,無需經過額外的處理步驟。這種設計有效地減少了傳輸的復雜性和時間成本,有助于實現高效、低延遲的通信。

07.InfinBand 網絡的進階特性

網絡安全性與管理

隨著網絡攻擊的不斷演進,網絡安全性成為網絡設計的重要考慮因素之一。InfiniBand網絡通過加密和身份驗證等手段提高了數據傳輸的安全性。同時,網絡管理工具的不斷改進也使得對InfiniBand網絡進行更加精細的監控和管理成為可能。

網絡虛擬化

網絡虛擬化是一種在物理網絡基礎上創建多個虛擬網絡的技術。InfiniBand在這方面取得了一些進展,支持將物理網絡資源劃分為多個邏輯網絡,從而提高網絡資源的利用率和靈活性。這對于云計算和多租戶環境中的資源管理非常重要。

HDR InfiniBand

HDR(200 Gbps)是InfiniBand架構中的一代新產品,為網絡提供了更高的傳輸速率。HDR InfiniBand在支持大規模數據中心和高性能計算方面具有顯著的優勢,推動了InfiniBand網絡在超級計算和數據密集型應用中的地位。

開源項目與標準化

InfiniBand技術在一定程度上受到開源社區的關注,有一些開源項目致力于推動InfiniBand技術的進一步發展。此外,InfiniBand Trade Association(IBTA)等組織也在不斷推動InfiniBand技術的標準化,以確保其在不同設備和廠商之間的互操作性。

隨著計算和數據需求的不斷增長,InfiniBand網絡將繼續在高性能計算、大規模數據處理以及人工智能等領域發揮關鍵作用。未來的發展趨勢可能包括更高速率的InfiniBand版本、更加智能的網絡管理和優化,以及與其他新興技術的融合,如光網絡和量子計算。

08.總結

InfiniBand架構以其卓越的性能和低延遲的特性成為高性能計算和數據中心網絡的首選解決方案。通過深入探討InfiniBand的各個層次,包括物理層、鏈路層、網絡層、傳輸層和上層協議,我們了解了其獨特的設計和優勢。

在物理層,InfiniBand采用多種傳輸介質和硬件規格,包括電纜、光纖和連接器,以支持高帶寬、低延遲的數據傳輸。在鏈路層,本地標識符(LID)和轉發表的使用為數據包的定位和傳輸提供了關鍵支持。網絡層的子網劃分和子網管理器的角色確保了網絡的靈活性和高效性。傳輸層引入了遠程直接內存訪問(RDMA)技術,通過硬件級別的數據傳輸實現了低延遲和高吞吐量。

InfiniBand的應用廣泛涵蓋了高性能計算、大規模并行計算、云計算、機器學習和人工智能等領域。其在數據中心網絡中的卓越表現,使其成為處理大規模數據傳輸和復雜計算任務的理想選擇。隨著對計算能力和數據中心規模的不斷增長,InfiniBand作為一種高性能互連技術,將繼續在科學、工程和商業領域發揮至關重要的作用。其未來的發展將持續推動科技創新和高性能計算的進步。



審核編輯:劉清
聲明:本文內容及配圖由入駐作者撰寫或者入駐合作網站授權轉載。文章觀點僅代表作者本人,不代表電子發燒友網立場。文章及其配圖僅供工程師學習之用,如有內容侵權或者其他違規問題,請聯系本站處理。 舉報投訴
  • 數據傳輸
    +關注

    關注

    9

    文章

    1853

    瀏覽量

    64498
  • 適配器
    +關注

    關注

    8

    文章

    1933

    瀏覽量

    67930
  • DDR
    DDR
    +關注

    關注

    11

    文章

    711

    瀏覽量

    65237
  • InfiniBand
    +關注

    關注

    1

    文章

    29

    瀏覽量

    9183
  • FDR
    FDR
    +關注

    關注

    0

    文章

    11

    瀏覽量

    8668

原文標題:一種高性能計算和數據中心網絡架構:InfiniBand(IB),低延遲、高帶寬、可擴展性!

文章出處:【微信號:算力基建,微信公眾號:算力基建】歡迎添加關注!文章轉載請注明出處。

收藏 人收藏

    評論

    相關推薦

    InfiniBand數據和數據傳輸高性能網絡設計

    InfiniBand一種針對處理器與I/O 設備之間數據流的通信鏈路,其支持的可尋址設備高達64000 個。InfiniBand架構(
    發表于 03-27 11:40 ?875次閱讀

    InfiniBand 連接現在和未來

    InfiniBand 連接現在和未來InfiniBand是致力于服務器端的高性能互聯技術,它的使命是:使處理器級的帶寬,從處理器到系統I/O、到存儲網絡,穿越整個
    發表于 11-13 21:57

    銳捷網絡中標中國聯通數據中心集采項目

    ,已建成并投產西安、廊坊、呼和浩特、哈爾濱、重慶和鄭州六大國家級云數據中心,通過高速率、大容量、高性能的新網絡實現互聯,提供輻射全國的云計算
    發表于 01-24 10:14

    數據中心布線方案:數據中心怎樣選擇光纖布線?

    方便快捷管理,成為了眾多企業最為關心的問題。而光纖布線則是數據中心個關鍵所在,數據中心怎樣選擇光纖布線?在本文中,易飛揚通信將給大家做詳細介紹
    發表于 04-20 14:40

    網絡發展怎么改變企業數據中心的面貌的

    )定位為下一代數據中心選擇的網絡技術有三大驅動因素:性能、智能、效率。   任何存儲結構的關鍵要求是高性能、智能且高效的端到端網絡解決方案,
    發表于 08-16 15:08

    淺析內存計算和數據中心網絡

    對于數據中心架構師而言,這似乎是個簡單的問題。對于從電子商務平臺背后的數據庫、搜索引擎中的大數據工具、突然流行的
    發表于 07-26 07:59

    數據中心是什么

    數據中心是什么:數據中心是全球協作的特定設備網絡,用來在因特網絡基礎設施上傳遞、加速、展示、計算、存儲
    發表于 07-12 07:10

    數據中心網絡性能評估方法

    直是比較困難的問題。針對上述問題,提出了網絡性能評估指標體系,在此基礎上進步提出了一種基于客觀權重確定的數據中心
    發表于 12-28 15:56 ?0次下載

    NVIDIA LinkX 助力IB網絡高速穩定與可靠傳輸

    InfiniBand(直譯為“無限帶寬”技術,縮寫為IB)是個用于高性能計算計算機網絡通信標
    的頭像 發表于 07-27 17:41 ?4567次閱讀
    NVIDIA LinkX 助力<b class='flag-5'>IB</b><b class='flag-5'>網絡</b>高速穩定與可靠傳輸

    基于NVIDIA QM8700/8790交換機與HDR網卡的InfiniBand高性能網絡解決方案

    InfiniBand (IB) 是計算機網絡通信標準,在高性能計算(HPC)領域有廣泛的應用
    的頭像 發表于 11-03 17:57 ?3540次閱讀
    基于NVIDIA QM8700/8790交換機與HDR網卡的<b class='flag-5'>InfiniBand</b><b class='flag-5'>高性能</b><b class='flag-5'>網絡</b>解決方案

    關于InfiniBand網絡相關內容簡介!

    InfiniBand(直譯為 “無限帶寬” 技術,縮寫為IB)是個為大規模、易擴展機群而設計的網絡通信技術??捎糜?b class='flag-5'>計算機內部或外部的
    的頭像 發表于 03-21 10:07 ?1275次閱讀
    關于<b class='flag-5'>InfiniBand</b><b class='flag-5'>網絡</b>相關內容簡介!

    GTC 2023:NVIDIA數據中心高性能和低功耗挑戰

    當前云和數據中心面臨的挑戰-性能和節能減排的取舍 全新的高性能HPC/AI超級云(SuperCloud)架構
    的頭像 發表于 03-24 15:34 ?1435次閱讀
    GTC 2023:NVIDIA<b class='flag-5'>數據中心高性能</b>和低功耗挑戰

    態路小課堂丨InfiniBand與以太網:AI時代的網絡差異

    今年以來,InfiniBand因其在AI領域中的應用而備受矚目。 InfiniBand介紹 InfiniBand (也稱為“無限帶寬”,縮寫為IB
    的頭像 發表于 11-29 18:16 ?870次閱讀
    態路小課堂丨<b class='flag-5'>InfiniBand</b>與以太網:AI時代的<b class='flag-5'>網絡</b>差異

    文詳解超算中的InfiniBand網絡、HDR與IB

    InfiniBand技術被認為是面向未來的高性能計算(HPC)標準,在超級計算機、存儲甚至LAN網絡的HPC連接方面享有很高的聲譽。
    的頭像 發表于 04-16 10:18 ?5830次閱讀
    <b class='flag-5'>一</b>文詳解超算中的<b class='flag-5'>InfiniBand</b><b class='flag-5'>網絡</b>、HDR與<b class='flag-5'>IB</b>

    簡述數據中心網絡架構的演變

    隨著全球對人工智能(AI)的需求不斷增長,數據中心作為AI計算的重要基礎設施,其網絡架構與連接技術的發展變得尤為關鍵。
    的頭像 發表于 10-22 16:23 ?244次閱讀