精品国产人成在线_亚洲高清无码在线观看_国产在线视频国产永久2021_国产AV综合第一页一个的一区免费影院黑人_最近中文字幕MV高清在线视频

0
  • 聊天消息
  • 系統消息
  • 評論與回復
登錄后你可以
  • 下載海量資料
  • 學習在線課程
  • 觀看技術視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認識你,還能領取20積分哦,立即完善>

3天內不再提示

使用 NVIDIA DOCA GPUNetIO 進行內聯 GPU 數據包處理

NVIDIA英偉達 ? 來源:未知 ? 2023-01-13 23:25 ? 次閱讀

越來越多的網絡應用程序需要進行 GPU 實時數據包處理,以實現高數據率解決方案:數據過濾、數據放置、網絡分析、傳感器信號處理等。

一個主要動機是 GPU 可以實現并行處理多個數據包的高度并行性,同時提供可擴展性和可編程性。

有關這些技術的基本概念以及基于 DPDK gpudev 庫的初始解決方案的概述,掃描下方二維碼參見文章《通過 GPU 使用 DPDK 和 GPUdev 增強內聯數據包處理 》。

bba7e274-9354-11ed-bfe3-dac502259ad0.png

這篇文章解釋了新的 NVIDIA DOCA GPUNetIO 庫如何克服以前 DPDK 解決方案中的一些限制,向以 GPU 為中心的數據包處理應用程序邁進了一步。

介紹

網絡數據包的實時 GPU 處理是一種適用于幾個不同應用領域的技術,包括信號處理、網絡安全、信息收集和輸入重建。這些應用程序的目標是實現一個內聯數據包處理管線(Pipeline),以在 GPU 內存中接收數據包(無需通過 CPU 內存暫存副本);與一個或多個 CUDA 內核并行地處理它們;然后運行推斷、評估或通過網絡發(fā)送計算結果。

通常,在這個管線中,CPU 是協調人,因為它必須使網卡(NIC)接收活動與 GPU 處理同步。一旦 GPU 內存中接收到新的數據包,這將喚醒 CUDA 內核。類似的方法也可以應用于管線的發(fā)送側。

bbb91030-9354-11ed-bfe3-dac502259ad0.png

圖 1 . 以 CPU 為中心的應用程序, CPU 協調 GPU 和網卡工作

數據平面開發(fā)套件(DPDK)框架引入了 goudev 庫來為此類應用提供解決方案:使用 GPU 內存(GPUDirect RDMA 技術)結合低延遲 CPU 同步進行接收或發(fā)送。

GPU 發(fā)起的通信

從圖 1 中可以看出,CPU 是主要瓶頸。它在同步 NIC 和 GPU 任務以及管理多個網絡隊列方面承擔了太多的責任。例如,考慮一個具有多個接收隊列和 100 Gbps 傳入流量的應用程序。以 CPU 為中心的解決方案將具有:

  • CPU 調用每個接收隊列上的網絡功能,以使用一個或多個 CPU 核心接收 GPU 存儲器中的數據包

  • CPU 收集數據包信息(數據包地址、編號)

  • CPU 向 GPU 通知新接收的數據包

  • GPU 處理數據包

這種以 CPU 為中心的方法是:

  • 資源消耗:為了處理高速率網絡吞吐量(100 Gbps 或更高),應用程序可能需要專用整個 CPU 物理核心來接收(和/或發(fā)送)數據包

  • 不可擴展:為了與不同的隊列并行接收(或發(fā)送),應用程序可能需要使用多個 CPU 核心,即使在 CPU 核心的總數可能被限制在較低數量(取決于平臺)的系統上也是如此

  • 平臺依賴性:低功耗 CPU 上的同一應用程序將降低性能

GPU 內聯分組處理應用程序的下一個自然步驟是從關鍵路徑中刪除 CPU 。移動到以 GPU 為中心的解決方案,GPU 可以直接與 NIC 交互以接收數據包,因此數據包一到達 GPU 內存,處理就可以開始。同樣的方法也適用于發(fā)送操作。

GPU 從 CUDA 內核控制 NIC 活動的能力稱為 GPU 發(fā)起的通信。假設使用 NVIDIA GPU 和 NVIDIA NIC ,則可以將 NIC 寄存器暴露給 GPU 的直接訪問。這樣,CUDA 內核可以直接配置和更新這些寄存器,以協調發(fā)送或接收網絡操作,而無需 CPU 的干預。

bbccb040-9354-11ed-bfe3-dac502259ad0.png

圖 2 . 以 GPU 為中心的應用程序,GPU 控制網卡和數據包處理,無需 CPU

根據定義,DPDK 是 CPU 框架。要啟用 GPU 發(fā)起的通信,需要在 GPU 上移動整個控制路徑,這是不適用的。因此,通過創(chuàng)建新的 NVIDIA DOCA 庫來啟用此功能。

NVIDIA DOCA GPUNetIO 庫

NVIDIA DOCA SDK 是新的 NVIDIA 框架,由驅動程序、庫、工具、文檔和示例應用程序組成。需要這些資源通過利用 NVIDIA 硬件可以在主機系統和 DPU 上可用的網絡、安全性和計算功能來支持應用程序。

NVIDIA DOCA GPUNetIO 是在 NVIDIA DOCA 1.5 版本的基礎上開發(fā)的一個新庫,用于在 DOCA 生態(tài)系統中引入 GPU 設備的概念(圖 3)。為了促進創(chuàng)建以 DOCA GPU 為中心的實時數據包處理應用程序,DOCA GPUNetIO 結合了 GPUDirect RDMA 用于數據路徑加速、智能 GPU 內存管理、CPU 和 GPU 之間的低延遲消息傳遞技術(通過 GDRCopy 功能)和 GPU 發(fā)起的通信。

這使 CUDA 內核能夠直接控制 NVIDIA ConnectX 網卡。為了最大化性能, DOCA GPUNetIO 庫必須用于 GPUDirect 友好的平臺,其中 GPU 和網卡通過專用 PCIe 網橋直接連接。DPU 融合卡就是一個示例,但同樣的拓撲也可以在主機系統上實現。

DOCA GPUNetIO 目標是 GPU 數據包處理網絡應用程序,使用以太網協議在網絡中交換數據包。對于這些應用程序,不需要像基于 RDMA 的應用程序那樣,通過 OOB 機制跨對等端進行預同步階段。也無需假設其他對等端將使用 DOCA GPUNetIO 進行通信,也無需了解拓撲。在未來的版本中,RDMA 選項將被啟用以覆蓋更多的用例。

DOCA 當前版本中啟用的 GPUNetIO 功能包括:

  • GPU 發(fā)起的通信: CUDA 內核可以調用 DOCA GPUNetIO 庫中的 CUDA device 函數,以指示網卡發(fā)送或接收數據包

  • 精確的發(fā)送調度:通過 GPU 發(fā)起的通信,可以根據用戶提供的時間戳來調度未來的數據包傳輸

  • GPU Direct RDMA :以連續(xù)固定大小 GPU 內存步幅接收或發(fā)送數據包,無需 CPU 內存暫存副本

  • 信號量:在 CPU 和 GPU 之間或不同 GPU CUDA 內核之間提供標準化的低延遲消息傳遞協議

  • CPU 對 CUDA 內存的直接訪問:CPU 可以在不使用 GPU 內存 API 的情況下修改 GPU 內存緩沖區(qū)

bbfecd64-9354-11ed-bfe3-dac502259ad0.png

圖 3 . NVIDIA DOCA GPUNetIO 是一個新的 DOCA 庫,需要在同一平臺上安裝 GPU 和 CUDA 驅動程序和庫

如圖 4 所示,典型的 DOCA GPUNetIO 應用程序步驟如下:

CPU 上的初始配置階段:

  • 使用 DOCA 識別和初始化 GPU 設備和網絡設備

  • 使用 DOCA GPUNetIO 創(chuàng)建可從 CUDA 內核管理的接收或發(fā)送隊列

  • 使用DOCA Flow確定應在每個接收隊列中放置哪種類型的數據包(例如,IP 地址的子集、TCP 或 UDP 協議等)

  • 啟動一個或多個 CUDA 內核(執(zhí)行數據包處理/過濾/分析)

CUDA 內核內 GPU 上的運行時控制和數據路徑:

  • 使用 DOCA GPUNetIO CUDA 設備函數發(fā)送或接收數據包

  • 使用 DOCA GPUNetIO CUDA 設備函數與信號量交互,以使工作與其他 CUDA 內核或 CPU 同步

bc3047d6-9354-11ed-bfe3-dac502259ad0.png

圖 4 . 由多個構建塊組成的通用 GPU 數據包處理管線數據流

以下各節(jié)概述了結合 DOCA GPUNetIO 構建塊的可能 GPU 數據包處理管線應用程序布局。

CPU 接收和 GPU 處理

第一個示例以 CPU 為中心,不使用 GPU 發(fā)起的通信功能。它可以被視為以下章節(jié)的基線。CPU 創(chuàng)建可從 CPU 自身管理的接收隊列,以接收 GPU 存儲器中的數據包,并為每個隊列分配流量控制規(guī)則。

在運行時,CPU 接收 GPU 存儲器中的數據包。它通過 DOCA GPUNetIO 信號量向一個或多個 CUDA 內核通知每個隊列新一組數據包的到達,提供 GPU 內存地址和數據包數量等信息。在 GPU 上,CUDA 內核輪詢信號量,檢測更新并開始處理數據包。

bc5c9e30-9354-11ed-bfe3-dac502259ad0.png

圖 5 . GPU 數據包處理管道,CPU 在 GPU 內存中接收數據包,并使用 NVIDIA DOCA GPUNetIO 信號量通知數據包處理 CUDA 內核有關傳入數據包

這里,DOCA GPUNetIO 信號量具有類似于 DPDK gpudev communication list 的功能,使得 CPU 接收數據包和 GPU 在處理這些數據包之前等待接收這些數據包之間能夠實現低延遲通信機制。信號量還可用于 GPU 在包處理完成時通知 CPU ,或在兩個 GPU CUDA 內核之間共享關于已處理包的信息。

該方法可作為性能評估的基準。由于它以 CPU 為中心,因此嚴重依賴 CPU 型號、功率和內核數量。

GPU 接收和 GPU 處理

上一節(jié)中描述的以 CPU 為中心的管線可以通過以 GPU 為中心的方法進行改進,該方法使用 GPU 發(fā)起的通信,使用 CUDA 內核管理接收隊列。以下部分提供了兩個示例:多 CUDA 內核和單 CUDA 內核。

多 CUDA 內核

使用這種方法,至少涉及兩個 CUDA 內核,一個專用于接收數據包,另一個專用用于數據包處理。接收器 CUDA 內核可以通過信號量向第二 CUDA 內核提供數據包信息。

bc8ba144-9354-11ed-bfe3-dac502259ad0.png

圖 6 . GPU 數據包處理管線,CPU 在 GPU 內存中接收數據包,并使用 DOCA GPUNetIO 信號量通知數據包處理 CUDA 內核有關傳入數據包

這種方法適用于高速網絡和延遲敏感的應用程序,因為兩個接收操作之間的延遲不會被其他任務延遲。期望將接收器 CUDA 內核的每個 CUDA 塊關聯到不同的隊列,并行地接收來自所有隊列的所有數據包。

單 – CUDA 內核

通過使單個 CUDA 內核負責接收和處理數據包,仍然為每個隊列專用一個 CUDA 塊,可以簡化先前的實現。

bcaf2c68-9354-11ed-bfe3-dac502259ad0.png

圖 7 . GPU 數據包處理管線,單個 GPU CUDA 內核接收 GPU 內存中的數據包并進行數據包處理

這種方法的一個缺點是每個 CUDA 塊兩個接收操作之間的延遲。如果數據包處理需要很長時間,應用程序可能無法跟上在高速網絡中接收新數據包的速度。

GPU 接收、 GPU 處理和 GPU 發(fā)送

到目前為止,大多數關注點都集中在管線的“接收和處理”部分。然而,DOCA GPUNetIO 還可以在 GPU 上生成一些數據,制作數據包并從 CUDA 內核發(fā)送,而無需 CPU 干預。圖 8 描述了一個完整的接收、處理和發(fā)送管線的示例。

bce86f0a-9354-11ed-bfe3-dac502259ad0.png

圖 8 . 具有 GPU CUDA 內核的 GPU 數據包處理管線在 GPU 內存中接收數據包,進行數據包處理,最后制作新數據包

NVIDIA DOCA GPUNetIO 示例應用程序

與任何其他 NVIDIA DOCA 庫一樣,DOCA GPUNetIO 有一個專用應用程序,用于 API 使用參考和測試系統配置和性能。該應用程序實現了前面描述的管線,提供了不同類型的數據包處理,如 IP 校驗和、HTTP 數據包過濾和流量轉發(fā)。

以下部分概述了應用程序的不同操作模式。報告了一些性能數據,將其視為可能在未來版本中更改和改進的初步結果。使用兩個基準系統,一個用于接收數據包,另一個用于發(fā)送數據包,背靠背連接(圖 9)。

運行 DOCA GPUNetIO 應用程序的接收器是帶有 NVIDIA BlueField-2X DPU 融合卡的 Dell PowerEdge R750 。該配置為嵌入式 CPU 模式,因此應用程序使用 DPU 上的 NVIDIA ConnectX-6 Dx 網卡和 GPU A100X 在主機系統 CPU 上運行。軟件配置為 Ubuntu 20.04 、MOFED 5.8 和 CUDA 11.8 。

發(fā)送器是 Gigabyte Intel Xeon Gold 6240R ,其通過 PCIe Gen 3 與 NVIDIA ConnectX-6 Dx 連接。此計算機不需要任何 GPU ,因為它運行 T-Rex DPDK packet generator v2.99 。軟件配置為 Ubuntu 20.04 和 MOFED 5.8 。

bd184a68-9354-11ed-bfe3-dac502259ad0.png

圖 9 . 接收器(Dell R750)和發(fā)送器(Gigabyte)系統背靠背連接到基準 NVIDIA DOCA GPUNetIO 應用程序

該應用程序也已在 DPU Arm 內核上執(zhí)行,導致了相同的性能結果,并證明了以 GPU 為中心的解決方案與 CPU 無關。

請注意,DOCA GPUNetIO 最低要求是具有 GPU 和具有直接 PCIe 連接的 NIC 的系統。DPU 并不是嚴格要求。

IP 校驗和, GPU 僅接收

應用程序使用 GPU 發(fā)起的通信來創(chuàng)建一個或多個接收隊列以接收分數據包。可以使用單 CUDA 內核或多 CUDA 內核模式。

bd30b206-9354-11ed-bfe3-dac502259ad0.png

圖 10 . NVIDIA DOCA GPUNetIO 應用程序中的第一個管線模式:GPU 接收、計算 IP 校驗和并向 CPU 報告

每個數據包都通過簡單的 IP 校驗和驗證進行處理,只有通過此測試的數據包才算作“好數據包”。通過信號量,好數據包的數量被報告給 CPU ,CPU 可以在控制臺上打印報告。

通過使用 T-Rex 數據包生成器以約 100 Gbps(約 11.97 Mpps)的速度發(fā)送 30 億個 1 KB 大小的數據包,并在 DOCA GPUNetIO 應用程序側報告相同數量的數據包以及正確的 IP 校驗和,實現了單隊列零數據包丟失。相同的配置在 BlueField-2 融合卡上進行了測試,結果相同,證明了 GPU 發(fā)起的通信是一個獨立于平臺的解決方案。

由于數據包大小為 512 字節(jié),T-Rex 數據包生成器無法發(fā)送超過 86 Gbps(約 20.9 Mpps)的數據包。即使每秒數據包的數量幾乎是兩倍,DOCA GPUNetIO 也沒有報告任何數據包丟失。

HTTP 過濾, GPU 僅接收

假設一個更復雜的場景,數據包處理 CUDA 內核只過濾具有特定特征的 HTTP 數據包。它將“好數據包”信息復制到第二個 GPU 內存 HTTP 數據包列表中。一旦此 HTTP 數據包列表中的下一個項目充滿了數據包,通過專用信號量,過濾 CUDA 內核就會解除第二個 CUDA 內核的阻止,從而對累積的 HTTP 數據包進行一些推斷。信號量還可用于向 CPU 線程報告統計信息。

bd603b20-9354-11ed-bfe3-dac502259ad0.png

圖 11 . NVIDIA DOCA GPUNetIO 應用程序中的第二種管線模式。GPU 只接收、過濾 HTTP 數據包,并通過專用信號量解除阻止 CUDA 內核對這些數據包進行分析

該管線配置提供了復雜流水線的示例,該復雜管線包括多個數據處理和過濾階段以及諸如 AI 管線之類的推理功能。

流量轉發(fā)

本節(jié)介紹如何通過 GPU 發(fā)起的通信使用 DOCA GPUNetIO 啟用流量轉發(fā)。在每個接收到的數據包中,在通過網絡發(fā)送回數據包之前,交換 MAC 和 IP 源地址和目的地址。

bd7e2d56-9354-11ed-bfe3-dac502259ad0.png

圖 12 . NVIDIA DOCA GPUNetIO 應用程序中的第三種管線模式。GPU 接收、交換每個數據包的 MAC 和 IP 地址,并發(fā)送回修改后的數據包。

通過使用 T-Rex 數據包生成器以 ~90 Gbps 的速度發(fā)送 30 億個 1KB 大小的數據包,實現了只有一個接收隊列和一個發(fā)送隊列的零數據包丟失。

用于 5G 的 NVIDIA Aerial SDK

決定采用以 GPU 為中心的解決方案的動機可能是性能和低延遲要求,但也可能是為了提高系統容量。CPU 在處理連接到接收器應用程序的越來越多的對等端時可能成為瓶頸。GPU 提供的高度并行化可以提供可擴展的實現,以并行處理大量對等端,而不會影響性能。

NVIDIA Aerial 是一個用于構建高性能、軟件定義的 5G L1 堆棧的 SDK,該堆棧通過 GPU 上的并行處理進行了優(yōu)化。具體而言,NVIDIA Aero SDK 可用于構建基帶單元(BBU)軟件,該軟件負責通過無線電單元(RU)發(fā)送(下行鏈路)或接收(上行鏈路)無線客戶端數據幀,該數據幀被拆分為多個以太網數據包。

在上行鏈路中,BBU 接收數據包,驗證數據包,并在觸發(fā)信號處理之前重建每個 RU 的原始數據幀。使用 NVIDIA Aerial SDK ,這在 GPU 中發(fā)生:CUDA 內核專用于每個時隙的每個 RU ,以重建幀并觸發(fā) GPU 信號處理的 CUDA 內核序列。

通過 DPDK gpudev 庫實現了網卡接收數據包以及 GPU 重新排序和處理數據包的編排(圖 13)。

bda04b5c-9354-11ed-bfe3-dac502259ad0.png

圖 13 .NVIDIA Aerial 5G L1 以 CPU 為中心的架構,帶有 DPDK gpudev 庫

第一個實現在現代 Intel x86 系統上僅使用一個 CPU 內核,就能夠以 25 Gbps 的速度保持 4 個 RU 的工作速度。然而,隨著基站數量的增加,網卡和 GPU 之間的 CPU 功能成為瓶頸。

CPU 按順序工作。隨著單個 CPU 核心接收和管理越來越多的 RU 流量,同一 RU 的兩次接收之間的時間取決于 RU 的數量。對于 2 個 CPU 核,每個核在 RU 的子集上工作,相同 RU 的兩次接收之間的時間減半。然而,這種方法對于越來越多的客戶端是不可擴展的。此外,PCIe 事務的數量從 NIC 增加到 CPU ,然后從 CPU 增加到 GPU (圖 14)。

bdc1386c-9354-11ed-bfe3-dac502259ad0.png

圖 14 . NVIDIA Aerial 5G 應用程序以 CPU 為中心的控制流程,連接了多個 RU 。CPU 內核順序地接收并通知每個連接的 RU 的 GPU 重建內核。這不是一種可擴展的方法。

為了克服所有這些問題,NVIDIA Aerial SDK 的以 GPU 為中心的新版本已通過 DOCA GPUNetIO 庫實現。每個 CUDA 內核負責在每個時隙重建來自特定 RU 的數據包,并通過接收能力進行了改進(圖 15)。

bda04b5c-9354-11ed-bfe3-dac502259ad0.png

圖 15 . 以 GPU 為中心的 NVIDIA Aerial SDK 5G 架構,采用 NVIDIA DOCA GPUNetIO

此時,關鍵路徑中不需要 CPU ,因為每個 CUDA 內核都是完全獨立的,能夠并行和實時處理越來越多的 RU 。這增加了系統容量,并減少了每個時隙處理數據包的延遲和 PCIe 事務的數量。CPU 不必與 GPU 通信以提供數據包信息。

be65b2d4-9354-11ed-bfe3-dac502259ad0.png

圖 16 . NVIDIA Aerial 5G SDK 以 GPU 為中心的控制流程,連接了多個 RU 。這是一種可擴展的方法,它保證了對所有連接的平等和公平服務。

根據標準,5G 網絡必須根據特定模式交換數據包。每個時隙(例如 500 微秒),數據包應該以 14 個所謂的符號發(fā)送。每個符號由若干個數據包組成(取決于使用情況),這些數據包將在較小的時間窗口(例如,36 微秒)內發(fā)送。為了在下行鏈路側支持這種定時傳輸模式,NVIDIA Aerial SDK 通過 DOCA GPUNetIO API 將 GPU 發(fā)起的通信與精確發(fā)送調度相結合。

一旦 GPU 信號處理準備好要在未來時隙中發(fā)送的數據,每個 RU 的專用 CUDA 內核將該數據分割成每個 RU 的以太網數據包,并在未來的特定時間調度它們的未來傳輸。然后,同一 CUDA 內核將數據包推送到 NIC ,NIC 將負責在正確的時間發(fā)送每個數據包(圖 17)。

be8675aa-9354-11ed-bfe3-dac502259ad0.png

圖 17 . NVIDIA Aerial 5G SDK 定時傳輸模式使用 GPU 發(fā)起的通信和精確發(fā)送調度功能,通過 NVIDIA DOCA GPUNetIO 實現

盡早訪問 NVIDIA DOCA GPUNetIO

作為研究項目的一部分,DOCA GPUNetIO 包處于實驗狀態(tài)。它可以早期訪問,是最新 DOCA 版本的擴展。它可以安裝在主機系統或 DPU 融合卡上,包括:

  • 應用程序初始設置階段的一組 CPU 函數,用于準備環(huán)境并創(chuàng)建隊列和其他對象

  • 您可以在 CUDA 內核中調用一組特定于 GPU 的函數,以發(fā)送或接收數據包,并與 DOCA GPUNetIO 信號量交互

  • 您可以構建和運行應用程序源代碼來測試功能,并了解如何使用 DOCA GPUNetIO API

硬件要求是 ConnectX-6 Dx 或更新的網卡和 GPU Volta 或更新的。強烈建議在兩者之間使用專用 PCIe 網橋。軟件要求為 Ubuntu 20.04 或更新版本、CUDA 11.7 或更新版本以及 MOFED 5.8 或更新版本。

如果您有興趣了解更多信息并獲得 NVIDIA DOCA GPUNetIO 的實踐經驗,以幫助您開發(fā)下一個關鍵應用程序,請聯系 NVIDIA 技術支持獲取早期訪問權限。請注意,DOCA GPUNetIO 庫目前僅在 NVIDIA 的 NDA 下可用。

想要與更多開發(fā)者交流學習,請掃描下方二維碼加入我們的論壇

bebec04a-9354-11ed-bfe3-dac502259ad0.png

查看以下精彩內容,了解更多關于 NVIDIA BlueField DPU 和 DOCA 的信息

NVIDIA BlueField DPU 和 DOCA 連獲三獎,大放光彩

NVIDIA DOCA 推出基于主機的網絡(HBN)1.2.0 版本

NVIDIA DOCA 1.5 長期支持版本發(fā)布

免費學 DOCA 軟件開發(fā)入門課程 釋放 DPU 潛力

更多精彩仍在繼續(xù)...敬請關注


原文標題:使用 NVIDIA DOCA GPUNetIO 進行內聯 GPU 數據包處理

文章出處:【微信公眾號:NVIDIA英偉達】歡迎添加關注!文章轉載請注明出處。


聲明:本文內容及配圖由入駐作者撰寫或者入駐合作網站授權轉載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網立場。文章及其配圖僅供工程師學習之用,如有內容侵權或者其他違規(guī)問題,請聯系本站處理。 舉報投訴
  • 英偉達
    +關注

    關注

    22

    文章

    3748

    瀏覽量

    90836

原文標題:使用 NVIDIA DOCA GPUNetIO 進行內聯 GPU 數據包處理

文章出處:【微信號:NVIDIA_China,微信公眾號:NVIDIA英偉達】歡迎添加關注!文章轉載請注明出處。

收藏 人收藏

    評論

    相關推薦

    NVIDIA DOCA-OFED的主要特性

    NVIDIA DOCA 軟件平臺釋放了 NVIDIA BlueField 網絡平臺的潛力,并為NVIDIA BlueField和ConnectX設備提供了所需的所有主機驅動程序。
    的頭像 發(fā)表于 11-09 13:50 ?182次閱讀

    IB Verbs和NVIDIA DOCA GPUNetIO性能測試

    NVIDIA DOCA GPUNetIONVIDIA DOCA SDK 中的一個庫,專門為實時在線
    的頭像 發(fā)表于 08-23 17:03 ?513次閱讀
    IB Verbs和<b class='flag-5'>NVIDIA</b> <b class='flag-5'>DOCA</b> <b class='flag-5'>GPUNetIO</b>性能測試

    請問DCTCP與DCUDP 的登錄數據包和心跳數據包與服務器端是如何交互的?

    DCTCP與DCUDP的登錄數據包和心跳數據包與服務器端是如何交互的?
    發(fā)表于 07-25 06:37

    使用AT SAVETRANSLINK時UDP數據包丟失怎么解決?

    Android 發(fā)送一個小 UDP 數據包(5 字節(jié))。這個小數據包被我的微控制器在UART上接收到。微控制器將更大的數據包(可變長度,約 100 字節(jié))發(fā)送回 UART。ESP在UART上接
    發(fā)表于 07-18 07:17

    能否在ESP結束之前通過串行端口停止傳入的UDP數據包的傳輸以解析下一個UDP數據包

    丟棄在ESP完成之前不需要的數據包,以便通過串行端口發(fā)送它以接收下一個數據包, 如果沒有,我必須按順序讀取所有傳入的數據包,需要的和不需要的, 而且波特率不足,主機處理器開銷大, 我
    發(fā)表于 07-16 06:18

    請問如何使用AT CIPSEND或AT CIPSENDBUF發(fā)送多個數據包

    我可以使用 AT CIPSEND 發(fā)送單個數據包。但是我必須發(fā)送一系列二進制數據包。如何使用AT CISEND或AT CIPSENDBUF發(fā)送多個數據包,什么是正確的算法? 到目前為止,我嘗試
    發(fā)表于 07-15 07:37

    在AN65974中短數據包和零長數據包是什么意思?

    在 AN65974 中,短數據包和零長數據包是什么意思? 非常感謝!
    發(fā)表于 05-30 07:41

    借助NVIDIA DOCA 2.7增強AI 云數據中心和NVIDIA Spectrum-X

    NVIDIA DOCA 加速框架為開發(fā)者提供了豐富的庫、驅動和 API,以便為 NVIDIA BlueField DPU 和 SuperNIC 創(chuàng)建高性能的應用程序和服務。
    的頭像 發(fā)表于 05-29 09:22 ?462次閱讀

    如何在AIROC GUI上獲取良好數據包和總數據包

    使用 IQxel-MW LifePoint 作為發(fā)生器并發(fā)送波形BT_1DH5_00001111_Fs80M.iqvsg,但無法在 AIROC 工具中接收數據包。 以下是從 IQxel 發(fā)送
    發(fā)表于 05-22 06:39

    請問高端網絡芯片如何處理數據包呢?

    隨著網絡芯片帶寬的持續(xù)提升,其內部數據包處理單元的工作負載也隨之增加。然而,如果處理單元無法與網絡接口的傳入速率相匹配,將無法及時處理數據包
    的頭像 發(fā)表于 04-02 16:36 ?592次閱讀
    請問高端網絡芯片如何<b class='flag-5'>處理</b><b class='flag-5'>數據包</b>呢?

    STM32H7接收數據包異常,一接收的數據出現兩發(fā)送的內容怎么解決?

    節(jié):be1c0101屬于發(fā)送數據包1的; 剩余其他字節(jié):屬于發(fā)送數據包2的; 問題困擾很久了,請大家?guī)兔?b class='flag-5'>處理下,急急急!
    發(fā)表于 03-08 08:05

    DPDK在AI驅動的高效數據包處理應用

    傳統的數據包處理方式是數據包先到內核最后再到用戶層進行處理。這種方式會增加額外的延遲和CPU開銷,嚴重影響
    的頭像 發(fā)表于 02-25 11:28 ?866次閱讀
    DPDK在AI驅動的高效<b class='flag-5'>數據包</b><b class='flag-5'>處理</b>應用

    基于NVIDIA DOCA 2.6實現高性能和安全的AI云設計

    作為專為 NVIDIA? BlueField? 網絡平臺而設計的數據中心基礎設施軟件框架,NVIDIA? DOCA? 使廣大開發(fā)者能夠利用其行業(yè)標準 API 在
    的頭像 發(fā)表于 02-23 10:02 ?431次閱讀

    使用P4和Vivado工具簡化數據包處理設計

    電子發(fā)燒友網站提供《使用P4和Vivado工具簡化數據包處理設計.pdf》資料免費下載
    發(fā)表于 01-26 17:49 ?0次下載
    使用P4和Vivado工具簡化<b class='flag-5'>數據包</b><b class='flag-5'>處理</b>設計

    NVIDIA DOCA 2.5 長期支持版本發(fā)布

    正值 NVIDIA DOCA 面世三周年之際,NVIDIA 于近日發(fā)布了適用于 NVIDIA BlueField-3 網絡平臺的 NVIDIA
    的頭像 發(fā)表于 12-26 18:25 ?387次閱讀
    <b class='flag-5'>NVIDIA</b> <b class='flag-5'>DOCA</b> 2.5 長期支持版本發(fā)布