精品国产人成在线_亚洲高清无码在线观看_国产在线视频国产永久2021_国产AV综合第一页一个的一区免费影院黑人_最近中文字幕MV高清在线视频

0
  • 聊天消息
  • 系統消息
  • 評論與回復
登錄后你可以
  • 下載海量資料
  • 學習在線課程
  • 觀看技術視頻
  • 寫文章/發帖/加入社區
會員中心
創作中心

完善資料讓更多小伙伴認識你,還能領取20積分哦,立即完善>

3天內不再提示

如何使用TensorRT 8.0進行實時自然語言處理

星星科技指導員 ? 來源:NVIDIA ? 作者:NVIDIA ? 2022-04-02 10:31 ? 次閱讀

大規模語言模型( LSLMs )如 BERT 、 GPT-2 和 XL-Net 為許多自然語言處理( NLP )任務帶來了令人興奮的精度飛躍。自 2018 年 10 月發布以來, BERT (來自變形金剛的雙向編碼器表示)及其眾多變體仍然是最流行的語言模型之一, 仍然提供最先進的準確性 。

BERT 為 NLP 任務提供了準確度上的飛躍,為許多行業的公司提供了高質量、基于語言的服務。為了在生產中使用該模型,您必須考慮延遲和準確性等因素,這些因素影響最終用戶對服務的滿意度。 BERT 由于其 12 / 24 層堆疊、多頭注意力網絡,需要在推理過程中進行重要計算。這對公司部署 ZVK7]作為實時應用的一部分提出了挑戰。

今天, NVIDIA 發布了 TensorRT 的第 8 版,在 NVIDIA A100 GPU 上, BERT-Large 的推理延遲降低到 1. 2 毫秒,并對基于 transformer 網絡進行了新的優化。 TensorRT 中新的廣義優化方法可以加速所有這些模型,將推理時間減少到 TensorRT 7 的一半。

TensorRT

TensorRT 是一個用于高性能、深入學習推理的平臺,它包括一個優化程序和運行時,可以最大限度地減少延遲和提高生產中的吞吐量。使用 TensorRT ,您可以優化在所有主要框架中訓練的模型,以高精度校準較低的精度,并最終部署到生產中。

在這個 NVIDIA/TensorRT GitHub repo 中,所有用 BERT 實現這一性能的代碼都將作為開源發布,它是 BERT 編碼器的一個基本構建塊,因此您可以將這些優化應用于任何基于 BERT 的 NLP 任務。 BERT 應用于會話 AI 之外的一組擴展的語音和 NLP 應用程序,所有這些應用程序都可以利用這些優化。

問答( QA )或閱讀理解是測試模型理解上下文能力的一種流行方法。團隊 leaderboard 為他們提供的數據集和測試集跟蹤此任務的最佳執行者。在過去的幾年里,隨著學術界和企業的全球性貢獻, QA 能力得到了迅速的發展。

在本文中,我們將演示如何使用 Python 創建一個簡單的 QA 應用程序,該應用程序由今天發布的 TensorRT 優化的 BERT 代碼提供支持。該示例提供了一個 API 來輸入段落和問題,并返回由 BERT 模型生成的響應。

下面簡要回顧一下使用 TensorRT 對 BERT 執行訓練和推理的步驟。

BERT 訓練和推理管道

NLP 研究人員和開發人員面臨的一個主要問題是缺乏高質量的標記訓練數據。為了克服從零開始學習任務模型的問題, NLP 的突破使用了大量的未標記文本,并將 NLP 任務分為兩部分:

學習表達單詞的意義,它們之間的關系,即使用輔助任務和大量文本建立語言模型

通過使用一個相對較小的、特定于任務的、以有監督的方式訓練的網絡來擴充語言模型,從而將語言模型專門化為實際任務。

這兩個階段通常稱為預訓練和微調。這種范式允許使用預先訓練的語言模型來處理廣泛的任務,而不需要對模型架構進行任何特定于任務的更改。在本例中, BERT 提供了一個高質量的語言模型,該模型針對 QA 進行了微調,但適用于其他任務,如句子分類和情感分析。

您可以從在線提供的預訓練檢查點開始,也可以從您自己的定制語料庫上的預訓練 BERT 開始(圖 1 )。您還可以從檢查點初始化預訓練,然后繼續對自定義數據進行訓練。

BERT TensorRT engine generation chart. A pretrained checkpoint or a checkpoint pretrained on custom data can be used as input to the TensorRT Builder, which creates the optimized engine as output.

圖 1 從預先訓練的檢查點生成 BERT TensorRT 引擎

使用自定義或特定領域的數據進行預訓練可能會產生有趣的結果,例如 BioBert 。然而,它是計算密集型的,需要一個大規模的并行計算基礎設施才能在合理的時間內完成。 GPU – 啟用的多節點訓練是此類場景的理想解決方案。有關 NVIDIA 開發人員如何在不到一小時的時間內培訓 BERT 的更多信息,請參閱 使用 GPU s 培訓 BERT 。

在微調步驟中,使用特定任務訓練數據訓練基于預訓練 BERT 語言模型的特定任務網絡。對于 QA ,這是(段落、問題、答案)三倍。與預訓練相比,微調的計算要求通常要低得多。

使用 QA 神經網絡進行推理:

通過將微調的權重和網絡定義傳遞給 TensorRT 生成器來創建 TensorRT 引擎。

使用此引擎啟動 TensorRT 運行時。

向 TensorRT 運行時提供一篇文章和一個問題,并接收網絡預測的答案作為輸出。

圖 2 顯示了整個工作流。

Workflow diagram on how to perform inference with TensorRT runtime engine for BERT QA task. A passage and question are fed to the preprocessing module, which is connected to the TensorRT Engine Execution that runs inference on the loaded TensorRT BERT engine. The output is post-processed obtaining the resulting text answer.

圖 2 使用 TensorRT 運行時引擎對 BERT QA 任務執行推斷的工作流

運行樣本!

通過以下步驟設置環境以執行 BERT 推斷:

創建具有先決條件的 Docker 映像。

從微調的重量構建 TensorRT 引擎。

對給定的段落和問題進行推理。

我們使用腳本來執行這些步驟,您可以在 TensorRT BERT 樣本回購 中找到這些步驟。雖然我們描述了可以傳遞給每個腳本的幾個選項,但為了快速入門,您還可以運行以下代碼示例:

 # Clone the TensorRT repository and navigate to BERT demo directory
 git clone --recursive https://github.com/NVIDIA/TensorRT && cd TensorRT
 
 # Create and launch the Docker image
 # Here we assume the following:
 # - the os being ubuntu-18.04 (see below for other supported versions)
 # - cuda version is 11.3.1
 bash docker/build.sh --file docker/ubuntu-18.04.Dockerfile --tag tensorrt-ubuntu18.04-cuda11.3 --cuda 11.3.1
 
 # Run the Docker container just created
 bash docker/launch.sh --tag tensorrt-ubuntu18.04-cuda11.3 --gpus all
 
 # cd into the BERT demo folder
 cd $TRT_OSSPATH/demo/BERT
 
 # Download the BERT model fine-tuned checkpoint
 bash scripts/download_model.sh
  
 # Build the TensorRT runtime engine.
 # To build an engine, use the builder.py script.
 mkdir -p engines && python3 builder.py -m models/fine-tuned/bert_tf_ckpt_large_qa_squad2_amp_128_v19.03.1/model.ckpt -o engines/bert_large_128.engine -b 1 -s 128 --fp16 -c models/fine-tuned/bert_tf_ckpt_large_qa_squad2_amp_128_v19.03.1 

最后一個命令使用混合精度(--fp16)和-s 128大隊 v2 FP16 序列長度 128 檢查點(-c models/fine-tuned/bert_tf_ckpt_large_qa_squad2_amp_128_v19.03.1)構建最大批大小為 1 ( BERT )、序列長度為 128 (-s 128)的引擎。

現在,給它一段話,通過問幾個問題,看看它能破譯多少信息。

python3 inference.py -e engines/bert_large_128.engine -p "TensorRT is a high performance deep learning inference platform that delivers low latency and high throughput for apps such as recommenders, speech and image/video on NVIDIA GPUs. It includes parsers to import models, and plugins to support novel ops and layers before applying optimizations for inference. Today NVIDIA is open-sourcing parsers and plugins in TensorRT so that the deep learning community can customize and extend these components to take advantage of powerful TensorRT optimizations for your apps." -q "What is TensorRT?" -v models/fine-tuned/bert_tf_ckpt_large_qa_squad2_amp_128_v19.03.1/vocab.txt

此命令的結果應類似于以下內容:

Passage: TensorRT is a high performance deep learning inference platform that delivers low latency and high throughput for apps such as recommenders, speech and image/video on NVIDIA GPUs. It includes parsers to import models, and plugins to support novel ops and layers before applying optimizations for inference. Today NVIDIA is open-sourcing parsers and plugins in TensorRT so that the deep learning community can customize and extend these components to take advantage of powerful TensorRT optimizations for your apps. 
Question: What is TensorRT?
Answer: 'a high performance deep learning inference platform'

對同一篇文章提出不同的問題,你應該得到以下結果:

Question: What is included in TensorRT?
Answer: 'parsers to import models, and plugins to support novel ops and layers before applying optimizations for inference'

該模型提供的答案基于所提供的文章的文本是準確的,樣本使用 FP16 精度與 TensorRT 進行推理。這有助于在 NVIDIA GPU s 的張量核上實現盡可能高的性能。在我們的測試中,我們測量了 TensorRT 的精確度,與 FP16 精度的框架內推理相當。

腳本選項

以下是腳本可用的選項, docker/build.sh 腳本使用 docker 文件夾中提供的 docker 文件構建 docker 映像。它安裝所有必需的包,具體取決于您選擇作為 docker 文件的操作系統。在本文中,我們使用了 ubuntu-18 。 04 ,但也提供了 ubuntu-16 。 04 和 ubuntu-20 。 04 的 dockerfiles 。

按如下方式運行腳本:

bash docker/build.sh --file docker/ubuntu-xx.04.Dockerfile --tag tensorrt-tag --cuda cuda_version

創建并運行環境后,下載 BERT 的微調權重。請注意,創建 TensorRT 引擎不需要預先訓練的權重(只需要微調的權重)。在微調權重的同時,使用相關的配置文件,該文件指定了注意頭數、層數等參數,以及 vocab 。 txt 文件,該文件包含從訓練過程中學習到的詞匯表;使用 download _ model 。 sh 腳本下載它們。作為此腳本的一部分,您可以指定要下載的 BERT 模型的微調權重集。命令行參數控制精確的 BERT 模型,以便稍后用于模型構建和推斷:

sh download_model.sh [tf|pyt] [base|large|megatron-large] [128|384] [v2|v1_1] [sparse] [int8-qat]
 tf | pyt tensorflow or pytorch version
 base | large | megatron-large - determine whether to download a BERT-base or BERT-large or megatron model to optimize
 128 | 384 - determine whether to download a BERT model for sequence length 128 or 384
 v2 | v1_1, fine-tuned on squad2 or squad1.1
 sparse, download sparse version
 int8-qat, download int8 weights 

Examples:

# Running with default parameters bash download_model.sh # Running with custom parameters (BERT-large, FP32 fine-tuned weights, 128 sequence length) sh download_model.sh large tf fp32 128

默認情況下,此腳本下載微調的 TensorFlow BERT -large ,精度為 FP16 ,序列長度為 128 。除了微調的模型外,還可以使用配置文件、枚舉模型參數和詞匯表文件將 BERT 模型輸出轉換為文本答案。

接下來,您可以構建 BERT 引擎并將其用于 QA 示例,即推理。腳本 builder.py 基于下載的 TensorRT 微調模型構建用于推理的 TensorRT 引擎。

確保提供給以下腳本的序列長度與下載的模型的序列長度匹配。

python3 builder.py [-h] [-m CKPT] [-x ONNX] [-pt PYTORCH] -o OUTPUT
  [-b BATCH_SIZE] [-s SEQUENCE_LENGTH] -c CONFIG_DIR [-f] [-i]
  [-t] [-w WORKSPACE_SIZE] [-j SQUAD_JSON] [-v VOCAB_FILE]
  [-n CALIB_NUM] [-p CALIB_PATH] [-g] [-iln] [-imh] [-sp]
  [-tcf TIMING_CACHE_FILE] 

以下是可選參數:

 -h, --help  show this help message and exit
 -m CKPT, --ckpt CKPT The checkpoint file basename, e.g.:
 basename(model.ckpt-766908.data-00000-of-00001) is model.ckpt-766908 (default: None)
 -x ONNX, --onnx ONNX The ONNX model file path. (default: None)
 -pt PYTORCH, --pytorch PYTORCH
    The PyTorch checkpoint file path. (default: None)
 -o OUTPUT, --output OUTPUT
    The bert engine file, ex bert.engine (default: bert_base_384.engine)
 -b BATCH_SIZE, --batch-size BATCH_SIZE 
 Batch size(s) to optimize for. 
 The engine will be usable with any batch size below this, but may not be optimal for smaller sizes. Can be specified multiple times to optimize for more than one batch size.(default: [])
 -s SEQUENCE_LENGTH, --sequence-length SEQUENCE_LENGTH 
    Sequence length of the BERT model (default: [])
 -c CONFIG_DIR, --config-dir CONFIG_DIR
 The folder containing the bert_config.json, 
 which can be downloaded e.g. from https://github.com/google-research/bert#pre-trained-models (default: None)
 -f, --fp16  Indicates that inference should be run in FP16 precision 
    (default: False)
 -i, --int8  Indicates that inference should be run in INT8 precision 
    (default: False)
 -t, --strict Indicates that inference should be run in strict precision mode
    (default: False)
 -w WORKSPACE_SIZE, --workspace-size WORKSPACE_SIZE Workspace size in MiB for 
    building the BERT engine (default: 1000)
 -j SQUAD_JSON, --squad-json SQUAD_JSON
 squad json dataset used for int8 calibration (default: squad/dev-v1.1.json)
 -v VOCAB_FILE, --vocab-file VOCAB_FILE
 Path to file containing entire understandable vocab (default: ./pre-trained_model/uncased_L-24_H-1024_A-16/vocab.txt)
 -n CALIB_NUM, --calib-num CALIB_NUM
    calibration batch numbers (default: 100)
 -p CALIB_PATH, --calib-path CALIB_PATH 
    calibration cache path (default: None)
 -g, --force-fc2-gemm 
    Force use gemm to implement FC2 layer (default: False)
 -iln, --force-int8-skipln
 Run skip layernorm with INT8 (FP32 or FP16 by default) inputs and output (default: False)
 -imh, --force-int8-multihead
 Run multi-head attention with INT8 (FP32 or FP16 by default) input and output (default: False)
 -sp, --sparse    Indicates that model is sparse (default: False)
 -tcf TIMING_CACHE_FILE, --timing-cache-file TIMING_CACHE_FILE
 Path to tensorrt build timeing cache file, only available for tensorrt 8.0 and later (default: None) 

Example:

python3 builder.py -m models/fine-tuned/bert_tf_ckpt_large_qa_squad2_amp_128_v19.03.1/model.ckpt -o engines/bert_large_128.engine -b 1 -s 128 --fp16 -c models/fine-tuned/bert_tf_ckpt_large_qa_squad2_amp_128_v19.03.1 

現在您應該有一個 TensorRT 引擎engines/bert_large_128.engine,用于 QA 的inference.py腳本。

在本文后面,我們將描述構建 TensorRT 引擎的過程。現在,您可以向 inference.py 提供一篇文章和一個查詢,并查看模型是否能夠正確回答您的查詢。

與推理腳本交互的方法很少:

段落和問題可以使用 –通道 和 –問題 標志作為命令行參數提供。

它們可以使用 – U 文件 和 –問題文件 標志從給定的文件傳入。

如果在執行過程中沒有給出這兩個標志,則在執行開始后,系統會提示您輸入段落和問題。

以下是 inference.py 腳本的參數:

Usage: inference.py [-h] [-e ENGINE] [-b BATCH_SIZE]
  [-p [PASSAGE [PASSAGE ...]]] [-pf PASSAGE_FILE]
  [-q [QUESTION [QUESTION ...]]] [-qf QUESTION_FILE]
  [-sq SQUAD_JSON] [-o OUTPUT_PREDICTION_FILE]
  [-v VOCAB_FILE] [-s SEQUENCE_LENGTH]
  [--max-query-length MAX_QUERY_LENGTH]
  [--max-answer-length MAX_ANSWER_LENGTH]
  [--n-best-size N_BEST_SIZE] [--doc-stride DOC_STRIDE] 

這個腳本使用一個預先構建的 TensorRT BERT QA 引擎來根據提供的文章回答問題。

以下是可選參數:

   -h, --help     show this help message and exit
 -e ENGINE, --engine ENGINE
  Path to BERT TensorRT engine
 -b BATCH_SIZE, --batch-size BATCH_SIZE
  Batch size for inference.
 -p [PASSAGE [PASSAGE ...]], --passage [PASSAGE [PASSAGE ...]]
  Text for paragraph/passage for BERT QA
 -pf PASSAGE_FILE, --passage-file PASSAGE_FILE
  File containing input passage
 -q [QUESTION [QUESTION ...]], --question [QUESTION [QUESTION ...]]
  Text for query/question for BERT QA
 -qf QUESTION_FILE, --question-file QUESTION_FILE
  File containing input question
 -sq SQUAD_JSON, --squad-json SQUAD_JSON
  SQuAD json file
 -o OUTPUT_PREDICTION_FILE, --output-prediction-file OUTPUT_PREDICTION_FILE
  Output prediction file for SQuAD evaluation
 -v VOCAB_FILE, --vocab-file VOCAB_FILE
  Path to file containing entire understandable vocab
 -s SEQUENCE_LENGTH, --sequence-length SEQUENCE_LENGTH
  The sequence length to use. Defaults to 128
 --max-query-length MAX_QUERY_LENGTH
  The maximum length of a query in number of tokens.
  Queries longer than this will be truncated
 --max-answer-length MAX_ANSWER_LENGTH
  The maximum length of an answer that can be generated
 --n-best-size N_BEST_SIZE
  Total number of n-best predictions to generate in the
  nbest_predictions.json output file
 --doc-stride DOC_STRIDE
  When splitting up a long document into chunks, what
  stride to take between chunks 

BERT 與 TensorRT 的推理

有關推理過程的逐步描述和演練,請參見示例文件夾中的 Python script inference 。 py 和詳細的 Jupyter notebook inference 。 ipynb 。下面是使用 TensorRT 執行推理的幾個關鍵參數和概念。

BERT 或更具體地說,編碼器層使用以下參數來控制其操作:

批量大小

序列長度

注意頭數

這些參數的值取決于所選的 BERT 模型,用于設置 TensorRT 計劃文件(執行引擎)的配置參數。

對于每個編碼器,還指定隱藏層的數量和注意頭的大小。您還可以從 TensorFlow 檢查點文件中讀取所有早期參數。

由于我們正在使用的 BERT 模型已經針對 SQuAD 數據集上 QA 的下游任務進行了微調,因此網絡的輸出(即輸出完全連接層)是一段文本,其中答案出現在文章中,在示例中稱為 h ? U 輸出。生成 TensorRT 引擎之后,您可以序列化它,稍后在 TensorRT 運行時使用它。

在推理過程中,異步執行從 CPU 到 GPU 的內存復制和反向操作,分別將張量放入和移出 GPU 內存。異步內存復制操作通過與設備和主機之間的內存復制操作重疊計算來隱藏內存傳輸的延遲。圖 3 顯示了異步內存拷貝和內核執行。

Diagram of the TensorRT Runtime execution process. Inputs are asynchronously loaded from host to device. The engine inference is executed asynchronously. The result, again asynchronously, is copied from the device to the host.

圖 3 。 TensorRT 運行時流程

BERT 模型(圖 3 )的輸入包括:

input_ids :帶有段落標記 ID 的張量與用作推理輸入的問題串聯在一起

segment_ids :區分段落和問題

input_mask :指示序列中哪些元素是標記,哪些是填充元素

輸出( start_logits 和 end_logits )表示答案的范圍,網絡根據問題在文章中預測答案的范圍。

基準測試 BERT 推理性能

BERT 可以應用于在線和離線用例。在線 NLP 應用程序,如會話人工智能,在推理過程中占用了緊張的延遲預算。為了響應單個用戶的查詢,需要按順序執行多個模型。當用作服務時,客戶體驗的總時間包括計算時間以及輸入和輸出網絡延遲。時間越長,性能越差,客戶體驗越差。

雖然單個模型的準確延遲可能因應用程序而異,但一些實時應用程序需要在 10 毫秒內執行語言模型。

使用 NVIDIA 安培架構 A100 GPU , BERT – 用 TensorRT 8 優化的大可以在 1 。 2ms 內對 QA 任務執行推斷,類似于批大小為 1 、序列長度為 128 的團隊中可用的任務。

使用 TensorRT 優化樣本,您可以在 10ms 延遲預算內為 BERT -base 或 BERT -large 執行不同的批處理大小。例如,在 TensorRT 8 的 A30 上,序列長度= 384 批大小= 1 的 BERT 大型模型的推斷延遲為 3 。 62ms 。同樣的模型,序列長度= 384 ,在 CPU 平臺上高度優化代碼(**),批量大小= 1 是 76ms 。

Bar chart of the compute latency in milliseconds for executing BERT-large on an NVIDIA A30 GPU with 3.6ms vs. a CPU-only server with 76ms, the GPU bar is clearly under the 10ms threshold budget for conversational AI applications.


圖 4 。在 NVIDIA A30 GPU 服務器上執行 BERT -large 與僅 CPU 服務器上執行 BERT -large 的計算延遲(毫秒)

性能度量在將張量作為輸入傳遞和將 logit 作為輸出收集之間,在 QA 任務上執行網絡的純計算延遲時間。您可以在 repo 中的 scripts / inference \ u benchmark 。 sh 腳本中找到用于對示例進行基準測試的代碼。

概括

NVIDIA 正在發布 TensorRT 8 。 0 ,這使得在 A30 GPU s 上以 0 。 74ms 的時間執行 BERT 推斷成為可能。 BERT 上的基準測試推斷代碼在 TensorRT 開源 repo 中作為示例提供。

本文概述了如何使用 TensorRT 示例和性能結果。我們進一步描述了如何將 BERT 示例作為簡單應用程序和 Jupyter 筆記本的一部分來使用的工作流,您可以在其中傳遞一個段落并提出與之相關的問題。新的優化和可實現的性能使 BERT 在生產中用于延遲預算緊張的應用程序(如會話人工智能)變得切實可行。

關于作者

Purnendu Mukherjee 是一名高級深度學習軟件工程師,在 NVIDIA 的人工智能應用小組工作。他的主要工作是將最先進的、基于深度學習的語音和自然語言處理模型作為開發 Jarvis 平臺的一部分投入生產。在加入 NVIDIA 之前, PurnNuu 畢業于佛羅里達大學,擁有計算機科學碩士學位,專門從事基于自然語言的深度學習。

Eddie Weill 是 NVIDIA 的解決方案架構師,專門幫助企業客戶開發深度學習和加速計算解決方案。在擔任當前職務之前,他曾在智能視頻分析集團 NVIDIA 從事智能城市深度學習模型開發工作。作為博士學位的一部分,他專注于計算機視覺嵌入式系統應用的深度學習。在克萊姆森大學的研究生學習期間,他專注于深度學習以及一些高性能計算應用。

Rohit Taneja 是 NVIDIA 的解決方案架構師,專注于機器學習和推理相關的部署。在加入 NVIDIA 之前,他曾在 IBM 的系統實驗室擔任性能架構師和工程師,以支持數據中心環境中的機器學習工作負載加速。他獲得了北卡羅來納州立大學的碩士學位,論文的主題是“ ELD CTR ”電路的自動軟控制,以提高能效。

Davide Onofrio 是 NVIDIA 的高級深度學習軟件技術營銷工程師。他在 NVIDIA 專注于深度學習技術開發人員關注內容的開發和演示。戴維德在生物特征識別、虛擬現實和汽車行業擔任計算機視覺和機器學習工程師已有多年經驗。他的教育背景包括米蘭理工學院的信號處理博士學位。

About Young-Jun Ko

Young-Jun Ko 是 NVIDIA 的 AI 開發技術工程師,目前正在 GPU 上加速 NLP 推理工作負載。此前,他曾在 HPC 和 AI 領域工作,并為 RAPIDS 開源項目做出了貢獻。在加入 NVIDIA 之前,楊軍獲得了 EPFL 的計算機科學博士學位,并在一家 adtech 初創公司擔任機器學習工程師。

About Siddharth Sharma

Siddharth Sharma 是NVIDIA 加速計算的高級技術營銷經理。在加入NVIDIA 之前, Siddharth 是 Mathworks Simulink 和 Stateflow 的產品營銷經理,與汽車和航空航天公司密切合作,采用基于模型的設計來創建控制軟件。

審核編輯:郭婷

聲明:本文內容及配圖由入駐作者撰寫或者入駐合作網站授權轉載。文章觀點僅代表作者本人,不代表電子發燒友網立場。文章及其配圖僅供工程師學習之用,如有內容侵權或者其他違規問題,請聯系本站處理。 舉報投訴
  • NVIDIA
    +關注

    關注

    14

    文章

    4793

    瀏覽量

    102419
  • gpu
    gpu
    +關注

    關注

    27

    文章

    4586

    瀏覽量

    128126
收藏 人收藏

    評論

    相關推薦

    圖像識別技術包括自然語言處理

    計算機視覺技術對圖像進行處理、分析和理解,從而實現對圖像中的目標、場景、行為等信息的識別和理解。圖像識別技術包括圖像預處理、特征提取、分類器設計、模型訓練等多個環節。 1.2 自然語言
    的頭像 發表于 07-16 10:54 ?386次閱讀

    自然語言處理前饋網絡綜述

    自然語言處理(NLP)前饋網絡是人工智能和語言學領域的一個重要交叉學科,旨在通過計算機模型理解和處理人類語言。前饋神經網絡(Feedforw
    的頭像 發表于 07-12 10:10 ?169次閱讀

    Transformer架構在自然語言處理中的應用

    隨著人工智能技術的飛速發展,自然語言處理(NLP)領域取得了顯著的進步。其中,Transformer架構的提出,為NLP領域帶來了革命性的變革。本文將深入探討Transformer架構的核心思想、組成部分以及在自然語言
    的頭像 發表于 07-09 11:42 ?504次閱讀

    nlp自然語言處理的應用有哪些

    自然語言處理(Natural Language Processing,簡稱NLP)是人工智能領域的一個分支,它致力于使計算機能夠理解和生成自然語言。隨著技術的發展,NLP已經在許多領域得到了廣泛
    的頭像 發表于 07-05 09:55 ?1927次閱讀

    使用Python進行自然語言處理

    在探討使用Python進行自然語言處理(NLP)的廣闊領域時,我們首先需要理解NLP的基本概念、其重要性、Python在NLP中的優勢,以及如何通過Python實現一些基礎的NLP任務。本文將從這些方面展開,并深入介紹幾個關鍵的
    的頭像 發表于 07-04 14:40 ?266次閱讀

    自然語言處理技術有哪些

    自然語言處理(Natural Language Processing,簡稱NLP)是人工智能領域的一個分支,它致力于使計算機能夠理解、解釋和生成人類語言自然語言
    的頭像 發表于 07-03 14:30 ?592次閱讀

    自然語言處理模式的優點

    自然語言處理(Natural Language Processing,簡稱NLP)是人工智能領域的一個重要分支,它致力于使計算機能夠理解、生成和處理人類語言。隨著技術的發展,
    的頭像 發表于 07-03 14:24 ?400次閱讀

    自然語言處理技術的核心是什么

    自然語言處理(Natural Language Processing,簡稱NLP)是人工智能領域的一個重要分支,其核心目標是使計算機能夠理解、生成和處理人類語言。NLP技術的發展已經取
    的頭像 發表于 07-03 14:20 ?331次閱讀

    自然語言處理是什么技術的一種應用

    自然語言處理(Natural Language Processing,簡稱NLP)是人工智能和語言學領域的一個分支,它涉及到使用計算機技術來處理、分析和生成
    的頭像 發表于 07-03 14:18 ?302次閱讀

    自然語言處理包括哪些內容

    自然語言處理(Natural Language Processing,簡稱NLP)是人工智能領域的一個重要分支,它涉及到計算機與人類語言之間的交互。NLP的目標是讓計算機能夠理解、生成和處理
    的頭像 發表于 07-03 14:15 ?513次閱讀

    自然語言列舉法描述法各自的特點

    自然語言處理(Natural Language Processing,簡稱NLP)是人工智能領域的一個重要分支,它涉及到計算機與人類語言之間的交互。自然語言
    的頭像 發表于 07-03 14:13 ?660次閱讀

    自然語言處理屬于人工智能的哪個領域

    自然語言處理(Natural Language Processing,簡稱NLP)是人工智能(Artificial Intelligence,簡稱AI)領域的一個重要分支。它涉及到計算機與人類語言
    的頭像 發表于 07-03 14:09 ?669次閱讀

    什么是自然語言處理 (NLP)

    自然語言處理(Natural Language Processing, NLP)是人工智能領域中的一個重要分支,它專注于構建能夠理解和生成人類語言的計算機系統。NLP的目標是使計算機能夠像人類一樣
    的頭像 發表于 07-02 18:16 ?569次閱讀

    自然語言處理技術的原理的應用

    自然語言處理(Natural Language Processing, NLP)作為人工智能(AI)領域的一個重要分支,旨在使計算機能夠理解和處理人類自然語言。隨著互聯網的普及和大數據
    的頭像 發表于 07-02 12:50 ?236次閱讀

    神經網絡在自然語言處理中的應用

    自然語言處理(NLP)是人工智能領域中的一個重要分支,它研究的是如何使計算機能夠理解和生成人類自然語言。隨著人工智能技術的飛速發展,神經網絡在自然語言
    的頭像 發表于 07-01 14:09 ?284次閱讀