對話式 AI 是一種綜合運用多種技術的復雜的人工智能形式,能夠使人機間實現類似于真人的交互。復雜系統能夠識別語音和文本、理解意圖、識別特定語言的習語和格言,并且能夠以適當的自然語言做出回應。
什么是對話式 AI?
對話式 AI 是應用機器學習來開發基于語言的應用程序,使人們能夠通過語音與設備、機器和計算機進行自然交互。
無論是虛擬助手在早上喚醒您,還是您詢問通勤路線,或者您在網購時與聊天機器人進行交流,這些情況中您均在使用對話式 AI。您用正常的聲音說話,而設備可以理解并找到適當答案,然后用聽起來自然的聲音回復您。
對話式 AI 的應用程序有多種形式。最簡單的是 FAQ 機器人,它們經過訓練,可以從具有預先格式化答案的定義數據庫中回復查詢(通常是以書面形式表達)。一種更復雜的對話式 AI 形式是虛擬個人助理,例如 Amazon 的 Alexa、Apple 的 Siri 和 Microsoft 的 Cortana。這些工具設備經過調節,可以回應簡單的請求。
虛擬客戶助理是一種更專業的個人助理版本,它能夠理解上下文,從一個互動到下一個互動進行對話。另一種專門的對話式 AI 形式是虛擬員工助理,它可以了解員工與軟件應用程序和工作流程之間的互動情況,并提出改進建議。虛擬員工助理廣泛用于機器人流程自動化這一熱門的新軟件類別。
為何選擇對話式 AI?
對話式 AI 是人類與智能機器和應用程序(從機器人和汽車到家庭助理和移動應用)互動的基本構建塊。讓計算機理解人類語言及所有細微差別,并做出適當的反應,這是 AI 研究人員長期以來的追求。但是,在采用加速計算的現代 AI 技術出現之前,構建具有真正自然語言處理 (NLP) 功能的系統是無法實現的。
在過去幾年中,深度學習改進了對話式 AI 的技術水平,并且在某些任務上提供了超人的準確性。深度學習還降低了構建語言服務時,對語言學和基于規則的技術的深度知識的需求,從而在零售、醫療健康和金融等行業中得到了廣泛采用。
現如今,人們對高級對話式 AI 工具的需求日益增加。預計到 2020 年,50% 的搜索結果將由語音執行,且到 2023 年,將有 80 億個數字語音助手投入使用。
對話式 AI 的工作原理是什么?
回答問題的步驟如下:將用戶語音轉換為文本,理解文本含義,搜索符合上下文的適當應答,最后使用文本轉語音工具提供應答。對話式 AI 流程通常由三個階段組成:
自動語音識別 (ASR)
自然語言處理 (NLP) 或自然語言理解 (NLU)
帶有語音合成的文本轉語音 (TTS)
每一步都需要運行多個 AI 模型,因此每個單獨網絡的可用執行時間約為 10 毫秒或更短。
自動語音識別 (ASR) 會收錄人類語音,然后將其轉換為可讀文本。深度學習在識別音素時具有更高的準確性,已經取代了傳統的統計方法,如隱馬爾可夫模型和高斯混合模型。
自然語言理解 (NLU) 會錄入文本,理解上下文和意圖,然后生成智能回復。深度學習模型能對眾多上下文和語言準確進行泛化處理,因此應用于 NLU。Transformer 深度學習模型,如 BERT(Transformer 雙向編碼器表征模型),是時間遞歸神經網絡的一個替代方案,它應用了一種注意力技術—通過將注意力集中在前后最相關的詞上來解析一個句子。BERT 通過在問答 (QA)、實體識別、意圖識別、情感分析等基準上提供與人類基準相媲美的準確性,徹底改變了 NLU 的進展。
對話式 AI 流程的最后一個階段是將 NLU 階段生成的文本響應改為自然發音的語音。聲清晰度是通過使用深度神經網絡實現的,生成類似人類的語調和清晰的單詞發音。此步驟是通過兩個網絡完成的:一個根據文本生成頻譜圖的合成網絡,一個從頻譜圖生成波形的聲碼器網絡。
GPU:對話式 AI 的關鍵
對話式 AI 背后的技術十分復雜,涉及多步驟過程,需要大量的功耗計算,并要在 300 毫秒內完成大量計算,才能提供優質的用戶體驗。
一個由數百個核心組成的 GPU,可以并行處理數千個線程。這使得 GPU 成為訓練深度學習模型和執行推理的首選平臺,因為它們的性能比純 CPU 平臺高 10 倍。
借助 NVIDIA GPU 和 NVIDIA? CUDA-X AI? 庫,可快速訓練和優化大量的先進語言模型,從而在幾毫秒或幾千分之一秒內運行推理。這是一項重大進步,可以結束快速 AI 模型與大型復雜 AI 模型之間的權衡。
此外,像 BERT 這樣的基于 Transformer 深度學習模型不需要按順序處理連續數據,與遞歸神經網絡相比,可以在 GPU 上實現更多的并行化,并減少訓練時間。
NVIDIA GPU 助力加速先進的對話式 AI 技術:
自動語音識別 (ASR):Kaldi 是一種 C++ 工具包,支持傳統方法以及用于 ASR 的熱門深度學習模型。GPU 加速的 Kaldi 解決方案的執行速度比實時音頻快 3500 倍,比只用 CPU 的方案快 10 倍。
自然語言理解 (NLU):在與復雜語言模型協作時,NVIDIA GPU 的并行處理能力和 Tensor Core 架構可實現更高的吞吐量和可擴展性,從而為 BERT 的訓練和推理提供突破性的性能。利用 NVIDIA T4,GPU 加速的 BERT-base 進行推理的速度比單純的 CPU 解決方案快 17 倍。BERT 使用無監督式學習方法的能力、使用預訓練模型進行遷移學習的能力,以及使用 GPU 進行加速的能力,均使其在行業中得到廣泛應用。為實現真正的對話式 AI,語言模型變得越來越大。未來的模型將比現在使用的大很多倍,因此 NVIDIA 構建并開源了迄今為止最大的基于 Transformer 的 AI:GPT-2 8B,這是一種內含 83 億參數的語言處理模型,比 BERT 大 24 倍。
文字轉語音 (TTS):熱門文本轉語音深度學習模型(GPU 加速的 Tacotron2 和 Waveglow)使用 NVIDIA T4 GPU 執行推理的速度比僅使用 CPU 的 解決方案快 9 倍。
對話式 AI 用例
GPU 優化的語言理解模型可集成到醫療健康、零售和金融服務等行業的 AI 應用程序中,為智能揚聲器和客戶服務領域中的高級數字語音助手提供支持。通過使用這些高質量的對話式 AI 工具,各個領域的企業在與客戶交流時,均可實現前所未有的個性化服務標準。
醫療健康
醫療健康面臨的困難之一是難以獲得。打醫生辦公室電話并一直等待的情況十分常見,與索賠代表聯系可能同樣困難。通過實施自然語言處理 (NLP) 來訓練聊天機器人是醫療健康行業的一項新興技術,可以解決醫療專業人員的短缺問題,并開創與患者的溝通渠道。
NLP 的另一個重要的醫療健康應用程序是生物醫學文本挖掘(或 BioNLP)。鑒于生物文獻數量眾多,以及生物醫學出版速度不斷提高,自然語言處理是一個關鍵的工具,可以在已發表的研究中提取信息,推動生物醫學領域的知識進步,協助藥物研發和疾病診斷。
金融服務
自然語言處理 (NLP) 是為金融服務公司構建更好的聊天機器人和 AI 助理的關鍵組成部分。在眾多用于基于 NLP 的應用程序的語言模型中,BERT 已成為機器學習領域 NLP 的領軍者及語言模型。借助 AI,NVIDIA 近期打破了 BERT 訓練速度的記錄,有助于釋放未來幾年內在線提供的數十億預期對話式 AI 服務的潛力,使其達到人類水平的理解能力。例如,銀行可以使用 NLP 來評估信用記錄很少或沒有信用記錄的客戶信譽。
零售
聊天機器人技術還常用于零售應用程序,能夠準確分析客戶查詢,并生成回復或建議。這可簡化客戶流程,并提高商店運營效率。NLP 還用于文本挖掘客戶反饋和情感分析。
對話式 AI 的優勢
對此有許多答案。其中一點是人力成本很高。雖然成本差異很大,但根據 F.Curtis Barry 公司的數據,一個客服電話的全部成本介于 2.70 美元到 5.60 美元之間,其他公司估算的平均價格也要達到每分鐘一美元左右。將人工操作員替換為機器人,這具有顯著節約成本的優勢。研究還表明,相較于銷售或客戶服務智能體,許多人更喜歡與電腦對話,這使得對話式 AI 成為客戶自助服務的實現者。
在許多場景中,比如一個人正在開車或忙于其他事情,又或者在電梯中無法使用鍵盤時,對話式 AI 比鍵盤交互更加合適。
核心技術還可用于解釋或完善模糊查詢,或解釋使用不同語言的人的查詢。
Gartner 認為,85% 的客戶與企業的關系無需人工交互即可處理,McKinsey 公司估計,全球約 60% 的職業中的有三分之一的活動可以使用這項技術。
NVIDIA GPU 加速的對話式 AI 工具
借助對話式 AI 部署服務似乎令人生畏,但 NVIDIA 擁有可以簡化這一過程的工具,包括神經模組(簡稱 NeMo)和一項名為 NVIDIA Riva 的新技術。為節省時間,預訓練模型、訓練腳本和性能結果可在 NVIDIA GPU Cloud (NGC) 軟件中心獲得。
NVIDIA Riva 是一種 GPU 加速應用程序框架,允許公司使用視頻和語音數據,為自己的行業、產品和客戶定制最先進的對話式 AI 服務。
Riva 提供用于對話式 AI 的端到端深度學習流程。它包含先進的深度學習模型,例如用于自然語言理解的 NVIDIA Megatron BERT。企業可以利用 NVIDIA NeMo 進一步在數據上調優這些模型,利用 NVIDIA TensorRT? 優化推理,并利用 NGC(NVIDIA 的 GPU 優化軟件目錄)上提供的 Helm 圖表在云端和邊緣進行部署。
使用 Riva 構建的應用程序可以利用新款 NVIDIA A100 Tensor Core GPU 中的創新技術進行 AI 計算,并利用 NVIDIA TensorRT 的新型優化技術進行推理。這使得使用功能強大的視覺和語音模型能夠運行整個多模態應用程序,并且速度比實時交互的 300 毫秒閾值還要快。
NVIDIA GPU 加速的端到端數據科學
基于 CUDA 構建的 RAPIDS? 開源軟件庫套件使您能夠完全在 GPU 上執行端到端數據科學和分析流程,同時仍然使用 Pandas 和 Scikit-Learn API 等熟悉的界面。
NVIDIA GPU 加速的深度學習框架
GPU 加速深度學習框架為設計和訓練自定義深度神經網絡帶來靈活性,并為 Python 和 C/C++ 等常用編程語言提供編程接口。MXNet、PyTorch、TensorFlow 等廣泛使用的深度學習框架依賴于 NVIDIA GPU 加速庫,能夠提供高性能的多 GPU 加速訓練。
對話式 AI 在 NVIDIA 平臺的未來
推動基于 Transformer 語言網絡(如 BERT 和 GPT-2 8B)的大規模性能的要求,即其純粹的復雜性以及對龐大數據集的預訓練。這種組合需要一個可靠的計算平臺來處理所有必要的計算,以推動快速執行和準確性。這些模型可以在大量無標記數據集上工作,這使得它們成為現代 NLP 的創新中心,而且,對于即將在眾多用例中采用對話式 AI 應用程序的新一波智能助手來說,這是一個強有力的選擇。
帶有 Tensor Core 體系架構的 NVIDIA 平臺提供可編程性,以加速各種不同的現代 AI,包括基于 Transformer 的模型。此外,數據中心規模設計和 DGX SuperPOD? 的最優化,與軟件庫和先進 AI 框架的直接支持相結合,為開發者提供了無縫的端到端平臺,以承擔艱巨的 NLP 任務。
NGC(NVIDIA 加速軟件中心)免費提供持續優化,以便加速 BERT 和 Transformer 在多個框架上的 GPU 訓練。
NVIDIA TensorRT 包括對 BERT 和基于 Transformer 的大型模型運行實時推理的優化。如需了解更多信息,請查看我們的“對話式 AI 實時 BERT 推理”博客。NVIDIA 的 BERT GitHub 倉庫今天也有代碼,可以重現本博客中引用的單節點訓練性能,在不久的將來,該倉庫將更新必要的腳本,以重現大規模訓練性能的數字。
-
NVIDIA
+關注
關注
14文章
4949瀏覽量
102825 -
gpu
+關注
關注
28文章
4703瀏覽量
128725 -
AI
+關注
關注
87文章
30239瀏覽量
268475 -
軟件庫
+關注
關注
0文章
15瀏覽量
7761
發布評論請先 登錄
相關推薦
評論