精品国产人成在线_亚洲高清无码在线观看_国产在线视频国产永久2021_国产AV综合第一页一个的一区免费影院黑人_最近中文字幕MV高清在线视频

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復
登錄后你可以
  • 下載海量資料
  • 學習在線課程
  • 觀看技術視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認識你,還能領取20積分哦,立即完善>

3天內(nèi)不再提示

NVIDIA GPU再創(chuàng)壯舉,距真正會話AI又進一步!

張慧娟 ? 來源:電子發(fā)燒友網(wǎng) ? 作者:張慧娟 ? 2019-08-15 07:55 ? 次閱讀

會話 AI 服務已經(jīng)存在多年,但不論是聊天機器人,還是智能個人助理或搜索引擎,其理解能力很難達到與人類相當?shù)乃健?strong>主要瓶頸則在于超大型AI模型的實施部署無法實現(xiàn)。正因如此,不論是Google、Microsoft、Facebook,還是阿里巴巴、百度等,都在模型的部署方面孜孜以求。

NVIDIA于太平洋時間8月13日宣布重大突破:BERT訓練時間實現(xiàn)創(chuàng)紀錄的53分鐘,推理時間縮短至2毫秒,并構建了迄今為止同類型中最大的語言模型,使得實時會話 AI與用戶進行互動時更為自然。

超大模型面前,GPU再證強大可擴展性

BERT(Bidirectional Encoder Representations from Transformers)是世界上最先進的AI語言模型之一,Google于去年發(fā)布不久就刷爆AI業(yè)界。作為一種新型的語言模型,它只需一個額外的輸出層對預訓練BERT進行微調(diào)就可以滿足各種任務,而無需再對模型進行修改,實現(xiàn)了在11項NLP任務上取得突破進展。

在對BERT模型進行訓練時,NVIDIA使用搭載了92臺 NVIDIA DGX-2H系統(tǒng)的 NVIDIA DGX SuperPOD運行該模型的大型版本,憑借1472個NVIDIA V100 GPU的強大性能,NVIDIA將BERT-Large的典型訓練時間從幾天縮短至僅僅 53 分鐘。

此外,NVIDIA還在單獨一臺NVIDIA DGX-2系統(tǒng)上執(zhí)行了BERT-Large 模型的訓練任務,用時也僅為 2.8天,充分體現(xiàn)了GPU在會話 AI 方面的可擴展性。

推理方面,借助于運行了NVIDIA TensorRT的NVIDIA T4 GPU,NVIDIA 執(zhí)行 BERT-Base SQuAD數(shù)據(jù)集的推理任務,用時僅為2.2毫秒,遠低于許多實時應用程序所需的10毫秒處理閾值;與使用高度優(yōu)化的CPU代碼時所測得的40多毫秒相比,有著顯著改進。

對此,NVIDIA 深度學習應用研究副總裁 Bryan Catanzaro 表示,“對于適用于自然語言的AI而言,大型語言模型正在為其帶來革新。NVIDIA 所取得的突破性工作成果加速了這些模型的創(chuàng)建,它們能夠幫助解決那些最為棘手的語言問題,讓我們距離實現(xiàn)真正的會話 AI 更進了一步。

NVIDIA BERT推理解決方案Faster Transformer宣布開源

開發(fā)者們對于更大模型的需求正在日益增長,NVIDIA 研究團隊基于Transformer構建并訓練了世界上最大的語言模型。Transformer是BERT的技術構件,正被越來越多的其他自然語言AI模型所使用。NVIDIA定制的模型包含83億個參數(shù)是BERT-Large的24 倍

2017年12月Google在論文“Attention is All You Need”中首次提出了Transformer,將其作為一種通用高效的特征抽取器。至今,Transformer已經(jīng)被多種NLP模型采用,比如BERT以及上月發(fā)布重刷其記錄的XLNet,這些模型在多項NLP任務中都有突出表現(xiàn)。在NLP之外,TTS、ASR等領域也在逐步采用Transformer。可以預見,Transformer這個簡潔有效的網(wǎng)絡結(jié)構會像CNN和RNN一樣被廣泛采用。

不過,雖然Transformer在多種場景下都有優(yōu)秀表現(xiàn),但是在推理部署階段,其計算性能卻受到了巨大的挑戰(zhàn):以BERT為原型的多層Transformer模型,其性能常常難以滿足在線業(yè)務對于低延遲(保證服務質(zhì)量)和高吞吐(考慮成本)的要求。以BERT-BASE為例,超過90%的計算時間消耗在12層Transformer的前向計算上。因此,一個高效的Transformer 前向計算方案,既可以為在線業(yè)務帶來降本增效的作用,也有利于以Transformer結(jié)構為核心的各類網(wǎng)絡在更多實際工業(yè)場景中落地。

NVIDIA GPU計算專家團隊針對Transformer推理提出的性能優(yōu)化方案Faster Transformer宣布開源,其底層基于CUDA和cuBLAS,是一個BERT Transformer 單層前向計算的高效實現(xiàn),其代碼簡潔明了,后續(xù)可以通過簡單修改支持多種Transformer結(jié)構。目前優(yōu)化集中在編碼器(encoder)的前向計算(解碼器decoder開發(fā)在后續(xù)特性規(guī)劃中),能夠助力于多種BERT的應用場景。Faster Transformer對外提供C++ API,TensorFlow OP 接口,以及TensorRT插件,并提供了相應的示例,用以支持用戶將其集成到不同的線上應用代碼中。

2021年15%的客服互動將通過AI完成

預計未來幾年,基于自然語言理解的 AI 服務將呈指數(shù)級增長。根據(jù)Juniper Research 的研究表明,在未來4年中,僅數(shù)字語音助手的數(shù)量就將有望從25 億攀升到 80 億。此外,據(jù)Gartner預計,到 2021 年,15%的客服互動都將通過AI完成,相比2017年將增長4倍。

當前,全球數(shù)以百計的開發(fā)者都使用 NVIDIA 的 AI 平臺,來推進他們自己的語言理解研究并創(chuàng)建新的服務。

Microsoft Bing正在通過先進的 AI 模型和計算平臺,為客戶提供更好的搜索體驗。通過與 NVIDIA 密切合作,Bing 使用 NVIDIA GPU(Azure AI 基礎設施的一部分)進一步優(yōu)化了熱門自然語言模型 BERT 的推理功能,從而大幅提升了 Bing 于去年部署的排名搜索的搜索質(zhì)量。與基于 CPU 的平臺相比,使用 Azure NVIDIA GPU 進行推理,延遲降低了一半,吞吐量提升了5倍。

多家初創(chuàng)公司(例如Clinc、Passage AI 和Recordsure等)正在使用 NVIDIA的AI平臺為銀行、汽車制造商、零售商、醫(yī)療服務提供商、旅行社和酒店等客戶構建先進的會話 AI 服務。據(jù)悉,中國市場也有相應的合作伙伴,日后將進一步公開。

會話AI才是真正意義上的人工智能的基本特征,不論是語言模型還是訓練、推理,底層技術的逐步強大,才是實現(xiàn)這一切的基礎。距離我們所期望的人工智能雖然還很遙遠,但技術上的每一次突破都值得記載。


聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權轉(zhuǎn)載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學習之用,如有內(nèi)容侵權或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
  • NVIDIA
    +關注

    關注

    14

    文章

    4949

    瀏覽量

    102823
  • gpu
    gpu
    +關注

    關注

    28

    文章

    4703

    瀏覽量

    128720
收藏 人收藏

    評論

    相關推薦

    GPU服務器AI網(wǎng)絡架構設計

    眾所周知,在大型模型訓練中,通常采用每臺服務器配備多個GPU的集群架構。在上篇文章《高性能GPU服務器AI網(wǎng)絡架構(上篇)》中,我們對GPU
    的頭像 發(fā)表于 11-05 16:20 ?204次閱讀
    <b class='flag-5'>GPU</b>服務器<b class='flag-5'>AI</b>網(wǎng)絡架構設計

    英特爾將進一步分離芯片制造和設計業(yè)務

    面對公司成立50年來最為嚴峻的挑戰(zhàn),英特爾宣布了項重大戰(zhàn)略調(diào)整,旨在通過進一步分離芯片制造與設計業(yè)務,重塑競爭力。這決策標志著英特爾在應對行業(yè)變革中的堅定步伐。
    的頭像 發(fā)表于 09-19 16:48 ?263次閱讀

    通過展頻進一步優(yōu)化EMI

    電子發(fā)燒友網(wǎng)站提供《通過展頻進一步優(yōu)化EMI.pdf》資料免費下載
    發(fā)表于 09-04 09:32 ?1次下載
    通過展頻<b class='flag-5'>進一步</b>優(yōu)化EMI

    RFTOP進一步擴充波導同軸轉(zhuǎn)換器產(chǎn)品線

    近日高品質(zhì)微波毫米波器件供應商RFTOP(頻優(yōu)微波)進一步擴充波導同軸轉(zhuǎn)換器產(chǎn)品線,新增了同軸公頭全系列新品,覆蓋1.0mm、1.85mm、2.4mm、2.92mm、SMA、SMP等同軸公頭,涵蓋
    的頭像 發(fā)表于 09-03 17:06 ?621次閱讀
    RFTOP<b class='flag-5'>進一步</b>擴充波導同軸轉(zhuǎn)換器產(chǎn)品線

    iPhone 15在美國市場需求進一步減弱

    7月19日,國際媒體披露了市場研究機構CIRP的最新報告,揭示了iPhone 15系列在美國市場的受歡迎程度相較于前代iPhone 14系列有所下滑。這趨勢在CIRP最新發(fā)布的第二季度數(shù)據(jù)中得到了進一步印證,顯示iPhone 15系列的市場需求正經(jīng)歷持續(xù)放緩。
    的頭像 發(fā)表于 07-19 16:11 ?652次閱讀

    西門子與微軟進一步擴展戰(zhàn)略合作關系

    近日,西門子數(shù)字化工業(yè)軟件與微軟宣布進一步擴展雙方的戰(zhàn)略合作關系。通過微軟Azure云服務,西門子正式推出Xcelerator as a Service工業(yè)軟件解決方案,為客戶提供更靈活、高效的服務體驗。
    的頭像 發(fā)表于 05-21 10:47 ?653次閱讀

    進一步解讀英偉達 Blackwell 架構、NVlink及GB200 超級芯片

    NVIDIA NVLink Switch系統(tǒng)和銅電纜盒密集連接GPU,優(yōu)化并行模型效率,液冷設計進一步降低能耗。全新的第五代NVLink在單個域中可連接多達576個GPU,帶寬超過1P
    發(fā)表于 05-13 17:16

    安霸發(fā)布5nm制程的CV75S系列芯片,進一步拓寬AI SoC產(chǎn)品路線圖

    防展(ISC West)期間發(fā)布 5nm 制程的 CV75S 系列芯片,進一步拓寬其 AI SoC 產(chǎn)品路線圖。
    的頭像 發(fā)表于 04-09 10:26 ?1613次閱讀

    Arbe在中國上海設立分公司,進一步增強企業(yè)影響力

    摘要:中國團隊將進一步促進Arbe與中國市場重要企業(yè)之間的緊密合作。 新代4D成像雷達解決方案的頭部企業(yè)Arbe Robotics(納斯達克股票代碼:ARBE;以下稱Arbe)近日宣布已在上海設立
    的頭像 發(fā)表于 03-25 09:44 ?411次閱讀

    英飛凌重組銷售與營銷組織,進一步提升以客戶為中心的服務及領先的應用支持能力

    【 2024 年 2 月 28 日,德國慕尼黑訊】 為實現(xiàn)有雄心的增長目標,英飛凌科技股份公司(FSE代碼:IFX / OTCQX代碼:IFNNY)正進一步強化其銷售組織。自3月1日起,英飛凌的銷售
    發(fā)表于 03-01 16:31 ?424次閱讀
      英飛凌重組銷售與營銷組織,<b class='flag-5'>進一步</b>提升以客戶為中心的服務及領先的應用支持能力

    材料價格進一步下降,盈利觸底 鋰電材料企業(yè)如何應對?

    在上游原料價格相對穩(wěn)定、終端銷量有所好轉(zhuǎn)的情況下,季度四大鋰電主材價格卻出現(xiàn)進一步下跌。
    的頭像 發(fā)表于 03-01 10:25 ?976次閱讀

    MediaTek宣布將進一步深化與海信的長期合作關系

    MediaTek 宣布將進一步深化與海信的長期合作關系。海信率先采用了 MediaTek Pentonic 智能電視芯片,顯著提升了流媒體內(nèi)容的畫質(zhì)表現(xiàn)。自 2024 年起,MediaTek AI 超級分辨率技術(AI-SR)將
    的頭像 發(fā)表于 01-12 09:37 ?779次閱讀

    有什么方法可以進一步提高AD7714的分辨率???

    級放大再加給AD7714時,測得人分辨率還要低些。由于是用干電池得到AD7714的輸入信號,該信號相對來說很穩(wěn)定,而且板上的噪聲也不是太大。請問各位大蝦,還有什么方法可以進一步提高AD7714的分辨率?。坎粍俑屑ぃ?/div>
    發(fā)表于 12-25 06:33

    借助人工智能,存儲器比重將進一步增加

    SK海力士預測在人工智能(AI)領域,存儲器解決方案的比重將進一步增加,可以通過類似AiMX的解決方案部分替代圖形處理單元(GPU)。
    發(fā)表于 12-04 09:52 ?415次閱讀
    借助人工智能,存儲器比重將<b class='flag-5'>進一步</b>增加

    ad9106如何將波形頻率設置為進一步降低到10Hz?

    你好,我有個小問題。我使用100m時鐘芯片。每個時鐘只有10ns,ad9106寄存器的最小輸出波形只有100Hz。如何將波形頻率設置為進一步降低到10Hz?我已將配置設置為相關寄存器的最大值。拍
    發(fā)表于 12-01 06:12