精品国产人成在线_亚洲高清无码在线观看_国产在线视频国产永久2021_国产AV综合第一页一个的一区免费影院黑人_最近中文字幕MV高清在线视频

0
  • 聊天消息
  • 系統消息
  • 評論與回復
登錄后你可以
  • 下載海量資料
  • 學習在線課程
  • 觀看技術視頻
  • 寫文章/發帖/加入社區
會員中心
創作中心

完善資料讓更多小伙伴認識你,還能領取20積分哦,立即完善>

3天內不再提示

全新AI芯片,能效超GPU的100倍

DPVg_AI_era ? 來源:未知 ? 作者:李倩 ? 2018-06-16 16:33 ? 次閱讀


最近硬件業界有些熱鬧:IBM研發出能效超GPU 100倍的新型存儲器,英特爾預計2020年發布第一批獨立GPU,清華的Thinker芯片論文入選ISCA-18。從學術界到產業界,芯片研究者的探索從未停止,進展也在切實發生。英特爾中國研究院院長宋繼強博士,清華大學教授、微納電子學系主任魏少軍博士對未來AI芯片趨勢進行了展望。

芯片是當前科技、產業和社會關注的熱點,也是 AI 技術發展過程中不可逾越的關鍵階段。無論哪種 AI 算法,最終的應用必然通過芯片來實現。

在剛剛結束的計算機體系結構頂會ISCA 2018上,2017年的圖靈獎得主、體系結構領域的兩位宗師級人物John L. Hennessy和David A. Patterson在演講中指出,隨著摩爾定律和登納德縮放比例定律(Dennard Scaling)的放緩甚至停滯,單處理器核心的性能每年的提升已降為3%左右——相比上世紀60年代的黃金時期,那時候由于體系結構的創新,計算機性能每年提升在60%左右。

通用處理器性能提升的形勢看上去已經十分嚴峻,但接下來我們要帶來一些好消息。從IBM、英特爾到微軟,從學術界到產業界,芯片研究者的探索從未停止,進展也切切實實在發生。

IBM Nature論文:全新AI芯片,能效超GPU的100倍

在最近發表在Nature上的一篇論文中,IBM Research AI團隊用大規模的模擬存儲器陣列訓練深度神經網絡(DNN),達到了與GPU相當的精度。研究人員相信,這是在下一次AI突破所需要的硬件加速器發展道路上邁出的重要一步。

未來人工智能將需要大規模可擴展的計算單元,無論是在云端還是在邊緣,DNN都會變得更大、更快,這意味著能效必須顯著提高。雖然更好的GPU或其他數字加速器能在某種程度上起到幫助,但這些系統都不可避免地在數據的傳輸,也就是將數據從內存傳到計算處理單元然后回傳上花費大量的時間和能量。

模擬技術涉及連續可變的信號,而不是二進制的0和1,對精度具有內在的限制,這也是為什么現代計算機一般是數字型的。但是,AI研究人員已經開始意識到,即使大幅降低運算的精度,DNN模型也能運行良好。因此,對于DNN來說,模擬計算有可能是可行的。

但是,此前還沒有人給出確鑿的證據,證明使用模擬的方法可以得到與在傳統的數字硬件上運行的軟件相同的結果。也就是說,人們還不清楚DNN是不是真的能夠通過模擬技術進行高精度訓練。如果精度很低,訓練速度再快、再節能,也沒有意義。

在IBM最新發表的那篇Nature論文中,研究人員通過實驗,展示了模擬非易失性存儲器(NVM)能夠有效地加速反向傳播(BP)算法,后者是許多最新AI進展的核心。這些NVM存儲器能讓BP算法中的“乘-加”運算在模擬域中并行。

研究人員將一個小電流通過一個電阻器傳遞到一根導線中,然后將許多這樣的導線連接在一起,使電流聚集起來,就實現了大量計算的并行。而且,所有這些都在模擬存儲芯片內完成,不需要數字芯片里數據在存儲單元和和處理單元之間傳輸的過程。

IBM的大規模模擬存儲器陣列,訓練深度神經網絡達到了GPU的精度。來源:IBM Research

由于當前NVM存儲器的固有缺陷,以前的相關實驗都沒有在DNN圖像分類任務上得到很好的精度。但這一次,IBM的研究人員使用創新的技術,改善了很多不完善的地方,將性能大幅提升,在各種不同的網絡上,都實現了與軟件級的DNN精度。

單獨看這個大規模模擬存儲器陣列里的一個單元,由相變存儲器(PCM)和CMOS電容組成,PCM放長期記憶(權重),短期的更新放在CMOS電容器里,之后再通過特殊的技術,消除器件與器件之間的不同。研究人員表示,這種方法是受了神經科學的啟發,使用了兩種類型的“突觸”:短期計算和長期記憶。

這些基于NVM的芯片在訓練全連接層方面展現出了極強的潛力,在計算能效(28,065 GOP/sec/W) 和通量(3.6 TOP/sec/mm^2)上,超過了當前GPU的兩個數量級。

這項研究表明了,基于模擬存儲器的方法,能夠實現與軟件等效的訓練精度,并且在加速和能效上有數量級的提高,為未來設計全新的AI芯片奠定了基礎。研究人員表示,他們接下來將繼續優化,處理全連接層和其他類型的計算。

英特爾首款獨立GPU最早2020年問世,曝光14nm獨立GPU原型

另一芯片大廠英特爾自然也不會回避這場游戲。

昨天,英特爾發推正式確認,其首款獨立GPU最早將于2020年問世,并附上了一張英特爾首席架構師Raja Koduri的照片。

Raja Koduri在去年11月加入英特爾,此前曾在AMD擔任高級副總裁、RTG負責人。Raja Koduri有超過25年的視覺和加速計算技術,將推進英特爾的“計算和圖形領先”戰略。

Raja Koduri

不過,英特爾的推特并沒有說明這些GPU的發展方向,也沒有透露哪一款產品將率先上市,但預計數據中心和游戲PC都是目標。

英特爾此前在2018年ISSCC會議(國際固態電路會議)上展示了首個14nm 獨立GPU原型,它是一個雙芯片解決方案。第一個芯片包含兩個關鍵部件:GPU本身和一個系統代理;第二個芯片是一個與系統總線連接的FPGA。目前,GPU組件基于英特爾的Gen 9架構,并具有三個執行單元(EU)集群。這三個集群連接到一個復雜電源/時鐘(power/clock)管理機制,該機制有效地管理每個EU的電源和時鐘速度。

還有一個雙時鐘機制,可以使時鐘速度(即升壓狀態)增加一倍,超過現在的Gen 9 EU可以在英特爾iGPU上處理的時鐘速度。一旦達到合適的能效水平,英特爾將使用新一代的EU,并利用新工藝流程擴大EU數量,開發更大型的獨立GPU。

Raja Koduri長期以來一直是圖形行業受人尊敬的領導者,他的加盟表明英特爾有意再次認真對待圖形產品。盡管很少有人質疑英特爾芯片設計的能力,但從頭開始構建新的GPU架構不是一件小事,英特爾在三年內會推出圖形產品的難度非常大。

Shrout Research的分析師Ryan Shrout表示,英特爾把目標定在2020年,目的是與AMD的Radeon和Nvidia的GeForce產品競爭。但英特爾需要與AMD和英偉達保持同樣的性能和效率,或者至少在20%的差距內。

微軟:云計算招聘AI芯片工程師

微軟在芯片領域最近也有動作。

3月下旬,微軟在其Azure公共云部門發布了至少三個職位空缺,尋找適合AI芯片功能的應聘者。后來,該部門又掛出一個硅谷項目經理的職位空缺,以及“一個軟件/硬件協同設計和人工智能加速優化工程師”職位。

在與亞馬遜AWS和谷歌云競爭之際,微軟愿意不惜一切代價打造一個功能齊全的云服務。專門的處理器是微軟證明其在云計算領域為企業提供人工智能服務的一種方式。

半導體領域對微軟來說并不是全新的領域。微軟已經通過FPGA芯片增強云計算的AI計算能力,并推出Project Brainwave項目。現在,這些芯片可用于使用Azure的即用型機器學習軟件進行AI模型的訓練和運行。

去年微軟表示,它正在為HoloLens的下一個版本構建定制AI芯片,但這不在其云計算部門之內。

微軟的一位發言人告訴CNBC,新的職位空缺不屬于FPGA計劃的一部分,但與公司在設計自己的云硬件方面所做的工作有關,該計劃名為Project Olympus。

谷歌由于在云計算市場上落后于AWS和微軟,首次提出了在云計算中為人工智能開發定制芯片的想法,并且推出的TPU已經進行了第三次迭代,成為了GPU的一種替代方案。然而,這是一個代價非常高昂的努力。

Moor Insights & Strategy的分析師Patrick Moorhead估計,谷歌在其TPU項目上已經花費了2億至3億美元。跟英特爾、谷歌一樣,微軟做AI芯片的過程也將非常艱辛。

不過,現在微軟已經表明了它的支出意愿,上個季度的資本支出達到了創紀錄的35億美元。

宋繼強、魏少軍:AI芯片尚在發展初期,擁有巨大創新空間

通過芯片技術來大幅增強人工智能研發的條件已經成熟,未來十年將是AI芯片發展的重要時期,不論是架構上還是設計理念上都將有巨大的突破。

賽靈思在今年3月宣布將推出新一代AI芯片架構 ACAP(Adaptive Compute Acceleration Platform),這是一款高度集成的多核異構計算平臺,能根據各種應用于工作負載的需求對硬件層進行靈活變化;英偉達在終端側和服務中心分別提供不同性能和能效比的GPU芯片。

英特爾中國研究院院長宋繼強博士,清華大學教授、微納電子學系主任魏少軍博士在今年的《人工智能》雜志第二期《AI 芯片:從歷史看未來》中寫道,架構創新是AI芯片面臨的一個不可回避的課題。

我們要回答一個重要問題:是否會出現像通用 CPU 那樣獨立存在的 AI 處理器?如果存在的話,它的架構是怎樣的? 如果不存在,那么目前以滿足特定應用為主要目標的 AI 芯片就一定只能以 IP 核的方式存在,最終被各種各樣的 SoC 所集成。這樣是一種快速滿足具體應用要求的方式。

從芯片發展的大趨勢來看,現在還是 AI 芯片的初級階段,無論是科研還是產業應 用都有巨大的創新空間。從確定算法、領域的 AI 加速芯片向具備更高靈活性、適應性的智能芯片發展是科研發展的必然方向。神經擬態芯片技術和可重構計算芯片技術允許硬件架構和功能隨軟件變化而變化,實現以高能效比支持多種智能任務,在實現 AI 功能時具有獨到的優勢,具備廣闊的前景。

下文選自《AI芯片:從歷史看未來》文章第四節和第五節。

四、AI 芯片的發展趨勢

AI 應用落地還有很長的路要走,而對于芯片從業者來講,當務之急是研究芯片架 構問題。從感知、傳輸到處理,再到傳輸、執行,這是 AI 芯片的一個基本邏輯。但是智慧處理的基本架構是什么?還沒有人能夠說得清,研究者只能利用軟件系統、處理器等去模仿。軟件是實現智能的核心,芯片是支撐智能的基礎。我們認為,短期內以異構計算(多種組合方式)為主來加速各類應用算法的落地(看重能效比、性價比、可靠性);中期要發展自重構、自學習、自適應的芯片來支持算法的演進和類人的自然智能;長期則朝著通用 AI 芯片的方面發展。

通用 AI 計算

AI 的通用性實際上有兩個層級:第一個層級是可以處理任意問題;第二個層級是同時處理任意問題。第一層的目標是讓一種 AI 的算法可以通過不同的設計、數據和訓 練方法來處理不同的問題。例如現在流行的深度增強學習方法,大家用它訓練下棋、打撲克、視覺識別、語音識別、行為識別、運動導航等等。但是,不同的任務使用不同的數據集來獨立訓練,模型一旦訓練完成,只適用于這種任務,而不能用于處理其它任務。 所以,我們可以說這種 AI 的算法和訓練方法是通用的,而它訓練出來用于執行某個任 務的模型(是對具體解決這個任務的算法的表示,可以理解為程序中的一個模塊)是不通用的。第二層的目標是讓訓練出來的模型可以同時處理多種任務,就像人一樣可以既會下棋,又會翻譯,還會駕駛汽車和做飯。這個目標更加困難,首先是還沒有發現哪一個算法可以如此全能,其次是如何保證新加入的能力不會影響原有能力的穩定性,反而 可以彌補原來能力的不足,從而更好的完成任務。例如,我們知道多模態數據融合可以比只使用單模態數據有更好的準確性和魯棒性。

通用 AI 芯片

“通用 AI 芯片”就是能夠支持和加速通用 AI 計算的芯片。關于通用 AI(有時也 成為強 AI)的研究希望通過一個通用的數學模型,能夠最大限度概括智能的本質。那么,什么是智能的本質?目前比較主流的看法,是系統能夠具有通用效用最大化能力:即系統擁有通用歸納能力,能夠逼近任意可逼近的模式,并能利用所識別到的模式取得一個效用函數的最大化效益。這是很學術化的語言,如果通俗地說,就是讓系統通過學習和訓練,能夠準確高效地處理任意智能主體(例如人)能夠處理的任務。通用 AI 的難點 主要有兩個,一個是通用性(算法和架構),第二個是實現復雜度。

通用 AI 芯片的復雜度來自于任務的多樣性和對自學習、自適應能力的支持。所以, 我們認為通用 AI 芯片的發展方向不會是一蹴而就地采用某一種芯片來解決問題,因為理論模型和算法尚未完善。最有效的方式是先用一個多種芯片設計思路組合的靈活的異構系統(heterogeneous system of AI chips)來支持,各取所長,取長補短。當架構成熟,就可以考慮設計SoC(System on Chip)來在一個芯片上支持通用 AI。

五、面臨的挑戰

AI 芯片是當前科技、產業和社會關注的熱點,也是 AI 技術發展過程中不可逾越 的關鍵階段。無論哪種 AI 算法,最終的應用必然通過芯片來實現,不論是 CPU 還是文 中提及的各種 AI 芯片。由于目前的 AI 算法都有各自的長處和短處,只有給它們設定一個合適的應用邊界才能最好地發揮它們的作用。因此,確定應用領域就成為發展 AI 芯 片的重要前提。遺憾的是,AI 的“殺手”級應用目前尚未出現,已經存在的一些應用 對于老百姓的日常生活來說也還不是剛需,也還不存在適應各種應用的“通用”算法。其實,也不需要全部通用,能像人一樣可以同時擁有數十種能力,并且可以持續學習改進,就已經很好了。因此,AI 芯片的外部發展還有待優化。

架構創新是 AI 芯片面臨的一個不可回避的課題。我們要回答一個重要問題:是否 會出現像通用 CPU 那樣獨立存在的 AI 處理器?如果存在的話,它的架構是怎樣的? 如果不存在,那么目前以滿足特定應用為主要目標的 AI 芯片就一定只能以 IP 核的方式存在,最終被各種各樣的 SoC 所集成。這樣是一種快速滿足具體應用要求的方式。

從芯片發展的大趨勢來看,現在還是 AI 芯片的初級階段,無論是科研還是產業應用都有巨大的創新空間。從確定算法、領域的 AI 加速芯片向具備更高靈活性、適應性的智能芯片發展是科研發展的必然方向。神經擬態芯片技術和可重構計算芯片技術允許 硬件架構和功能隨軟件變化而變化,實現以高能效比支持多種智能任務,在實現 AI 功能時具有獨到的優勢,具備廣闊的前景。

聲明:本文內容及配圖由入駐作者撰寫或者入駐合作網站授權轉載。文章觀點僅代表作者本人,不代表電子發燒友網立場。文章及其配圖僅供工程師學習之用,如有內容侵權或者其他違規問題,請聯系本站處理。 舉報投訴
  • 英特爾
    +關注

    關注

    60

    文章

    9886

    瀏覽量

    171531
  • 人工智能
    +關注

    關注

    1791

    文章

    46863

    瀏覽量

    237587
  • AI芯片
    +關注

    關注

    17

    文章

    1860

    瀏覽量

    34911

原文標題:【超GPU 100倍】IBM新型AI芯片發Nature,英特爾、微軟出大招

文章出處:【微信號:AI_era,微信公眾號:新智元】歡迎添加關注!文章轉載請注明出處。

收藏 人收藏

    評論

    相關推薦

    GPU齊平,低功耗AI公司的轉型

    ? 電子發燒友網報道(文/周凱揚)隨著LLM在內的AI模型從規模和計算復雜性上成倍增加,與數年前相比,訓練優秀AI模型的成本已經上升到了一個新的高度。從最近不斷溢價、缺貨搶貨的GPU市場也可以看出
    的頭像 發表于 10-23 09:03 ?1373次閱讀
    與<b class='flag-5'>GPU</b><b class='flag-5'>能</b><b class='flag-5'>效</b>齊平,低功耗<b class='flag-5'>AI</b>公司的轉型

    AI芯片界的領頭羊進軍機器人行業

    算法的兼顧,英偉達不僅能用GPU滿足AI構建的訓練需求,還能用TeslaRT用來部署,很好實現AI構建,所以英偉達也率先成了這一波AI熱潮的最大受益者。給機器人“造腦”,英偉達發布
    發表于 06-11 08:20

    ai芯片gpu的區別

    ai芯片gpu的區別▌車載芯片的發展趨勢(CPU-GPU-FPGA-ASIC)過去汽車電子芯片
    發表于 07-27 07:29

    AI遇上FPGA會產生怎樣的反應

    是人工智能大躍進的基礎,在線下模型訓練中Xeon-Phi、GPU等發揮著巨大的作用,而在線上的推理任務中,浪潮FPGA深度學習加速解決方案則能夠實現7以上的比提升。 卷積網絡之父
    發表于 09-17 17:08

    IBM全新AI芯片設計登上Nature,解決GPU的算力瓶頸

    現如今的人工智能的神經網絡與GPU密不可分,但是GPU的算力對于未來神經網絡的發展是不夠用的,好在IBM全新AI芯片設計,能夠解決
    發表于 06-13 09:28 ?1403次閱讀

    Imagination推出全新A系列GPU,性能將提升2.5

    Imagination公司發布了全新的A系列GPU,該系列分為AXE、AXM、AXT三款。據悉,全新的A系列GPU相較之前的GPU,提升幅度
    的頭像 發表于 12-03 14:29 ?3421次閱讀

    IBM 新款高能 AI 芯片比高過 NVIDIA A100

    ,ISSCC 2021 亦被許多廠商視為發布其領先芯片技術的權威舞臺。 本屆會議上,IBM 發表了據稱是 “全球首款”的高能 AI 芯片,該芯片
    的頭像 發表于 02-19 11:03 ?2063次閱讀
    IBM 新款高能<b class='flag-5'>效</b> <b class='flag-5'>AI</b> <b class='flag-5'>芯片</b>:<b class='flag-5'>能</b><b class='flag-5'>效</b>比高過 NVIDIA A<b class='flag-5'>100</b>

    AMD:用于AI訓練及高性能計算將在2025年提高30

    )今日宣布將在2025年實現AMD EPYC(霄龍)處理器和AMD Instinct加速器提高30的目標,這些產品將為運行在加速計算節點上的AI訓練和高性能計算應用提供算力支持。
    發表于 10-08 13:49 ?870次閱讀

    GTC2022大會亮點:NVIDIA發布全新AI計算系統—DGX H100

    GTC2022大會亮點:NVIDIA發布全新AI計算系統—DGX H100,借助NVLink連接,DGX使八塊H100成為了一個巨型GPU
    的頭像 發表于 03-24 15:06 ?1888次閱讀
    GTC2022大會亮點:NVIDIA發布<b class='flag-5'>全新</b><b class='flag-5'>AI</b>計算系統—DGX H<b class='flag-5'>100</b>

    平頭哥全新RISC-V高能處理器玄鐵C908實現突破

    11月3日,在2022云棲大會上,阿里平頭哥發布全新RISC-V高能處理器玄鐵C908。玄鐵C908計算全球領先,較業界同性能處理器
    的頭像 發表于 11-03 17:37 ?1082次閱讀

    AMD甩出最強AI芯片 單個GPU跑大模型

    專為生成式AI設計的GPU:HBM密度是英偉達H100的2.4,帶寬是英偉達H100的1.6
    的頭像 發表于 06-20 10:47 ?879次閱讀

    ai芯片gpu芯片有什么區別?

    ai芯片gpu芯片有什么區別? AI芯片GPU
    的頭像 發表于 08-08 18:02 ?5432次閱讀

    英偉達:預計下一代AI芯片B100短缺,計劃擴產并采用新架構

    近期熱門的 H100 芯片運期短縮數天后,英偉達新型 AI 旗艦芯片 B100搭載全新的 Bla
    的頭像 發表于 02-25 09:29 ?871次閱讀

    AMD披露高效數據中心策略,預計至2027年提升

    會議期間,蘇姿豐談論了AMD如何通過實施30x25戰略推動2025年計算節點提升30的目標。她進一步透露,AMD已找到2026年至2027年間將能提升
    的頭像 發表于 05-24 17:37 ?992次閱讀

    上海貝嶺小封裝物聯網監測芯片BL0971介紹

    為實現這些監測及應用需求,上海貝嶺在之前的物聯網監測芯片BL0972的基礎上,針對直流充電樁的應用需求,推出了小封裝的BL0971交直流
    的頭像 發表于 11-15 11:27 ?208次閱讀
    上海貝嶺<b class='flag-5'>超</b>小封裝物聯網<b class='flag-5'>能</b><b class='flag-5'>效</b>監測<b class='flag-5'>芯片</b>BL0971介紹