作為典型的前瞻性基礎研究領域,人工智能得到了我國基礎研究最主要的支持渠道——國家自然科學基金委的持續關注和重視。自然科學基金較早地做出了前瞻部署,聚焦重點問題,資助了大批探索性研究項目,培養了一批基礎研究隊伍。
1956年在美國舉行的達特茅斯會議,探討了人工智能的發展。在這次會議中,人工智能(AI)的概念被正式提出:“讓機器能像人那樣認知、思考和學習,即用計算機模擬人的智能”。參加這次會議的科學家開始在科研領域致力于人工智能的發展,但受制于計算機技術的水平,當時人工智能的進展有限。
在20世紀60年代,美國科幻小說家阿西莫夫在《紐約時報》開設專欄,對人類半個世紀后的科技生活進行預測。他預言:“到2014年,機器人有了自己存在的意義:把人類從瑣碎的家務中解放出來,人們只需頭一天晚上對機器做出設置,第二天早上就可以直接享用現成的美味早餐。”
我國計算機仿真與計算機集成制造專家、中國工程院院士李伯虎認為,人工智能最近60年發展可以分為三個階段:20世紀50年代至70年代,人工智能力圖模擬人類智慧,但是受過分簡單的算法、匱乏得難以應對不確定環境的理論以及計算能力的限制,這一熱潮逐漸冷卻;20世紀80年代,人工智能的關鍵應用——基于規則的專家系統得以發展,但是數據較少,難以捕捉專家的隱性知識,加之計算能力依然有限,使得人工智能不被重視;進入20世紀90年代,神經網絡、深度學習等人工智能算法以及大數據、云計算和高性能計算等信息通信技術快速發展,人工智能進入新的快速增長時期。
李伯虎說:“當前,正在發生重大變革的信息新環境和人類社會發展的新目標,催生人工智能技術與應用進入了一個新階段。這一次人工智能新高潮的最大特點是企業引領。”
確實是這樣,在國際上,谷歌、IBM、亞馬遜等各自展開了對人工智能領域的研究。谷歌的人工智能程序阿爾法圍棋(AlphaGo)在圍棋領域的“人機大戰”吸引了世界的目光。在我國,阿里巴巴、華為、百度等公司在人工智能方面也各有建樹。比如,在中國,“人臉識別”這一人工智能技術已在多家公司的刷臉支付產品中被廣泛應用。
人工智能產業技術創新戰略聯盟理事長、中國工程院院士高文表示,新一輪的人工智能浪潮由企業帶動,目前多國已關注到人工智能巨大的發展潛力,加大了對人工智能研究的資助。
在中國,“人工智能”被寫入我國“十三五”規劃綱要。在2016年5月,國家發改委、科技部、工信部及中央網信辦四部委聯合下發《“互聯網+”人工智能三年行動實施方案》,要“充分發揮人工智能技術創新的引領作用,支撐各行業領域‘互聯網+’創業創新,培育經濟發展新動能”。面向2030年的人工智能規劃即將出臺,中國的人工智能研究與開發將進入頂層設計后的系統推進階段。
中國工程院院士潘云鶴表示,我國對智能城市、智能醫療、智能交通、智能制造、無人駕駛等領域的研究需求與日俱增,“我國已在這些領域實現了信息化,現在迫切需要智能化”。
人工智能有可能率先實現從跟跑到領跑
此前中國工程院根據人工智能60年的發展,結合中國發展的社會需求與信息環境,提出了人工智能2.0的理念。
中國工程院高文院士表示,人工智能2.0的一個鮮明特征是實現“機理類腦,性能超腦”的智能感知,進而實現跨媒體的學習和推理,比如人工智能AlphaGo就是通過視覺感知獲得“棋感”:“它將圍棋盤面視為圖像,對16萬局人類對弈進行‘深度學習’,獲得根據局面迅速判斷的‘棋感’,并采用強化學習方法進行自我對弈3000萬盤,尋找對最后取勝的關鍵‘妙招’。”通過這種感知,AlphaGo實現了符號主義、連接主義、行為主義和統計學習“四劍合璧”,最終超越人類。
楊衛認為,在研發活動的全鏈條——從基礎科學到技術及產品和市場中,基金委正是源頭供給者。順應時代發展要求深入探索人工智能,不僅造福于民,更可為國家在重大研究領域的突破作出貢獻。
此外,為推動人工智能研究的拓展與豐富,科學基金將重點支持通信與電子學、計算機科學與技術、自動化科學與技術等分支學科之間的交叉研究,通過交叉研究孕育重大突破。
“中國人工智能的發展前景閃爍著希望的曙光,有望領跑世界。”楊衛指出,在科技發展過程中,一個國家從跟跑到領跑的歷史性跨越既是華麗的,又是艱難的。它需要高瞻遠矚地把握創新規律,認識到領跑特有的表現形式,并審時度勢選擇正確的領跑方向,而人工智能作為人機網共融的重要組成部分,和智慧數據、新物理、合成生命、量子躍遷一道,有可能成為我國科技率先實現從跟跑到領跑的跨越的五個重要領域。
人工智能芯片設計
移動端的AI芯片在設計思路上有著本質的區別。首先,必須保證功耗控制在一定范圍內,換言之,必須保證很高的計算能效;為了達到這個目標,移動端AI芯片的性能必然有所損失,允許一些計算精度損失,因此可以使用一些定點數運算以及網絡壓縮的辦法來加速運算。
下面,將分別從服務器端芯片進行介紹。有的廠商同時具有這兩類產品,則不做嚴格區分。
Nvidia
在云端服務器這個領域,Nvidia的GPU已經成為服務器不可或缺的一部分,稱其為領跑者毫不為過。有報告顯示,世界上目前約有3000多家AI初創公司,大部分都采用了Nvidia提供的硬件平臺。
資本市場對此給出了熱烈的回應:在過去的一年中,曾經以游戲芯片見長的Nvidia股價從十幾年的穩居30美元迅速飆升至120美元。2017年2月10日,英偉達發布2016年第四季度的財報顯示,其營收同比增長55%,凈利潤達到了6.55億美元,同比增長216%。
Intel
作為PC時代的絕對霸主,Intel已經錯過了移動互聯網時代,在已經到來的AI時代,也失掉了先機,但它并沒有放棄,而是積極布局,準備逆襲。在云端,收購Altera之后推出了基于FPGA的專用深度學習加速卡,可以在云端使用;另外,收購Nervana,目標也是在云端。在移動端,則是收購了Movidius。下面先對Nervana進行介紹,對Movidius的介紹放在后面移動端。
Nervana創立于2014年,位于圣地亞哥的初創公司Nervana Systems已經從20家不同的投資機構那里獲得了2440萬美元資金,而其中一家是十分受人尊敬的德豐杰風險投資公司(Draper Fisher Jurvetson,DFJ)。
The Nervana Engine(將于2017年問世)是一個為深度學習專門定做和優化的ASIC芯片。這個方案的實現得益于一項叫做High Bandwidth Memory的新型內存技術,同時擁有高容量和高速度,提供32GB的片上儲存和8TB每秒的內存訪問速度。該公司目前提供一個人工智能服務“in the cloud”,他們聲稱這是世界上最快的且目前已被金融服務機構、醫療保健提供者和政府機構所使用的服務,他們的新型芯片將會保證Nervana云平臺在未來的幾年內仍保持最快的速度。
IBM
IBM很早以前就發布過watson,早就投入了很多的實際應用中去。除此之外,還啟動了對類人腦芯片的研發,那就是TrueNorth。
TrueNorth是IBM參與DARPA的研究項目SyNapse的最新成果。SyNapse全稱是Systems of Neuromorphic Adaptive Plastic Scalable Electronics(自適應可塑可伸縮電子神經系統,而SyNapse正好是突觸的意思),其終極目標是開發出打破馮?諾依曼體系的硬件。
這種芯片把數字處理器當作神經元,把內存作為突觸,跟傳統馮諾依曼結構不一樣,它的內存、CPU和通信部件是完全集成在一起。因此信息的處理完全在本地進行,而且由于本地處理的數據量并不大,傳統計算機內存與CPU之間的瓶頸不復存在了。同時神經元之間可以方便快捷地相互溝通,只要接收到其他神經元發過來的脈沖(動作電位),這些神經元就會同時做動作。
2011年的時候,IBM首先推出了單核含256 個神經元,256×256 個突觸和 256 個軸突的芯片原型。當時的原型已經可以處理像玩Pong游戲這樣復雜的任務。不過相對來說還是比較簡單,從規模上來說,這樣的單核腦容量僅相當于蟲腦的水平。
不過,經過3年的努力,IBM終于在復雜性和使用性方面取得了突破。4096個內核,100萬個“神經元”、2.56億個“突觸”集成在直徑只有幾厘米的方寸(是2011年原型大小的1/16)之間,而且能耗只有不到70毫瓦。
這樣的芯片能夠做什么事情呢?IBM研究小組曾經利用做過DARPA 的NeoVision2 Tower數據集做過演示。它能夠實時識別出用30幀每秒的正常速度拍攝自斯坦福大學胡佛塔的十字路口視頻中的人、自行車、公交車、卡車等,準確率達到了80%。相比之下,一臺筆記本編程完成同樣的任務用時要慢100倍,能耗卻是IBM芯片的1萬倍。
寒武紀
Google將TPU加速器芯片嵌入電路板中,利用已有的硬盤PCI-E接口接入數據中心服務器中。
終于有中國公司了,中文名“寒武紀”,是北京中科寒武紀科技有限公司的簡稱。這家公司有中科院背景,面向深度學習等人工智能關鍵技術進行專用芯片的研發,可用于云服務器和智能終端上的圖像識別、語音識別、人臉識別等應用。
寒武紀深度學習處理器采用的指令集DianNaoYu由中國科學院計算技術研究所陳云霽、陳天石課題組提出。模擬實驗表明,采用DianNaoYu指令集的寒武紀深度學習處理器相對于x86指令集的CPU有兩個數量級的性能提升。
目前,寒武紀系列已包含三種原型處理器結構:
寒武紀1號(英文名DianNao,面向神經網絡的原型處理器結構);
寒武紀2號(英文名DaDianNao,面向大規模神經網絡);
寒武紀3號(英文名PuDianNao,面向多種機器學習算法)。
2016年推出的寒武紀1A處理器(Cambricon-1A)是世界首款商用深度學習專用處理器,面向智能手機、安防監控、可穿戴設備、無人機和智能駕駛等各類終端設備
CEVA
CEVA是專注于DSP的IP供應商,擁有為數眾多的產品線。其中,圖像和計算機視覺 DSP 產品 CEVA-XM4 是第一個支持深度學習的可編程 DSP,而其發布的新一代型號 CEVA-XM6,具有更優的性能、更強大的計算能力,以及更低的耗能。
XM6 的兩大新硬件功能,將幫助大多數圖像處理和機器學習算法。第一個是分散-聚集,或者說是閱讀一個周期中,L1 緩存到向量寄存器中的 32 地址值的能力。CDNN2 編譯工具識別串行代碼加載,并實現矢量化來允許這一功能,當所需的數據通過記憶結構分布時,分散-聚集提高了數據加載時間。由于 XM6 是可配置的 IP,L1 數據儲存的大小/相關性在硅設計水平是可調節的,CEVA 表示,這項功能對于任意尺寸的 L1 都有效。此級用于處理的向量寄存器是寬度為 8 的 VLIW 實現器, 這樣的配置才能滿足要求。
第二功能稱為“滑動-窗口”數據處理,這項視覺處理的特定技術已被 CEVA 申請專利。有許多方法可以處理過程或智能中的圖像,通常算法將立刻使用平臺所需一塊或大片像素。對于智能部分,這些塊的數量將重疊,導致不同區域的圖像被不同的計算區域重用。CEVA 的方法是保留這些數據,從而使下一步分析所需信息量更少。
CEVA 指出,智能手機、汽車、安全和商業應用,如無人機、自動化將是主要目標
ARM
ARM剛推出全新芯片架構DynamIQ,通過這項技術,AI的性能有望在未來三到五年內提升50倍。
ARM的新CPU架構將會通過為不同部分配置軟件的方式將多個處理核心集聚在一起,這其中包括一個專門為AI算法設計的處理器。芯片廠商將可以為新處理器配置最多8個核心。同時為了能讓主流AI在自己的處理器上更好地運行,ARM還將放出一系列軟件庫。
DynamIQ是在ARM上一代革新架構big.LITTLE基礎上的一次演進,這種架構能夠對同一運算設備中的大小兩個核進行適當配置,以減少電池消耗。目前big.LITTLE架構已經被應用到了幾乎所有智能手機的芯片上,包括用于安卓系統的高通驍龍處理器以及蘋果最新一代的A10芯片。
接下來ARM推出的每一款Cortex-A系列芯片都將采用這種新技術。ARM稱,與在現有芯片架構上開發出的處理器(即Cortex-A73)相比,基于DynamIQ架構開發的全新處理器有望在三到五年內使人工智能的表現增強50倍。
人工智能時代已經來臨,在這個史無前例的巨大浪潮面前,有哪些公司能脫穎而出,成為新一代弄潮兒?讓我們拭目以待。
評論
查看更多