自英特爾1971年推出全球第一個微處理器以來,計算能力一直以令人驚嘆的步伐發展演進著。根據摩爾定律,當前的計算機芯片比50年前的芯片在功能上強大數百萬倍。
盡管數十年來處理能力飛速增長,但直到現在,計算機芯片的基本體系結構仍然沒有太大改變。很大程度上說,芯片的創新,需要進一步縮小晶體管的體積,讓集成電路可以容納更多晶體管。數十年來,英特爾和AMD等廠商通過提高CPU性能而取得了長足的發展,被Clayton Christensen視為“持續的創新”。
今天,這種情況正在發生著巨大的變化。人工智能(AI)引發了半導體創新的“新黃金時代”——機器學習帶來獨特的市場需求和無限的機會,第一次激發了企業家們,去重新思考芯片架構的基本原則。
他們的目標,是設計一種專為AI設計的新型芯片,為下一代計算提供動力,這也是當前所有硬件領域最大的市場機遇之一。
新的計算范式
在計算技術發展的歷史中,主流的芯片架構一直是CPU。如今,CPU無處不在,它為筆記本電腦、移動設備和大多數數據中心提供動力。
1945年,傳奇人物約翰·馮·諾伊曼(John von Neumann)構思了CPU的基本架構。值得注意的是,此后他的這一設計基本沒有太大變化,今天,大多數計算機仍是基于馮·諾依曼理論的機器。
CPU的靈活性使得它有各種各樣的用途:CPU是通用的,能夠有效執行軟件所需的任何計算。不過盡管CPU的主要優勢是多功能性,然而如今領先的AI技術需要的,是一種非常特殊且密集的計算。
深度學習需要迭代執行數百萬甚至是數十億個相對簡單的乘法和加法步驟。深度學習以線性代數為基礎,在根本上是基于試錯法的:對參數進行調整,對矩陣進行乘法運算,隨著模型自身的不斷優化,在整個神經網絡中反復進行數字求和。
這種重復性的、計算量巨大的工作流程,對于硬件體系結構有很重要的要求?!覆⑿谢棺兊弥陵P重要,「并行」指的是:處理器能夠同時、而不是一個接一個地執行多個計算的能力。與之緊密相關的是,深度學習涉及大量數據的連續轉換,因此讓芯片內存和計算核心盡可能靠近數據所在的位置,可以減少數據移動,從而大幅提升速度和效率。
CPU尚不足以支持機器學習的獨特需求。CPU是按順序而非并行地處理計算任務,CPU的計算核心和內存通常位于單獨的模塊上,通過帶寬受限的通信系統(總線)進行連接。這就造成了數據移動的瓶頸,稱為“馮·諾依曼瓶頸”,導致的結果就是,在CPU上訓練神經網絡的效率非常低。
隨著機器學習正在日益普及,傳統芯片已經無法應對現代AI算法的要求,這一點正變得愈加突出。正如AI專家Yann LeCun最近所說的:“如果你能穿越到未來五年或者十年,看看計算機大部分時間都在做些什么的話,我認為很可能是機器學習之類的事情?!?/p>
這時候,就需要GPU來推動AI的繁榮發展了。GPU架構是由英偉達(Nvidia)在1990年代后期為游戲應用開發的。當時GPU被專門用于連續處理大量數據,以高幀速率渲染計算機游戲畫面。與CPU不同的是,GPU可以并行地運行數千個計算任務。
在2010年代初,AI領域開始意識到,Nvidia的游戲芯片實際上非常適合處理機器學習算法所需的工作負載,于是,GPU幸運地找到了新的目標市場。Nvidia抓住了這個機遇,將自己定位為“AI硬件市場領先提供商”,結果收獲了驚人的收益——從2013年到2018年,Nvidia的市值增長了20倍。
然而,正如Gartner分析師Mark Hung所說,“大家知道GPU并非針對AI工作負載進行了優化?!彪m然GPU已經被AI領域廣泛采用,但它并非為AI而生。
近些年來,有一大批企業家和技術人員開始重新構想計算機芯片,從頭開始對其進行優化,以釋放AI的無限潛力。Alan Kay的一段話令人難忘:“真正認真對待軟件的人,應該自己制造硬件?!?/p>
過去兩年中,有5個芯片獨角獸涌現,很多初創公司的估值令人瞠目結舌。傳統CPU巨頭英特爾為了避免被顛覆,所以進行了兩項重大收購:2016年4月以4.08億美元收購了Nervana Systems,2019年12月以20億美元收購了Habana Labs。未來幾年,這場競賽將繼續進行下去,爭奪這個規模數千億美元的市場。
-
人工智能
+關注
關注
1791文章
46859瀏覽量
237567 -
機器學習
+關注
關注
66文章
8377瀏覽量
132409
發布評論請先 登錄
相關推薦
評論