圖形芯片大廠 NVIDIA (英偉達) 于 26 日在中國臺北舉行的 GPU 技術大會 (GTC Taiwan) 上,創辦人暨CEO黃仁勛發布主題演講時表示,在全球 AI 深度學習運算的興起之下,人工神經網絡的運用凸顯出 GPU 運算的特性。而且,借由深度學習運算能夠延續遲緩成長多年的摩爾定律持續演進,并且成為目前人工智能技術主流演算方式。
2017 年的 NVIDIA GTC Taiwan 訂出了包括“人工智能的多元應用”、“人工智能應用于工業生產”與“人工智能與產業發展”等三大大會主題,且邀請產官學界講師來分享借由 GPU 的運算,以協助各領域產業升級。并且,透過人工智能應用,達成產業數字轉型的目標。黃仁勛指出,當前一般的電腦運算依然需要 CPU 來進行。不過,在大量資料分析的工作上,借助 GPU 運算能力已經成為趨勢。所以,當前的人工智能技術主要是以仰賴 CPU 與 GPU 的分工與合作為運算架構來執行工作。
黃仁勛強調,在過去 5 年內,投資在人工智能新創產業上已經成長 10 倍,其總產值達 66 億美元的規模。在此同時,有關深度學習的論文發布,也在過去 3 年也成長 10 倍。其中,有超過 3,000 個論文內容被提出,可以想像的是,人工學習與深度學習的議題身受重視。于是,NVIDIA 在 GTC 2017 提出的 GPU Cloud 服務,將可讓企業、新創公司借由云端協圖工作的方式,得到更強大的運算能力,借此達成各種深度學習的需求。其中包括人工智能模式的建立、電腦視覺應用、自動駕駛技術的發展,以及面對越來越多的物聯網使用需求等。
另外,借由深度學習模式,目前已經可透過 GPU 加速應用,來達成 3D 影像中的即時自然光影追跡、臉部表情與口語同步、動畫人物動作的自我表現、測量影像中的物件相對距離,或是讓機器手臂判斷與移動物件等技術。而面對這些未來的需求,NVIDIA 也宣布推出學習模型加速器 TensorRT 3,使得深度學習效率大幅提升,進而在運算設備成本上進行明顯的節省。
黃仁勛進一步表示,借由 TensorRT 3 速器,可以使得原本需要 160 組CPU,每秒分析 4.5 萬張照片的運算需求,簡略到只要配置 8 張 Tesla V100 的單組 NVIDIA HGX GPU 的電腦即可達成相同運算效能。而且,僅需要原本四分之一體積、二十分之一電力損耗,以及原本六分之一左右的成本支出就可以建構出這樣的運算能量。“這些節省下的成本就是金錢,這對企業來說非常的重要!”黃仁勛表示。
最后,黃仁勛表示,過去用在 CPU 制程上的摩爾定律已到尾聲,電晶體雖然每年持續增長 50%,但 CPU 效能成長僅 10%,使得 CPU 不可能再成長。因此,透過 GPU 運算的深度學習將是另一種解決方案。而 NVIDIA 的 GPU 是產業專用加速器,將能補足 CPU 在大量運算上的不足。而 Nvidia 也為自主運算時代打造一系列的平臺架構,包括 Jetson 超級電腦、JetPack 開發人員套件、DIGITS、Issac 機器人虛擬實驗室與深度學習單位等,以滿足當前自主機器的世代即將來臨的需求。
-
gpu
+關注
關注
28文章
4703瀏覽量
128712 -
人工智能
+關注
關注
1791文章
46882瀏覽量
237623 -
英偉達
+關注
關注
22文章
3749瀏覽量
90845
原文標題:黃仁勛 : GPU自主運算時代來臨,深度學習將延續摩爾定律
文章出處:【微信號:icsmart,微信公眾號:芯智訊】歡迎添加關注!文章轉載請注明出處。
發布評論請先 登錄
相關推薦
評論